Skip to content

VON USB 4TB HD BOOTEN GEHT NICHT

ROCKPro64
5 2 653
  • Hallo,
    ich bin neu hier und brauche mal Hilfe.
    Es geht um den ROCKPro64, ich möchte eine 4TB HD WD USB 3.0 anschließen.
    Habe den ROCKPro64 mit ( u-boot-flash-spi-rockpro64.img ) geflasht, habe aber Probleme nur mit 4TB HD, ob USB 2.0 oder USB 3.0 Anschluss angeschlossen ist, sie bootet nicht, mit einer 2TB HD USB 2.0 geht alles super. ( Debian Stretch )
    Nun meine Frage was mache ich falsch, kann mir einer helfen?

    Einen schönen Abend noch.
    Winne

  • Hallo Winne,

    ist die 4TB eine 3,5 Zoll HDD?

  • Hallo FrankM,

    Entschuldigung, hatte ich vergessen, es ist eine 2,5 Zoll HDD, die Stromversorgung geht auch, nur über ein USB Port, habe aber auch noch mit ein USB 3.0 Y-Stromversorgungskabel versucht, bootet einfach nicht, bei der 2TB HDD da geht alles, es ist auch eine 2,5 Zoll HDD, da aber nur mit ein USB 2.0 Y-Stromversorgungskabel, sonst reich die Spannung nicht aus, von ein USB Port .

  • Sehr interessant.

    Aber ich habe auch mittlerweile so einige Probleme, vor allen Dingen mit dem USB3-Port. Ob da aktuell was fehlerfrei dran läuft?

    Interessanterweise läuft bei mir ein Armbian auf einem USB3.0 Stick einwandfrei. Aber ich bekomme fast immer überall Probleme, wenn man richtig Daten schaufelt.

    Leider kann ich dir bei deinem Problem nicht helfen. Evt. hilft es irgendwann mal, wenn du einen Bugreport erstellst.

  • Hallo FrankM,
    schade das Du mir nicht weiter helfen kannst, aber danke für Deine schnelle Antwort.
    Mit dem Bugreport kenne ich nicht aus, bin noch leihe.

    Einen schönen Abend noch.

    Winne

  • ROCKPro64 - Kernel 5.6 und Wireguard 1.0

    ROCKPro64 linux rockpro64 wireguard
    1
    0 Stimmen
    1 Beiträge
    342 Aufrufe
    Niemand hat geantwortet
  • FTDI Support (ayufan Kernel 5.0)

    Ungelöst Probleme? ayufan ftdi rockpro64
    8
    0 Stimmen
    8 Beiträge
    670 Aufrufe
    K
    Hi, leider habe ich bisher keine Antwort von Kamil erhalten. So habe ich selbst mal einen Kernel kompiliert. Als Vorlage habe ich den Ayufan 5.3 rc4 1118 genommen. Also gleiche config nur zusätzlich den FTDI und den CH341 (Arduino clones) Treiber hinzugefügt. Könnt ihr ja mal bei Lust und Laune testen. Für meine Zwecke funktioniert er gut. Gruss https://drive.google.com/file/d/1kJarihL7bAqN9y6tK-m1V4zHCSEiEWtf/view?usp=sharing
  • Mainline 5.3.x

    Images rockpro64
    3
    0 Stimmen
    3 Beiträge
    487 Aufrufe
    FrankMF
    5.3.0-1119-ayufan released ayufan: defconfig: enable DRM_PANFROST/DRM_LIMA
  • USB-Adapter für eMMC-Modul

    Hardware hardware rockpro64
    1
    2
    0 Stimmen
    1 Beiträge
    1k Aufrufe
    Niemand hat geantwortet
  • ROCKPro64 - Samsung 970 NVMe M.2 500GB

    Hardware hardware rockpro64
    1
    1
    0 Stimmen
    1 Beiträge
    1k Aufrufe
    Niemand hat geantwortet
  • ROCKPro64 v2.1 - Und wieder mal einer der Ersten? ;)

    ROCKPro64 rockpro64
    3
    3
    0 Stimmen
    3 Beiträge
    2k Aufrufe
    FrankMF
    Ein paar Hardware Änderungen Weiße LED gedimmt [image: 1532529766713-img_20180725_151430_ergebnis-resized.jpg] Neue LED grün, neben dem Eingang der Stromversorgung [image: 1532529865409-img_20180725_151421_ge%C3%A4ndert-resized.jpg]
  • Zwischenfazit Juni 2018

    ROCKPro64 rockpro64
    1
    0 Stimmen
    1 Beiträge
    712 Aufrufe
    Niemand hat geantwortet
  • stretch-minimal-rockpro64

    Verschoben Linux rockpro64
    3
    0 Stimmen
    3 Beiträge
    1k Aufrufe
    FrankMF
    Mal ein Test was der Speicher so kann. rock64@rockpro64:~/tinymembench$ ./tinymembench tinymembench v0.4.9 (simple benchmark for memory throughput and latency) ========================================================================== == Memory bandwidth tests == == == == Note 1: 1MB = 1000000 bytes == == Note 2: Results for 'copy' tests show how many bytes can be == == copied per second (adding together read and writen == == bytes would have provided twice higher numbers) == == Note 3: 2-pass copy means that we are using a small temporary buffer == == to first fetch data into it, and only then write it to the == == destination (source -> L1 cache, L1 cache -> destination) == == Note 4: If sample standard deviation exceeds 0.1%, it is shown in == == brackets == ========================================================================== C copy backwards : 2812.7 MB/s C copy backwards (32 byte blocks) : 2811.9 MB/s C copy backwards (64 byte blocks) : 2632.8 MB/s C copy : 2667.2 MB/s C copy prefetched (32 bytes step) : 2633.5 MB/s C copy prefetched (64 bytes step) : 2640.8 MB/s C 2-pass copy : 2509.8 MB/s C 2-pass copy prefetched (32 bytes step) : 2431.6 MB/s C 2-pass copy prefetched (64 bytes step) : 2424.1 MB/s C fill : 4887.7 MB/s (0.5%) C fill (shuffle within 16 byte blocks) : 4883.0 MB/s C fill (shuffle within 32 byte blocks) : 4889.3 MB/s C fill (shuffle within 64 byte blocks) : 4889.2 MB/s --- standard memcpy : 2807.3 MB/s standard memset : 4890.4 MB/s (0.3%) --- NEON LDP/STP copy : 2803.7 MB/s NEON LDP/STP copy pldl2strm (32 bytes step) : 2802.1 MB/s NEON LDP/STP copy pldl2strm (64 bytes step) : 2800.7 MB/s NEON LDP/STP copy pldl1keep (32 bytes step) : 2745.5 MB/s NEON LDP/STP copy pldl1keep (64 bytes step) : 2745.8 MB/s NEON LD1/ST1 copy : 2801.9 MB/s NEON STP fill : 4888.9 MB/s (0.3%) NEON STNP fill : 4850.1 MB/s ARM LDP/STP copy : 2803.8 MB/s ARM STP fill : 4893.0 MB/s (0.5%) ARM STNP fill : 4851.7 MB/s ========================================================================== == Framebuffer read tests. == == == == Many ARM devices use a part of the system memory as the framebuffer, == == typically mapped as uncached but with write-combining enabled. == == Writes to such framebuffers are quite fast, but reads are much == == slower and very sensitive to the alignment and the selection of == == CPU instructions which are used for accessing memory. == == == == Many x86 systems allocate the framebuffer in the GPU memory, == == accessible for the CPU via a relatively slow PCI-E bus. Moreover, == == PCI-E is asymmetric and handles reads a lot worse than writes. == == == == If uncached framebuffer reads are reasonably fast (at least 100 MB/s == == or preferably >300 MB/s), then using the shadow framebuffer layer == == is not necessary in Xorg DDX drivers, resulting in a nice overall == == performance improvement. For example, the xf86-video-fbturbo DDX == == uses this trick. == ========================================================================== NEON LDP/STP copy (from framebuffer) : 602.5 MB/s NEON LDP/STP 2-pass copy (from framebuffer) : 551.6 MB/s NEON LD1/ST1 copy (from framebuffer) : 667.1 MB/s NEON LD1/ST1 2-pass copy (from framebuffer) : 605.6 MB/s ARM LDP/STP copy (from framebuffer) : 445.3 MB/s ARM LDP/STP 2-pass copy (from framebuffer) : 428.8 MB/s ========================================================================== == Memory latency test == == == == Average time is measured for random memory accesses in the buffers == == of different sizes. The larger is the buffer, the more significant == == are relative contributions of TLB, L1/L2 cache misses and SDRAM == == accesses. For extremely large buffer sizes we are expecting to see == == page table walk with several requests to SDRAM for almost every == == memory access (though 64MiB is not nearly large enough to experience == == this effect to its fullest). == == == == Note 1: All the numbers are representing extra time, which needs to == == be added to L1 cache latency. The cycle timings for L1 cache == == latency can be usually found in the processor documentation. == == Note 2: Dual random read means that we are simultaneously performing == == two independent memory accesses at a time. In the case if == == the memory subsystem can't handle multiple outstanding == == requests, dual random read has the same timings as two == == single reads performed one after another. == ========================================================================== block size : single random read / dual random read 1024 : 0.0 ns / 0.0 ns 2048 : 0.0 ns / 0.0 ns 4096 : 0.0 ns / 0.0 ns 8192 : 0.0 ns / 0.0 ns 16384 : 0.0 ns / 0.0 ns 32768 : 0.0 ns / 0.0 ns 65536 : 4.5 ns / 7.2 ns 131072 : 6.8 ns / 9.7 ns 262144 : 9.8 ns / 12.8 ns 524288 : 11.4 ns / 14.7 ns 1048576 : 16.0 ns / 22.6 ns 2097152 : 114.0 ns / 175.3 ns 4194304 : 161.7 ns / 219.9 ns 8388608 : 190.7 ns / 241.5 ns 16777216 : 205.3 ns / 250.5 ns 33554432 : 212.9 ns / 255.5 ns 67108864 : 222.3 ns / 271.1 ns