Skip to content

Armbian Image

Linux
  • Hi Frank, super und danke für die schnelle Antwort.

    Joa .. die eine oder andere LAMP installation habe ich schon hinter mir 🙂 . Damals noch auf 386ern .. (wobei es hier kein L sondern ein B (BSD) war ... war wohl 1997 oder so ... und der Browser noch ein CLI war ...

    Dein Bild hat etwas von "I/O Porn" :.) ... Habe mir den PCI-E M.2 vorhin schon bestellt .. Hoffe der kommt die Tage an und ich werfe ihm dann mal eine Evo ran ..

    Die / deine gemessenen Werte werden auch mit dem o.g. Armbian Release erreicht ? Für MySQL mit etwas größeren Joins die nicht im Memory gehalten werden, denke ich, dass die PCI-e Lösung als Swap dann besser als ein eMMC Speicher geeignet ist .. ?!

  • Ich habe schon so viel gemessen, das ich nicht mehr weiß was alles noch aktuell ist 🙂

    Die Situation ist aber aktuell recht stabil. Das heißt die Systeme laufen hier sehr gut. Einziges Problem in letzter Zeit war die SATA-Karte, die ich mittlerweile aussortiert habe. Die neue SATA-Karte macht was sie soll.

    Ansonsten läuft hier alles, so wie man es von großen Rootservern kennt. Ok, vielleicht etwas stromsparender 😉

    Aber, gerade im Linuxbereich, hat jeder eine andere Zielrichtung, was er damit machen will. Da kann es natürlich mal vorkommen, das es klemmt.

  • (den Test den ich meinte waren die Unterschiede 960/970er Evi) Danke .. ich werde berichten wie es war, wenn die ersten stress-queries durch sind :- ) .. und jetzt gehts weiter mit dem lustigen image-flashen (da wohl jeder Rockpro64 Neuling erstmal durchgeht 🙂 🙂 )

  • Achja .. und das shutdown -r / reboot problem (undefinierter Zustand danach - bei mir immernoch auf allen Images) habe ich bei mir mit einer Fritz-DECT Fernschalt-Steckdose "gelöst" 🙂 ... (hmmm .. sollte noch nen webhook setzen )

  • Ärgerliches Problem, vor allen Dingen wenn man viel mit den Dingern testet. Aber mittlerweile kennt man das ja 🙂

    Verschiedene Installationen scheinen etwas robuster zu sein, ich denke auch qualitativ hochwertige SD-Karten könnten das Problem verringern. Da stimmt sicherlich noch was nicht mit den Timings und Frequenzen!?

    Ok, Steckdose geht immer 🙂

  • hmm .. gestern ca. 6 verschiedenste SD Karten 2, 4, 6 , 16, 32 GB ... im Einsatz gehabt und einmal --- ein einzigstes mal hat er ge-rebootet ... (ich weiss jedoch nicht mehr welche es war ... )

    eine superaktuelle 32 GB Sandisk supi-dupi Karte die ich gerade im Einsatz habe will nicht rebooten ... .. btw. das armbian stretch image ist auf den ersten, schnellen blick mein tages-favorit (so darf man es wohl titulieren 😉 ) ..

  • ps ... aktuelles nightly build .173 🙂

    Welcome to ARMBIAN 5.74.190202 nightly Debian GNU/Linux 9 (stretch) 4.4.173-rock

  • entschuldigung,
    was war nochmal das reboot-problem? kenne ich gar nicht

  • Es gab/gibt verschiedene Konfigurationen, wo ein

    sudo reboot
    

    dazu geführt hat, das das System nicht jedesmal durchstartet. Manchmal blieb es unkontrolliert hängen.

    Hier der Thread im Pine64-Forum https://forum.pine64.org/showthread.php?tid=6785

    Eine mögliche Ursache sind Timingprobleme, warum es dann aber immer bei einem Kaltstart geht - keine Ahnung. Scheint evt. auch am u-boot zu liegen, gibt viele Spekulationen. Ich hatte aber auch schon Systeme, wo das nie ein Problem war. Also alles sehr merkwürdig. Eben mal ein paar Reboots gemacht mit dem neuen Mainline vom Kamil.

    Welcome to Ubuntu 18.04.1 LTS (GNU/Linux 4.20.0-1088-ayufan-gaac9b4fce0ab aarch64)
    

    Was soll ich sagen, er hat jedesmal durchgestartet 🙂 Ich habe mich mittlerweile dran gewöhnt, kenne die Zeit nach dem der ROCKPro64 mit dem Booten fertig sein muss 😉

  • ah ok, danke.
    hab hier eine emmc am laufen (die war noch irgendwo über), habe auch nicht soo viel zeit mit 4.4er und ayufan mainline am laufen gehabt. auch in dieser richtung trotzdem bislang keinen ärger gehabt.

  • Moin.
    Ich bin Christoph und hier neu im Forum. Ich habe einen RockPro64 bestellt und möchte mit nem Armbian Image loslegen, aber gerne mit Kernel 4.20
    Ich kenne mich grundsätzlich mit Linux aus, aber vielleicht helfen mir ein paar Tipps wie ich den Kernel upgraden kann?
    Mein Ziel ist es ein 4x HDD NAS, wo das OS von mircroSD läuft, sowie ein Webserver auf dem eMMC.

    Hoffe man kann mir helfen?

    Gruß,
    Christoph

  • Hallo Christoph,

    Amrbian hat, meines Wissens nach, aktuell keinen 4.20 Kernel. Den kann man sicher da einbauen, wenn man weiß wie 😉 Ich weiß es so spontan nicht.

    Alternativ kannst du Kamil seine Images nehmen. Der Kerl nennt sich im Netz Ayifan und kommt aus Polen, macht aber eine gute Arbeit 🙂 Dort steht dir aktuell ein 4.20.0-1090-ayufan zur Verfügung.

    Ich kann die Images eigentlich nur empfehlen. Wenn du dabei Hilfe brauchst, stell einfach Deine Fragen...

    Vorschlag, du könntest alternativ das System und den Webserver auf einer SSD am USB3-Port laufen lassen. Wird sicherlich mehr Spaß machen als auf SD-Karte oder eMMC.

  • @FrankM danke für die schnelle Antwort.
    Ich habe ne microSD Standard U3 in Planung, die sollte das von der Geschwindigkeit schon wuppen.

    Ich probiere dann Mal ein Armbian Image und den Kernel dort reinzubringen... Mal schauen was Google dazu meint.

  • @cnaed , halte uns auf dem Laufenden.

  • Klar mache ich, nur dauert es sicher bis die Teile alle ankommen. Von daher denke ich das ich alles Ende März was berichten kann.

  • In der Zwischenzeit verweise ich gerne auf Kamil's 5.0 Kernel 😉

  • Hi @FrankM ,

    ich hole heute meinen rockpro64 mit 4gb, NAS-Gehäuse und PCIe-Sata Extension endlich von der Post ab 🙂

    Geplant habe ich das als reines NAS, mit ein paar Extras (Plex, openhab). Betrieben wird das ganze mit einer 128gb U3 SSD, sowie vorerst einer 3tb 3,5" HDD. Zusätzlich wird es wohl noch eine Backup-Platte via USB3 geben (2,5" HDD). Netzteil habe ich mir das hoffentlich ausreichende 5A mitbestellt.

    Insofern stelle ich mir die Frage welches Image ich verwenden sollte. Ich würde gerne hierfür das offizielle Armbian installieren (4.4er Server). Spricht etwas gegen Armbian, bzw. wäre z.B. das "stretch-minimal-rock64-0.9.14-1159-arm64.img.xz" von ayufan die bessere Wahl?

    Danke dir.

    Grüße,
    Flow

  • Hallo @flow77 ,

    ich denke mit den 4.4er kannst du bei beiden nichts falsch machen. Bitte aber drauf achten, das richtige Image runterzuladen.

    https://github.com/ayufan-rock64/linux-build/releases/download/0.9.14/stretch-minimal-rockpro64-0.9.14-1159-arm64.img.xz

    Kein rock64 ! Dann klappt auch das Booten 😉

    Wenn du jetzt nicht einen besonderen Grund für Stretch hast, würde ich auf Buster setzen.
    https://github.com/ayufan-rock64/linux-build/releases/download/0.9.14/buster-minimal-rockpro64-0.9.14-1159-arm64.img.xz

    Viel Spaß! Und wenn Du möchtest, berichte mal wie es so läuft.

  • Hi @FrankM ,

    danke dir. Richtig, falschen Link zum Ayufan-Image gepostet.

    Ich bin gerade am ersten Testen mit dem 4.4er Armbian. Auf den ersten Blick scheint alles gut zu laufen. Positiv ist mir gleich einmal die I/O aufgefallen (128gb Samsung Evo Plus), offensichtlich kann man diese gut ausreizen. Zudem bin ich ebenso vom armbian-config begeistert, Plex und OMV laufen prima. Bis jetzt hab ich mich mit armbian eher mit nanopi&co herumgeschlagen, wo das kein Thema war.

    Leider habe ich offensichtlich vergessen die PCIe-Sata mitzubestellen, insofern musste ich mir nun eine beim großen A bestellen.

    Ich berichte dann gerne ausführlich darüber sobald bei mir alles läuft.

    Grüße,
    Flow

  • Scanner unterLinux Mint 20.1.

    Linux
    7
    0 Stimmen
    7 Beiträge
    889 Aufrufe
    T

    @frankm
    Ja, das war die Fehlermeldung. Die Driver Plug-in installation habe ich vielfach probiert, konnte jedoch kein Plug-in herunterladen. Heute früh verlangte Mint eine Aktualisierung für hplib. Nach der Installation probierte ich erneut das Driver Plug-in zu installieren und da hat es endlich funktioniert. >>>> Problem gelöst!

  • 1 Stimmen
    12 Beiträge
    901 Aufrufe
    M

    Hi,

    since I'm currently change my rockpro64 setup I came across this.

    With the kernel from ayufan you need to set PWM_CTL to

    /sys/devices/platform/pwm-fan/hwmon/hwmon3/pwm1

    for my self compiled one I need

    /sys/devices/platform/pwm-fan/hwmon/hwmon0/pwm1

    But I got it only working with one entry for PWM_CTL e.g.

    PWM_CTL = "/sys/devices/platform/pwm-fan/hwmon/hwmon0/pwm1",

    after that you need to start ats again

    sudo systemctl stop ats sudo systemctl start ats

    initially the fan should start immediately for a short period of time.

    In case it is even a different one on your kernel you can find the right one using this command.

    sudo find /sys -name pwm1 | grep hwmon

    So far I'm not sure which kernel parameter or modul changes this.

    Martin

  • Mainline Kernel 4.18.0-rc3

    Linux
    1
    0 Stimmen
    1 Beiträge
    945 Aufrufe
    Niemand hat geantwortet
  • u-boot-flash-spi-rockpro64.img.xz

    Verschoben Tools
    1
    0 Stimmen
    1 Beiträge
    1k Aufrufe
    Niemand hat geantwortet
  • stretch-openmediavault-rockpro64

    Verschoben Linux
    1
    0 Stimmen
    1 Beiträge
    792 Aufrufe
    Niemand hat geantwortet
  • stretch-minimal-rockpro64

    Verschoben Linux
    3
    0 Stimmen
    3 Beiträge
    979 Aufrufe
    FrankMF

    Mal ein Test was der Speicher so kann.

    rock64@rockpro64:~/tinymembench$ ./tinymembench tinymembench v0.4.9 (simple benchmark for memory throughput and latency) ========================================================================== == Memory bandwidth tests == == == == Note 1: 1MB = 1000000 bytes == == Note 2: Results for 'copy' tests show how many bytes can be == == copied per second (adding together read and writen == == bytes would have provided twice higher numbers) == == Note 3: 2-pass copy means that we are using a small temporary buffer == == to first fetch data into it, and only then write it to the == == destination (source -> L1 cache, L1 cache -> destination) == == Note 4: If sample standard deviation exceeds 0.1%, it is shown in == == brackets == ========================================================================== C copy backwards : 2812.7 MB/s C copy backwards (32 byte blocks) : 2811.9 MB/s C copy backwards (64 byte blocks) : 2632.8 MB/s C copy : 2667.2 MB/s C copy prefetched (32 bytes step) : 2633.5 MB/s C copy prefetched (64 bytes step) : 2640.8 MB/s C 2-pass copy : 2509.8 MB/s C 2-pass copy prefetched (32 bytes step) : 2431.6 MB/s C 2-pass copy prefetched (64 bytes step) : 2424.1 MB/s C fill : 4887.7 MB/s (0.5%) C fill (shuffle within 16 byte blocks) : 4883.0 MB/s C fill (shuffle within 32 byte blocks) : 4889.3 MB/s C fill (shuffle within 64 byte blocks) : 4889.2 MB/s --- standard memcpy : 2807.3 MB/s standard memset : 4890.4 MB/s (0.3%) --- NEON LDP/STP copy : 2803.7 MB/s NEON LDP/STP copy pldl2strm (32 bytes step) : 2802.1 MB/s NEON LDP/STP copy pldl2strm (64 bytes step) : 2800.7 MB/s NEON LDP/STP copy pldl1keep (32 bytes step) : 2745.5 MB/s NEON LDP/STP copy pldl1keep (64 bytes step) : 2745.8 MB/s NEON LD1/ST1 copy : 2801.9 MB/s NEON STP fill : 4888.9 MB/s (0.3%) NEON STNP fill : 4850.1 MB/s ARM LDP/STP copy : 2803.8 MB/s ARM STP fill : 4893.0 MB/s (0.5%) ARM STNP fill : 4851.7 MB/s ========================================================================== == Framebuffer read tests. == == == == Many ARM devices use a part of the system memory as the framebuffer, == == typically mapped as uncached but with write-combining enabled. == == Writes to such framebuffers are quite fast, but reads are much == == slower and very sensitive to the alignment and the selection of == == CPU instructions which are used for accessing memory. == == == == Many x86 systems allocate the framebuffer in the GPU memory, == == accessible for the CPU via a relatively slow PCI-E bus. Moreover, == == PCI-E is asymmetric and handles reads a lot worse than writes. == == == == If uncached framebuffer reads are reasonably fast (at least 100 MB/s == == or preferably >300 MB/s), then using the shadow framebuffer layer == == is not necessary in Xorg DDX drivers, resulting in a nice overall == == performance improvement. For example, the xf86-video-fbturbo DDX == == uses this trick. == ========================================================================== NEON LDP/STP copy (from framebuffer) : 602.5 MB/s NEON LDP/STP 2-pass copy (from framebuffer) : 551.6 MB/s NEON LD1/ST1 copy (from framebuffer) : 667.1 MB/s NEON LD1/ST1 2-pass copy (from framebuffer) : 605.6 MB/s ARM LDP/STP copy (from framebuffer) : 445.3 MB/s ARM LDP/STP 2-pass copy (from framebuffer) : 428.8 MB/s ========================================================================== == Memory latency test == == == == Average time is measured for random memory accesses in the buffers == == of different sizes. The larger is the buffer, the more significant == == are relative contributions of TLB, L1/L2 cache misses and SDRAM == == accesses. For extremely large buffer sizes we are expecting to see == == page table walk with several requests to SDRAM for almost every == == memory access (though 64MiB is not nearly large enough to experience == == this effect to its fullest). == == == == Note 1: All the numbers are representing extra time, which needs to == == be added to L1 cache latency. The cycle timings for L1 cache == == latency can be usually found in the processor documentation. == == Note 2: Dual random read means that we are simultaneously performing == == two independent memory accesses at a time. In the case if == == the memory subsystem can't handle multiple outstanding == == requests, dual random read has the same timings as two == == single reads performed one after another. == ========================================================================== block size : single random read / dual random read 1024 : 0.0 ns / 0.0 ns 2048 : 0.0 ns / 0.0 ns 4096 : 0.0 ns / 0.0 ns 8192 : 0.0 ns / 0.0 ns 16384 : 0.0 ns / 0.0 ns 32768 : 0.0 ns / 0.0 ns 65536 : 4.5 ns / 7.2 ns 131072 : 6.8 ns / 9.7 ns 262144 : 9.8 ns / 12.8 ns 524288 : 11.4 ns / 14.7 ns 1048576 : 16.0 ns / 22.6 ns 2097152 : 114.0 ns / 175.3 ns 4194304 : 161.7 ns / 219.9 ns 8388608 : 190.7 ns / 241.5 ns 16777216 : 205.3 ns / 250.5 ns 33554432 : 212.9 ns / 255.5 ns 67108864 : 222.3 ns / 271.1 ns
  • bionic-minimal-rockpro64

    Verschoben Linux
    4
    0 Stimmen
    4 Beiträge
    1k Aufrufe
    FrankMF
    Neue Version 0.7.3

    Soll gefixt sein.

    USB2/3 PCIe LED's LED's

    Weiße LED starten nach dem Booten dauerhaft OK

    PCIe

    Treiber soll drin sein, aber die 3,3V werden nicht zur Karte durchgeschaltet. Somit funktioniert PCIe nicht.
    Nicht OK

    USB2

    USB-Funkadapter wird erkannt

    Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 002 Device 002: ID 1113:3163 Medion AG Bus 002 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 006 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub Bus 005 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

    Funktastur getestet OK

    USB3

    Angeschlossene SSD wird erkannt OK

    Kurzer Speed-Test. Bitte dran denken, wir haben hier noch kein optimiertes Release, sondern einen ersten Gehversuch. Da sind noch ganz viele Dinge anzupassen, was sicherlich noch Wochen, wenn nicht Monate dauert! Also, die Messergebnisse mit der nötigen Vorsicht genießen. Und dran denken, wenn @tkaiser das Ding richtig untersucht, dann haben wir auch ordentliche Meßergebnisse! 😉

    Haupt-PC

    2,5Zoll am USB3-Port

    sudo dd if=/dev/zero of=sd.img bs=1M count=4096 conv=fdatasync [sudo] Passwort für frank: 4096+0 Datensätze ein 4096+0 Datensätze aus 4294967296 bytes (4,3 GB, 4,0 GiB) copied, 38,171 s, **113 MB/s** ROCKPro64

    Ich benutze eine SAN Disk 240GB SSD an einem Inateck USB 3.0 2,5 Zoll Adapter.

    Info zum USB-Adapter

    lsusb Bus 004 Device 002: ID 174c:55aa ASMedia Technology Inc. ASM1051E SATA 6Gb/s bridge, ASM1053E SATA 6Gb/s bridge, ASM1153 SATA 3Gb/s bridge

    2,5 Zoll SSD am USB2-Port

    sudo dd if=/dev/zero of=sd.img bs=1M count=4096 conv=fdatasync 4096+0 records in 4096+0 records out 4294967296 bytes (4.3 GB, 4.0 GiB) copied, 160.058 s, **26.8 MB/s**

    2,5 Zoll SSD am USB3 Port

    sudo dd if=/dev/zero of=sd.img bs=1M count=4096 conv=fdatasync 4096+0 records in 4096+0 records out 4294967296 bytes (4.3 GB, 4.0 GiB) copied, 36.2588 s, **118 MB/s**

    Der @tkaiser erreicht deutlich höhere Geschwindigkeiten. Bis zu 400 MB/s. Hier nachzulesen.

    Wenn ich so einen iozone Test mache wie der Thomas, dann erreiche ich ähnliche Werte

    sudo iozone -a -g 1000m -s 1000m -i 0 -i 1 -r 16384K Iozone: Performance Test of File I/O Version $Revision: 3.429 $ Compiled for 64 bit mode. Build: linux Contributors:William Norcott, Don Capps, Isom Crawford, Kirby Collins Al Slater, Scott Rhine, Mike Wisner, Ken Goss Steve Landherr, Brad Smith, Mark Kelly, Dr. Alain CYR, Randy Dunlap, Mark Montague, Dan Million, Gavin Brebner, Jean-Marc Zucconi, Jeff Blomberg, Benny Halevy, Dave Boone, Erik Habbinga, Kris Strecker, Walter Wong, Joshua Root, Fabrice Bacchella, Zhenghua Xue, Qin Li, Darren Sawyer, Vangel Bojaxhi, Ben England, Vikentsi Lapa. Run began: Sat May 26 05:16:40 2018 Auto Mode Using maximum file size of 1024000 kilobytes. File size set to 1024000 kB Record Size 16384 kB Command line used: iozone -a -g 1000m -s 1000m -i 0 -i 1 -r 16384K Output is in kBytes/sec Time Resolution = 0.000001 seconds. Processor cache size set to 1024 kBytes. Processor cache line size set to 32 bytes. File stride size set to 17 * record size. random random bkwd record stride kB reclen write rewrite read reread read write read rewrite read fwrite frewrite fread freread 1024000 16384 383912 348782 1515506 1659394

    Da muss ich den Thomas nochmal was zu fragen. ?? 🤔

    UART2

    Und zum Schluss ist mir noch aufgefallen, das die UART2 Schnittstelle jetzt funktioniert 🙂 Ok, den Adapter, der morgen kommt, habe ich dann umsonst bestellt. LOL

    OK

  • bionic-containers-rockpro64

    Verschoben Linux
    2
    0 Stimmen
    2 Beiträge
    869 Aufrufe
    FrankMF

    Ich habe das jetzt mal endlich getestet 🙂

    https://forum.frank-mankel.org/topic/296/rockpro64-docker-image