Skip to content

NAS 2023 - Hardware

Angeheftet Verschoben Linux
3 1 1.1k
  • Ich bastel gerne und baue auch gerne mein Setup zu Hause gerne mal komplett um. Es war mal wieder so weit. Warum? Ich hatte das Zima-Board ausprobiert. Dabei kam ich wieder mit dieser richtig geilen Software Proxmox in Berührung. Nach ein paar Tagen war ich wieder so weit, es musste passende Hardware dafür her 🙂

    20230503_202940.jpg

    Mal die Auflistung der Hardwarekomponenten

    Kosten OHNE Laufwerke ca. 350€

    Als Speicher sind zwei dieser Module verbaut. Macht 32GB RAM

    20230503_203108_ergebnis.jpg

    Das ASRock Board J5040-ITX ist passiv gekühlt

    20230503_203154_ergebnis.jpg

    Der NVMe Riegel für das Betriebssystem steckt mit passendem Adapter im Board Anschluss für den Front USB 3.0 Anschluss.

    20230507_130006_ergebnis.jpg

    Blick auf die PCIe Netzwerkkarte mit zwei 1GB LAN Schnittstellen

    20230507_125955_ergebnis.jpg

    Der zweite Teil wird sich dann mit der Softwarekonfiguration beschäftigen.

    NAS 2023 - Software Teil 1

    Hier mal der Stromverbrauch, gemessen mit einem Voltcraft SEM6000. Die Messung ist mit einem 90W Netzteil, das wird gegen ein 60W Netzteil ausgetauscht. Ich reiche eine neue Messung nach.

    Screenshot_20230508_164330_Voltcraft SEM6000_ergebnis.jpg

    Achso, für den Tippfehler in Voltcraft kann ich nichts 😊

    Ich werde das gelegentlich ergänzen, wenn mir noch was einfällt 😉

    NAS 2023 - Software Teil 1

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM verschob dieses Thema von Privat am
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • Ich hatte mit Proxmox und dem Kernel 5.15 immer das Problem, das die CPU auf volle Pulle lief. Also, in etwas so

    root@pve:~# cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_cur_freq
    2995200
    2995200
    2995200
    3163467
    

    3,2GHz ist ja der Maximaltakt. Ich konnte aber nie beobachten, das sich da etwas geändert hat. Umschalten von Hand konnte ich das. Also mit

    echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
    

    Aber, das war ja irgendwie nicht die Lösung. Dann heute im Proxmox-Forum darüber gestolpert, das es einen 6.2er Kernel gibt. Versuch macht klug....

    Ok, installiert

    apt update
    apt install pve-kernel-6.2
    reboot
    

    Danach habe ich einen 6.2er Kernel

    root@pve:~# uname -a
    Linux pve 6.2.11-2-pve #1 SMP PREEMPT_DYNAMIC PVE 6.2.11-2 (2023-05-10T09:13Z) x86_64 GNU/Linux
    

    Und siehe da, nun habe ich auch vernünftige Prozessor Taktraten. Das ist aktuell im Idle, wenn die pfSense und mein NAS keine Arbeit haben.

    root@pve:~# cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_cur_freq
    1098220
    1098240
    1098233
    1098240
    

    Problem gelöst. Jetzt zicken die Platten noch was rum, die ich gerne abschalten würde 😕

  • Ich war nicht so ganz zufrieden 🙂 Die zwei 4TB 5 1/4 Zoll HDDs müssen jetzt mal weichen.

    20230520_091729.jpg

    Ich habe jetzt wieder einen Proxmox Backup Server im Einsatz, da brauche ich nicht mehr so viel Speicherplatz im NAS. Kleiner, aber wichtiger Nebeneffekt ist der, das ich jetzt ca. 7W eingespart habe. In Zeiten wie diesen, rechnet sich das. Nein, die Investitionskosten rechnen wir jetzt nicht dagegen 😉

    Screenshot_20230520_140727_Voltcraft SEM6000_ergebnis.jpg

    Aktuelle Platten Ausstattung

    • 1 TB NVMe SSD (Proxmox Systemplatte)
    • 2 * 2,5 Zoll 1TB SSD WD Red (ZFS Pool für mein NAS)
    • 1 * 2,5 Zoll HDD 2TB für Datensicherung
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat dieses Thema am angepinnt
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • OpenCloud

    Verschoben OpenCloud opencloud linux
    3
    3
    0 Stimmen
    3 Beiträge
    194 Aufrufe
    FrankMF
    Ok, es gibt das ganze auch als docker compose, mit allem was man braucht. Also incl. Collabora usw. Sieht dann so aus. [image: 1747590885664-e394852d-7733-4755-8912-d1b738d8bee6-image.png] [image: 1747590962626-8909ef70-bf29-433b-a2df-0187b8093925-image.png] Morgen dann im Detail. Edit: https://linux-nerds.org/topic/1699/opencloud-docker-compose-local
  • 0 Stimmen
    1 Beiträge
    26 Aufrufe
    Niemand hat geantwortet
  • NodeBB - v3.3.0

    NodeBB nodebb linux
    1
    0 Stimmen
    1 Beiträge
    149 Aufrufe
    Niemand hat geantwortet
  • Nextcloud - Hub 5 (27.0.0)

    Nextcloud nextcloud hub5 linux
    1
    0 Stimmen
    1 Beiträge
    144 Aufrufe
    Niemand hat geantwortet
  • Debian 12 Bookworm released

    Linux debian linux
    5
    0 Stimmen
    5 Beiträge
    444 Aufrufe
    FrankMF
    Mein persönliches Fazit, alles läuft rund mit Debian Bookworm 12 Alle meine Hetzner VMs sind jetzt auf Bookworm Ok, was schwer und zeitaufwendig war, war die Nextcloud Installation bzw. der ganze PHP-Server. Das ist echt jedes mal eine Herausforderung, aber auch dabei werde ich die letzten Jahre sicherer. Hier die Story zum Nextcloud Server https://linux-nerds.org/topic/1437/nextcloud-upgrade-auf-bookworm-12 Richtig rund lief das Upgrade des NodeBB-Servers, war einfach und direkt auf Node18 hochgezogen. https://linux-nerds.org/topic/1444/nodebb-upgrade-auf-debian-bookworm-12 Damit ist jetzt alles hier auf Debian Bookworm 12 Haupt-PC VMs bei Hetzner VMs in der Proxmox Oh, da fällt mir gerade ein, der Proxmox ist noch fällig. Aber, dazu habe ich mir was einfallen lassen, da ist noch ein neues Mainboard unterwegs und dann gibt es dazu einen etwas größeren Beitrag. Danke Debian-Team, Debian Bookworm 12 ist eine runde Sache! Spannend wird jetzt, wie lange ich auf meinem Haupt-PC (Bookworm, KDE, Wayland) bleibe. Ich habe da so eine unangenehme Eigenschaft, wenn es um veraltete Pakete geht. Diesmal werde ich dann wahrscheinlich auf den Debian Unstable Zweig (sid) wechseln. Aber das dürfte noch was dauern, da ja aktuell erst mal alles passt.
  • ZFS - Wichtige Befehle

    Linux zfs linux
    3
    0 Stimmen
    3 Beiträge
    964 Aufrufe
    FrankMF
    Heute mal drüber gestolpert, das es auch so was geben kann. root@pve2:~# zpool status pool: pool_NAS state: ONLINE status: Some supported and requested features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(7) for details. scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Was machen? Als erstes mal ein Backup angestoßen. Danach root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr disabled local pool_NAS feature@head_errlog disabled local pool_NAS feature@blake3 disabled local pool_NAS feature@block_cloning disabled local pool_NAS feature@vdev_zaps_v2 disabled local Das kommt von neuen Funktionen, die zu ZFS hinzugefügt wurden und bei Erstellung des Pools nicht vorhanden waren. Dann upgraden wir mal root@pve2:~# zpool upgrade pool_NAS This system supports ZFS pool feature flags. Enabled the following features on 'pool_NAS': zilsaxattr head_errlog blake3 block_cloning vdev_zaps_v2 Kontrolle root@pve2:~# zpool status pool: pool_NAS state: ONLINE scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Features kontrollieren root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr enabled local pool_NAS feature@head_errlog active local pool_NAS feature@blake3 enabled local pool_NAS feature@block_cloning enabled local pool_NAS feature@vdev_zaps_v2 enabled local So, alle neuen Features aktiviert. Jetzt kann der Pool weiterhin seine Arbeit machen.
  • ZFS - One Disk Pool -> Mirror Pool

    Linux linux zfs
    1
    0 Stimmen
    1 Beiträge
    205 Aufrufe
    Niemand hat geantwortet
  • Debian Buster 10.7 released

    Linux debian linux
    1
    0 Stimmen
    1 Beiträge
    239 Aufrufe
    Niemand hat geantwortet