Skip to content

NAS 2023 - Software Teil 1

Angeheftet Verschoben Linux
  • Kommen wir zum schwierigen Teil. Man kann ja auch alles mit einem Debian Server machen, aber ich hatte mich mal wieder für einen Proxmox entschieden. Habe ja schon öfter einen gehabt und finde ihn immer wieder sehr praktisch.

    Auf dem NVMe SSD Riegel habe ich eine Standardinstallation mit dem ISO Image von Proxmox durchgeführt. Das kennt man ja so weit schon.

    Kleiner Tipp, macht die Installation immer schon am richtigen Netzwerk (falls mehrere vorhanden sind), das hinterher zu ändern ist immer unnötige Arbeit.

    23287ac1-59b2-4a18-bb94-d726f3f92f0f-grafik.png

    Ich hatte einige Probleme ein verschlüsseltes RIADs einzurichten bzw. überhaupt RAIDs. Die waren immer wieder nach einem Reboot weg!? Ich habe das dann mal für mich auf den fehlenden GRUB geschoben!??

    Device       Start        End    Sectors   Size Type
    /dev/sdd1       34       2047       2014  1007K BIOS boot
    /dev/sdd2     2048    2099199    2097152     1G EFI System
    /dev/sdd3  2099200 1953525134 1951425935 930.5G Linux LVM
    

    Ich habe es dann mit den Möglichkeiten von Proxmox (GUI) realisiert. Dazu bietet Proxmox ja ZFS an und ich hatte das schon mal länger hier im Einsatz. Na dann halt jetzt auch wieder.

    Also, die zwei 4TB-Platten geteilt und zwei ZFS Pools angelegt.

    67db7964-5e0e-4c27-97c1-12f522afb487-grafik.png

    Jetzt konnte ich aber immer noch nicht das machen, was ich wollte. Die Pools konnten nur Disk Image & Container enthalten!?

    9c1aa049-3c56-4304-b1d8-6579e6a0abaf-grafik.png

    Man kann aber unter Datacenter - Storage -Add ein Directory anlegen. Das bekommt irgendeinen Namen und als Pfad folgendes übergeben

    /Pool_1/Backups
    

    Das sieht dann so aus.

    3f65a7a7-1a0b-44bc-96f5-6118edc922c7-grafik.png

    Was macht das im Hintergrund, es legt ein Volume auf dem ZFS-Pool an.

    root@pve:~# zfs list
    NAME             USED  AVAIL     REFER  MOUNTPOINT
    Pool_1           940M  1.76T       96K  /Pool_1
    Pool_1/Backups   939M  1.76T      939M  /Pool_1/Backups
    Pool_2           277G  1.49T       96K  /Pool_2
    Pool_2/NAS       277G  1.49T      277G  /Pool_2/NAS
    

    Und jetzt bin ich in der Lage, dem Volume zuzuweisen, was ich dort speichern möchte.

    Jetzt was Wichtiges. Der Teil mit ZFS kann Fehler enthalten, wer es besser weiß, ich freue mich immer über Verbesserungen und Korrekturen.

    Jetzt habe ich das so, wie ich das haben möchte. Ein Pool kümmert sich um Datensicherungen usw. Der ander Pool dient meinem NAS als Datenspeicher.

    Nächster Teil wird sich dann mit der Einrichtung der pfSense VM beschäftigen.

    NAS 2023 - Hardware

    NAS 2023 - Software Teil 2

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM verschob dieses Thema von Privat am
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat dieses Thema am angepinnt

  • ASRock N100DC-ITX

    Angeheftet Linux
    2
    0 Stimmen
    2 Beiträge
    2k Aufrufe
    FrankMF
    NVMe

    Die NVMe (Crucial P3 mit 500GB) ist, wenn ich das richtig verstehe, nur mit zwei Lanes an die CPU angebunden. Das macht dann

    root@asrock:~# dd if=/dev/zero of=test.img bs=1M count=4096 conv=fdatasync 4096+0 records in 4096+0 records out 4294967296 bytes (4.3 GB, 4.0 GiB) copied, 3.9673 s, 1.1 GB/s Frequenzen root@asrock:/sys/devices/system/cpu/cpu0/cpufreq# cat cpuinfo_min_freq 700000 root@asrock:/sys/devices/system/cpu/cpu0/cpufreq# cat cpuinfo_max_freq 3400000

    Aktuelle cpufreq

    analyzing CPU 3: driver: intel_pstate CPUs which run at the same hardware frequency: 3 CPUs which need to have their frequency coordinated by software: 3 maximum transition latency: 4294.55 ms. hardware limits: 700 MHz - 3.40 GHz available cpufreq governors: performance, powersave current policy: frequency should be within 700 MHz and 3.40 GHz. The governor "performance" may decide which speed to use within this range. current CPU frequency is 800 MHz.

    oder auch

    analyzing CPU 3: driver: intel_pstate CPUs which run at the same hardware frequency: 3 CPUs which need to have their frequency coordinated by software: 3 maximum transition latency: 4294.55 ms. hardware limits: 700 MHz - 3.40 GHz available cpufreq governors: performance, powersave current policy: frequency should be within 700 MHz and 3.40 GHz. The governor "performance" may decide which speed to use within this range. current CPU frequency is 1.63 GHz. iperf3 root@asrock:/sys/devices/system/cpu/cpu0/cpufreq# iperf3 -s ----------------------------------------------------------- Server listening on 5201 (test #1) ----------------------------------------------------------- Accepted connection from 192.168.3.213, port 50746 [ 5] local 192.168.4.7 port 5201 connected to 192.168.3.213 port 50750 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 sec 112 MBytes 938 Mbits/sec [ 5] 1.00-2.00 sec 112 MBytes 941 Mbits/sec [ 5] 2.00-3.00 sec 112 MBytes 942 Mbits/sec [ 5] 3.00-4.00 sec 112 MBytes 940 Mbits/sec [ 5] 4.00-5.00 sec 112 MBytes 941 Mbits/sec [ 5] 5.00-6.00 sec 112 MBytes 941 Mbits/sec [ 5] 6.00-7.00 sec 112 MBytes 941 Mbits/sec [ 5] 7.00-8.00 sec 112 MBytes 941 Mbits/sec [ 5] 8.00-9.00 sec 112 MBytes 941 Mbits/sec [ 5] 9.00-10.00 sec 112 MBytes 939 Mbits/sec [ 5] 10.00-10.01 sec 547 KBytes 885 Mbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate [ 5] 0.00-10.01 sec 1.10 GBytes 941 Mbits/sec receiver ----------------------------------------------------------- Server listening on 5201 (test #2) ----------------------------------------------------------- Accepted connection from 192.168.3.213, port 33692 [ 5] local 192.168.4.7 port 5201 connected to 192.168.3.213 port 33694 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 114 MBytes 959 Mbits/sec 0 600 KBytes [ 5] 1.00-2.00 sec 112 MBytes 939 Mbits/sec 0 628 KBytes [ 5] 2.00-3.00 sec 113 MBytes 948 Mbits/sec 0 659 KBytes [ 5] 3.00-4.00 sec 111 MBytes 933 Mbits/sec 0 768 KBytes [ 5] 4.00-5.00 sec 112 MBytes 944 Mbits/sec 0 768 KBytes [ 5] 5.00-6.00 sec 112 MBytes 944 Mbits/sec 0 768 KBytes [ 5] 6.00-7.00 sec 112 MBytes 944 Mbits/sec 0 768 KBytes [ 5] 7.00-8.00 sec 112 MBytes 944 Mbits/sec 0 768 KBytes [ 5] 8.00-9.00 sec 111 MBytes 933 Mbits/sec 0 823 KBytes [ 5] 9.00-10.00 sec 112 MBytes 944 Mbits/sec 0 823 KBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.00 sec 1.10 GBytes 943 Mbits/sec 0 sender
  • ASRock N100M

    Linux
    9
    0 Stimmen
    9 Beiträge
    1k Aufrufe
    FrankMF

    Angekommen 🙂 Jetzt noch den Umzug vorbereiten und dann kann es losgehen. Aktuell ist es aber zu warm zum Basteln..

    20230711_164434_ergebnis.jpg

  • EndeavourOS - ein Test

    Linux
    12
    0 Stimmen
    12 Beiträge
    174 Aufrufe
    FrankMF

    Ich möchte aus Fairness Gründen hier festhalten, das die Probleme mit dem Standby in Endeavour vermutlich kein Problem der Distrubution sind.

    Bitte dazu folgenden Beitrag von mir lesen.
    https://linux-nerds.org/topic/1397/debian-bookworm-12-test/3

  • Debian 11 Bullseye released!

    Linux
    4
    0 Stimmen
    4 Beiträge
    281 Aufrufe
    FrankMF

    Mein Systemadmin auf der Arbeit meinte heute, angesprochen auf das Problem, läuft der Network-Manager? Ok, gute Frage...... Schauen wir mal.

    Ich bin mir leider nicht 100% sicher, ob er vor meinem Eingreifen lief, ich denke aber schon. Warum ich unsicher bin?

    root@debian:~# systemctl enable systemd-networkd.service Created symlink /etc/systemd/system/dbus-org.freedesktop.network1.service → /lib/systemd/system/systemd-networkd.service. Created symlink /etc/systemd/system/multi-user.target.wants/systemd-networkd.service → /lib/systemd/system/systemd-networkd.service. Created symlink /etc/systemd/system/sockets.target.wants/systemd-networkd.socket → /lib/systemd/system/systemd-networkd.socket. Created symlink /etc/systemd/system/network-online.target.wants/systemd-networkd-wait-online.service → /lib/systemd/system/systemd-networkd-wait-online.service.

    Ok, danach

    root@debian:~# systemctl start systemd-networkd.service root@debian:~# systemctl status systemd-networkd.service ● systemd-networkd.service - Network Service Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled; ven> Active: active (running) since Tue 2021-08-17 17:36:38 CEST; 6s ago TriggeredBy: ● systemd-networkd.socket Docs: man:systemd-networkd.service(8) Main PID: 1288 (systemd-network) Status: "Processing requests..." Tasks: 1 (limit: 19087) Memory: 3.9M CPU: 39ms CGroup: /system.slice/systemd-networkd.service └─1288 /lib/systemd/systemd-networkd Aug 17 17:36:38 debian systemd[1]: Starting Network Service... Aug 17 17:36:38 debian systemd-networkd[1288]: enp25s0: Gained IPv6LL Aug 17 17:36:38 debian systemd-networkd[1288]: Enumeration completed Aug 17 17:36:38 debian systemd[1]: Started Network Service.

    Danach ging immer noch nix.

    root@debian:/etc/network# ^C root@debian:/etc/network# nmcli device show GENERAL.DEVICE: wlx7cdd907cbec2 GENERAL.TYPE: wifi GENERAL.HWADDR: BA:59:C0:76:C7:F5 GENERAL.MTU: 1500 GENERAL.STATE: 20 (nicht verfügbar) GENERAL.CONNECTION: -- GENERAL.CON-PATH: -- GENERAL.DEVICE: enp25s0 GENERAL.TYPE: ethernet GENERAL.HWADDR: 30:9C:23:60:C6:8E GENERAL.MTU: 1500 GENERAL.STATE: 10 (nicht verwaltet) GENERAL.CONNECTION: -- GENERAL.CON-PATH: -- WIRED-PROPERTIES.CARRIER: an IP4.ADDRESS[1]: 192.168.3.169/24 IP4.GATEWAY: 192.168.3.1 IP4.ROUTE[1]: dst = 192.168.3.0/24, nh = 0.0.0.0, mt = 0 IP4.ROUTE[2]: dst = 0.0.0.0/0, nh = 192.168.3.1, mt = 0 IP6.ADDRESS[1]: 2a02:908:1260:13bc:329c:23ff:xxxx:xxxx/64 IP6.ADDRESS[2]: fd8a:6ff:2880:0:329c:23ff:fe60:c68e/64 IP6.ADDRESS[3]: fe80::329c:23ff:fe60:c68e/64 IP6.GATEWAY: fe80::e4d3:f0ff:fe8f:2354 IP6.ROUTE[1]: dst = fe80::/64, nh = ::, mt = 256 IP6.ROUTE[2]: dst = ::/0, nh = fe80::e4d3:f0ff:fe8f:2354, mt = 1024 IP6.ROUTE[3]: dst = 2a02:908:xxxx:xxxx::/64, nh = ::, mt = 256 IP6.ROUTE[4]: dst = fd8a:6ff:2880::/64, nh = ::, mt = 256

    Jetzt hatte ich das erste Mal einen Ansatz, wonach ich suchen musste.

    GENERAL.STATE: 10 (nicht verwaltet)

    Etwas Suche im Netz und dann das

    nano /etc/NetworkManager/NetworkManager.conf

    Inhalt der Datei

    [main] plugins=ifupdown,keyfile [ifupdown] managed=false

    Das false in true geändert. Danach ein

    systemctl restart NetworkManager

    und ich konnte den Network-Manager auf dem Desktop benutzen!?!?!?

    Bildschirmfoto vom 2021-08-17 18-07-25.png

    Irgendwas ist da durcheinander im Bullseye 😳

  • 0 Stimmen
    1 Beiträge
    247 Aufrufe
    Niemand hat geantwortet
  • Standard Tools

    Linux
    1
    0 Stimmen
    1 Beiträge
    109 Aufrufe
    Niemand hat geantwortet
  • Mail vom NAS verschicken

    Verschoben Linux
    1
    0 Stimmen
    1 Beiträge
    570 Aufrufe
    Niemand hat geantwortet
  • IPFire Konfiguration Teil 2

    Verschoben IPFire
    1
    0 Stimmen
    1 Beiträge
    1k Aufrufe
    Niemand hat geantwortet