Skip to content

[HOWTO] Verschlüsseltes NAS aufsetzen

Verschoben ROCKPro64
  • Auf der Webseite von Kyle Kneitlinger gibt es eine schöne Grafik, die mir endlich mal richtig geholfen hat das Ganze zu verstehen.

    0_1535912287273_btrfsdmcrypt.png
    Bildquelle: https://kneit.in/2015/09/17/brtfs-raid-on-dmcrypt.html

    Vielleicht nutzt sie dem ein oder anderem von Euch auch.

  • Nachdem wir nun mit btrfs das Raid1 fertig eingerichtet haben, brauchen wir nun "Subvolumes".

    "Subvolumes" kann man sich wie Partitionen vorstellen, nur viel flexibler. Dann schauen wir uns das mal in der Praxis an.

    Erstellung

    In den Pfad wechseln

    cd /mnt/btrfs
    

    Dann das Subvolume erstellen.

    btrfs subvolume create daten
    

    Das sieht dann so aus.

    rock64@rockpro64:/mnt/btrfs$ ls -la
    total 20
    drwxr-xr-x 1 rock64 rock64   10 Sep  5 21:04 .
    drwxr-xr-x 3 root   root   4096 Sep  2 10:34 ..
    drwxrwxr-x 1 rock64 rock64   24 Sep  5 21:04 daten
    

    Snapshot erstellen

    btrfs subvolume snapshot daten snapshots/05_09_2018/
    

    In diesem Beispiel würde vom Subvolume daten ein Snapshot erstellt und dieser im Subvolume snapshots/05_09_18 abgelegt.

    Jetzt mal kurz zu diesen Snapshots, die machen eine Momentaufnahme des aktuellen Subvolumes. Das ist z.B. bei einem Server sinnvoll, den man umfangreich umkonfigurieren will/muss. Vorher vom funktionierenden System einen Snapshot machen und ran an die Arbeit. Geht was richtig schief, den Snapshot wieder herstellen - fertig!

    Ich sehe da jetzt für mein NAS keine sinnvolle Anwendung für. Benutzen tue ich das btrfs eigentlich auch nur, weil @tkaiser meinte ein Raid1 ohne Datenverifizierung ist Müll.

    Btrfs Datei-Selbstheilung

    Bei traditionellen Speichersystemen können Fehler auftreten, die komplett unbemerkt bleiben und zu fehlerhaften Daten führen, die ohne Warnung oder Fehlermeldung an Anwendungen gesendet werden. Um diese Fehler zu vermeiden, stellt Btrfs Prüfsummen für Daten und Metadaten bereit, erzeugt zwei Kopien der Metadaten und verifiziert dann die Prüfsummen bei jedem Leseprozess. Wenn eine Abweichung (schleichende Datenkorruption) erkannt wurde, kann das Btrfs-Dateisystem mithilfe der Metadatenspiegelung beschädigte Dateien (schleichende Datenkorruption) automatisch erkennen und fehlerhafte Daten mittels der unterstützten RAID-Volumes, einschließlich RAID 1, RAID 5, RAID 6, RAID 10, F1 und SHR, wiederherstellen.

    Quelle: https://www.synology.com/de-de/dsm/Btrfs

    Da man ein NAS mit Raid1 NICHT als Backup betrachten darf brauchen wir noch was um die Daten zu sichern.

    Ein Paar Btrfs Befehle

    Subvolume auflisten

    rock64@rockpro64:/mnt/btrfs$ sudo btrfs subvolume list /mnt/btrfs/
    ID 258 gen 23 top level 5 path daten
    ID 259 gen 24 top level 5 path snapshots
    ID 260 gen 25 top level 259 path snapshots/05_09_2018
    

    Snapshot löschen

    rock64@rockpro64:/mnt/btrfs$ sudo btrfs subvolume delete snapshots/05_09_2018/
    Delete subvolume (no-commit): '/mnt/btrfs/snapshots/05_09_2018'
    

    Subvolume löschen

     rock64@rockpro64:/mnt/btrfs$ sudo btrfs subvolume delete snapshots
     Delete subvolume (no-commit): '/mnt/btrfs/snapshots'
    

    Kurzes Fazit

    Ich brauche für das NAS keine Snapshot Funktionalität, so das ich auch kein Subvolume bräuchte. Man kann ja auch so in dem Filesystem die Daten speichern.

    Aufpassen, Btrfs ist für mich völliges Neuland 🙂 Aber ohne probieren, lerne ich nix 😉

    Quellen:

    https://kneit.in/2015/09/17/brtfs-raid-on-dmcrypt.html
    https://wiki.ubuntuusers.de/Befehle_Btrfs-Dateisystem/

  • Mal was sinnvolles 😉

    Script in /usr/local/sbin erstellen mit dem Namen crypt.sh

     #!/bin/bash
     ###############################################################################$
     #       Autor: Frank Mankel
     #       Verschlüsseltes BTRFS Raid1 einbinden!
     #
     #       Hardware:
     #       ROCKPro64v2.1
     #       PCIe SATA Karte
     #       2St. 2,5 Zoll HDD Platten a 2TB
     #
     #       Software:
     #       bionic-minimal 0.7.9
     #       Kontakt: xxxxx@gmail.com
     #
     ###############################################################################$
     
     #Passwörter abfragen
     cryptsetup open /dev/sda1 btrfs_pool0
     cryptsetup open /dev/sdb1 btrfs_pool1
     
     #Raid1 mounten
     mount /dev/mapper/btrfs_pool0 /mnt/btrfs
    

    Ausführbar machen

     sudo chmod +x /usr/local/sbin/crypt.sh
    

    Nun kann man nach dem Booten das Script aufrufen und das Btrfs Raid1 entsperren und direkt mounten. Da man sowieso die Passwörter eingeben muss, ist ein Autostart überflüssig. Man sitzt ja dann sowieso vor der Kiste 😉

  • Meine dritte HDD soll an USB3 und dient als Backup Medium. Auch diese HDD ist verschlüsselt.

    HDD partitionieren

    rock64@rockpro64v_2_1:~$ sudo fdisk /dev/sda
    [sudo] password for rock64: 
    
    Welcome to fdisk (util-linux 2.31.1).
    Changes will remain in memory only, until you decide to write them.
    Be careful before using the write command.
    
    
    Command (m for help): q
    

    Ihr kennt das ja mittlerweile 😉

    Cryptsetup

    rock64@rockpro64v_2_1:~$ sudo cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sda1
    
    WARNING!
    ========
    This will overwrite data on /dev/sda1 irrevocably.
    
    Are you sure? (Type uppercase yes): YES
    Enter passphrase for /dev/sda1: 
    Verify passphrase: 
    

    HDD öffnen

    rock64@rockpro64v_2_1:~$ sudo cryptsetup open /dev/sda1 backup
    Enter passphrase for /dev/sda1: 
    

    Filesystem auf der HDD anlegen

    rock64@rockpro64v_2_1:~$ sudo mkfs.ext4 /dev/mapper/backup
    mke2fs 1.44.1 (24-Mar-2018)
    Creating filesystem with 244189878 4k blocks and 61054976 inodes
    Filesystem UUID: 064d504b-c199-43da-8594-c3023905afdd
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    	4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    	102400000, 214990848
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (262144 blocks): done
    Writing superblocks and filesystem accounting information: done  
    

    HDD mounten

    rock64@rockpro64v_2_1:~$ sudo mount /dev/mapper/backup /media
    

    Besitzer ändern

    Jetzt besitzt Root die HDD, ändern auf rock64

     rock64@rockpro64v_2_1:/media$ sudo chown -R rock64:rock64 /media
    
  • Aufpassen!

    Die dritte HDD war ja jetzt sda

    In unserem Script haben wir vorher sda & sdb benutzt. Das ist jetzt etwas verschoben. Nun sind die beiden HDDs an der SATA Karte sdb & sdc ! Das Script dementsprechend ändern!

     #Passwörter abfragen
     cryptsetup open /dev/sdb1 btrfs_pool0
     cryptsetup open /dev/sdc1 btrfs_pool1
    
  • Nach dem booten crypt.sh ausführen als Root!

    Ergebnis

     rock64@rockpro64v_2_1:~$ df -h
     Filesystem               Size  Used Avail Use% Mounted on
     udev                     992M     0  992M   0% /dev
     tmpfs                    200M  512K  199M   1% /run
     /dev/mmcblk1p7            29G  1,4G   26G   5% /
     tmpfs                    996M     0  996M   0% /dev/shm
     tmpfs                    5,0M  4,0K  5,0M   1% /run/lock
     tmpfs                    996M     0  996M   0% /sys/fs/cgroup
     /dev/mmcblk1p6           112M  4,0K  112M   1% /boot/efi
     tmpfs                    200M     0  200M   0% /run/user/1000
     /dev/mapper/backup       916G   77M  870G   1% /mnt/backup
     /dev/mapper/btrfs_pool0  1,9T  108M  1,9T   1% /mnt/btrfs
    

    crypt.sh

     #!/bin/bash
     ###############################################################################$
     #       Autor: Frank Mankel
     #       Verschlüsseltes BTRFS Raid1 einbinden!
     #
     #       Hardware:
     #       ROCKPro64v2.1
     #       PCIe SATA Karte
     #       2St. 2,5 Zoll HDD Platten a 2TB
     #
     #       Software:
     #       bionic-minimal 0.7.9
     #       Kontakt: frank.mankel@gmail.com
     #
     ###############################################################################$
     
     #Passwörter abfragen
     cryptsetup open /dev/sda1 backup
     cryptsetup open /dev/sdb1 btrfs_pool0
     cryptsetup open /dev/sdc1 btrfs_pool1
     
     #Backup mounten
     mount /dev/mapper/backup /mnt/backup
     
     #Raid1 mounten
     mount /dev/mapper/btrfs_pool0 /mnt/btrfs
    

    hdparm.conf

     #HDDs schlafen legen nach 20 Minuten (240*5=1200Sek.=20Min.)
     #Raid1 Disk1
      /dev/disk/by-id/ata-ST2000LM015-2E8174_ZDZ2MY9W {
      # mult_sect_io = 16
      # write_cache = off
      # dma = on
      spindown_time = 10
      }
     
     #Raid1 Disk2
      /dev/disk/by-id/ata-ST2000LM015-2E8174_ZDZ2MZ1W {
      # mult_sect_io = 16
      # write_cache = off
      # dma = on
      spindown_time = 10
      }
     
     #HDDs schlafen legen nach 20 Minuten (240*5=1200Sek.=20Min.)
     #HDD Backup
      /dev/disk/by-id/ata-HGST_HTS541010A9E680_JD1028CC043USV {
      # mult_sect_io = 16
      # write_cache = off
      # dma = on
      spindown_time = 10
      }
    
  • Das NAS muss natürlich auch schön auf unserem Haupt-PC eingebunden werden. Dafür nutze ich den NFS-Server. Die Ubuntu Anleitung passt und ist sehr gut.

    NFS-Server (NAS)

    Installation

     sudo apt-get install nfs-kernel-server
    

    Konfiguration

    sudo nano /etc/exports
    

    Datei exports

     # /etc/exports: the access control list for filesystems which may be exported
     #               to NFS clients.  See exports(5).
     #
     # Example for NFSv2 and NFSv3:
     # /srv/homes       hostname1(rw,sync,no_subtree_check) hostname2(ro,sync,no_subtree_check)
     #
     # Example for NFSv4:
     # /srv/nfs4        gss/krb5i(rw,sync,fsid=0,crossmnt,no_subtree_check)
     # /srv/nfs4/homes  gss/krb5i(rw,sync,no_subtree_check)
     #
     /mnt/btrfs        192.168.3.213(rw,sync,no_subtree_check,no_root_squash)
     /mnt/btrfs        192.168.4.213(rw,sync,no_subtree_check,no_root_squash)
    

    Die Verzeichnisse im Netz bekannt machen

     sudo exportfs -ra 
    

    Danach kann der Rechner 192.168.3.213 auf das NAS zugreifen.

    NFS Client (PC)

    Installation

     sudo apt-get install nfs-common 
    

    Mountpunkte anzeigen

     showmount -e NFS_SERVER 
    

    Ausgabe

     frank@frank-MS-7A34:~$ showmount -e 192.168.3.207
     Export list for 192.168.3.207:
     /mnt/btrfs 192.168.4.213,192.168.3.213
    

    In /etc/fstab eintragen

     sudo nano /etc/fstab
    

    Datei fstab

    Folgende Zeile eintragen

     192.168.3.207:/mnt/btrfs  /media/NAS_neu      nfs     rw      0       0 
    

    Verzeichnis für den Mountpunkt erzeugen

     sudo mkdir /media/NAS_neu
    

    Einbinden

     sudo mount -a
    

    Das NAS wird jetzt beim Neustart des PC's automatisch eingebunden.

  • Heute mal den aktuellen Kernel installiert.

     sudo apt-get update
     sudo apt-cache search linux-image
     sudo apt-get install linux-image-4.4.138-1094-rockchip-ayufan-gf13a8a9a4eee
    

    Danach Neustart. Kernel war ok.

    rock64@rockpro64v_2_1:~$ uname -a
    Linux rockpro64v_2_1 4.4.138-1094-rockchip-ayufan-gf13a8a9a4eee #1 SMP Thu Aug 9 20:29:55 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
    

    Nach dem ersten Neustart bestand mein Raid 1 nur noch aus einer Platte. Ursache aktuell unbekannt - ich werde beobachten 😉 Ein Neustart hat das Problem gelöst. 🤔

    Anmerkung

    Für cryptsetup kam heute ein Update !?!?!

  • Mainline 4.18.x testen

    Um meine aktuelle Installation nicht zu zerstören 🙂 , habe ich das eMMC-Modul auf eine SD-Karte kopiert.

    sudo dd if=/dev/mmcblk1 of=/dev/mmcblk0 bs=4M
    

    Danach von SD-Karte starten. Danach den Mainline installieren.

    wget https://github.com/ayufan-rock64/linux-mainline-kernel/releases/download/4.18.0-rc8-1060-ayufan/linux-headers-4.18.0-rc8-1060-ayufan-g45828c4db727_4.18.0-rc8-1060-ayufan_arm64.deb
    wget https://github.com/ayufan-rock64/linux-mainline-kernel/releases/download/4.18.0-rc8-1060-ayufan/linux-image-4.18.0-rc8-1060-ayufan-g45828c4db727-dbg_4.18.0-rc8-1060-ayufan_arm64.deb
    wget https://github.com/ayufan-rock64/linux-mainline-kernel/releases/download/4.18.0-rc8-1060-ayufan/linux-image-4.18.0-rc8-1060-ayufan-g45828c4db727_4.18.0-rc8-1060-ayufan_arm64.deb
    sudo dpkg -i *.deb
    

    So, danach ist der Mainline installiert. Nach einem Reboot sollte er den Mainline Kernel laden. Seltsamerweise funktioniert das nicht !?!?!?!?! Das Problem ist mir schon mal begegnet. Das passiert in folgender Kombination.

    • eMMC-Modul gesteckt
    • Jumper eMMC-Modul gesetzt
    • SD-Karte gesteckt

    Es startet immer der Kernel 4.4.x Erst wenn ich das eMMC-Modul und den Jumper entferne bootet die SD-Karte mit dem neu installierten Mainline-Kernel. Der Grund dafür will sich mir im Moment nicht erschließen. 😟

    Gut, aber erst mal egal. Wollte sowieso nur mal eben meine NAS-Installation mit dem Mainline-Kernel testen.

    rock64@rockpro64v_2_1:~$ uname -a
    Linux rockpro64v_2_1 4.18.0-rc8-1060-ayufan-g45828c4db727 #1 SMP PREEMPT Thu Aug 9 19:41:21 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
    
  • Nach einigen Wochen ist mir folgendes aufgefallen.

    [202489.629073] BTRFS info (device dm-1): read error corrected: ino 0 off 226903093248 (dev /dev/mapper/btrfs_pool1 sector 443170104)
    [203929.223855] BTRFS error (device dm-1): parent transid verify failed on 226742059008 wanted 1461 found 937
    [203929.240824] BTRFS info (device dm-1): read error corrected: ino 0 off 226742059008 (dev /dev/mapper/btrfs_pool1 sector 442855584)
    [203929.241124] BTRFS info (device dm-1): read error corrected: ino 0 off 226742063104 (dev /dev/mapper/btrfs_pool1 sector 442855592)
    [203929.241391] BTRFS info (device dm-1): read error corrected: ino 0 off 226742067200 (dev /dev/mapper/btrfs_pool1 sector 442855600)
    [203929.241630] BTRFS info (device dm-1): read error corrected: ino 0 off 226742071296 (dev /dev/mapper/btrfs_pool1 sector 442855608)
    [203930.278570] BTRFS error (device dm-1): parent transid verify failed on 226761359360 wanted 1461 found 942
    [203930.289002] BTRFS info (device dm-1): read error corrected: ino 0 off 226761359360 (dev /dev/mapper/btrfs_pool1 sector 442893280)
    [203930.289286] BTRFS info (device dm-1): read error corrected: ino 0 off 226761363456 (dev /dev/mapper/btrfs_pool1 sector 442893288)
    [203930.289551] BTRFS info (device dm-1): read error corrected: ino 0 off 226761367552 (dev /dev/mapper/btrfs_pool1 sector 442893296)
    [203930.289802] BTRFS info (device dm-1): read error corrected: ino 0 off 226761371648 (dev /dev/mapper/btrfs_pool1 sector 442893304)
    [203931.145319] BTRFS error (device dm-1): parent transid verify failed on 226895413248 wanted 1465 found 877
    [203931.161445] BTRFS info (device dm-1): read error corrected: ino 0 off 226895413248 (dev /dev/mapper/btrfs_pool1 sector 443155104)
    [203931.161823] BTRFS info (device dm-1): read error corrected: ino 0 off 226895417344 (dev /dev/mapper/btrfs_pool1 sector 443155112)
    [203950.975864] BTRFS error (device dm-1): parent transid verify failed on 227301457920 wanted 1405 found 901
    [203950.987880] repair_io_failure: 2 callbacks suppressed
    [203950.987891] BTRFS info (device dm-1): read error corrected: ino 0 off 227301457920 (dev /dev/mapper/btrfs_pool1 sector 443948160)
    [203950.988165] BTRFS info (device dm-1): read error corrected: ino 0 off 227301462016 (dev /dev/mapper/btrfs_pool1 sector 443948168)
    [203950.988611] BTRFS info (device dm-1): read error corrected: ino 0 off 227301466112 (dev /dev/mapper/btrfs_pool1 sector 443948176)
    [203950.988863] BTRFS info (device dm-1): read error corrected: ino 0 off 227301470208 (dev /dev/mapper/btrfs_pool1 sector 443948184)
    [203950.989766] BTRFS error (device dm-1): parent transid verify failed on 227302096896 wanted 1406 found 901
    [203950.995493] BTRFS info (device dm-1): read error corrected: ino 0 off 227302096896 (dev /dev/mapper/btrfs_pool1 sector 443949408)
    [203950.995909] BTRFS info (device dm-1): read error corrected: ino 0 off 227302100992 (dev /dev/mapper/btrfs_pool1 sector 443949416)
    [203950.996144] BTRFS info (device dm-1): read error corrected: ino 0 off 227302105088 (dev /dev/mapper/btrfs_pool1 sector 443949424)
    [203950.996368] BTRFS info (device dm-1): read error corrected: ino 0 off 227302109184 (dev /dev/mapper/btrfs_pool1 sector 443949432)
    [288883.929514] BTRFS error (device dm-1): parent transid verify failed on 226904064000 wanted 1468 found 886
    [288883.981621] BTRFS info (device dm-1): read error corrected: ino 0 off 226904064000 (dev /dev/mapper/btrfs_pool1 sector 443172000)
    [288883.981948] BTRFS info (device dm-1): read error corrected: ino 0 off 226904068096 (dev /dev/mapper/btrfs_pool1 sector 443172008)
    [288883.982198] BTRFS info (device dm-1): read error corrected: ino 0 off 226904072192 (dev /dev/mapper/btrfs_pool1 sector 443172016)
    [288883.982422] BTRFS info (device dm-1): read error corrected: ino 0 off 226904076288 (dev /dev/mapper/btrfs_pool1 sector 443172024)
    [290355.228294] BTRFS error (device dm-1): parent transid verify failed on 47972352 wanted 1435 found 465
    [290355.253785] BTRFS info (device dm-1): read error corrected: ino 0 off 47972352 (dev /dev/mapper/btrfs_pool1 sector 93696)
    [290355.254197] BTRFS info (device dm-1): read error corrected: ino 0 off 47976448 (dev /dev/mapper/btrfs_pool1 sector 93704)
    [290355.254491] BTRFS info (device dm-1): read error corrected: ino 0 off 47980544 (dev /dev/mapper/btrfs_pool1 sector 93712)
    [290355.254779] BTRFS info (device dm-1): read error corrected: ino 0 off 47984640 (dev /dev/mapper/btrfs_pool1 sector 93720)
    [290355.724110] BTRFS error (device dm-1): parent transid verify failed on 47988736 wanted 1435 found 465
    [290355.726153] BTRFS info (device dm-1): read error corrected: ino 0 off 47988736 (dev /dev/mapper/btrfs_pool1 sector 93728)
    [290355.726481] BTRFS info (device dm-1): read error corrected: ino 0 off 47992832 (dev /dev/mapper/btrfs_pool1 sector 93736)
    [290355.726805] BTRFS info (device dm-1): read error corrected: ino 0 off 47996928 (dev /dev/mapper/btrfs_pool1 sector 93744)
    [290355.727127] BTRFS info (device dm-1): read error corrected: ino 0 off 48001024 (dev /dev/mapper/btrfs_pool1 sector 93752)
    [290357.696648] BTRFS error (device dm-1): parent transid verify failed on 55083008 wanted 1435 found 466
    [290357.712434] BTRFS info (device dm-1): read error corrected: ino 0 off 55083008 (dev /dev/mapper/btrfs_pool1 sector 107584)
    [290357.712853] BTRFS info (device dm-1): read error corrected: ino 0 off 55087104 (dev /dev/mapper/btrfs_pool1 sector 107592)
    [290357.715877] BTRFS error (device dm-1): parent transid verify failed on 55689216 wanted 1435 found 466
    [290357.726721] BTRFS error (device dm-1): parent transid verify failed on 105234432 wanted 1435 found 902
    [290357.752836] BTRFS error (device dm-1): parent transid verify failed on 105283584 wanted 1435 found 902
    [290357.756527] BTRFS error (device dm-1): parent transid verify failed on 105316352 wanted 1435 found 902
    [290358.732055] BTRFS error (device dm-1): parent transid verify failed on 105332736 wanted 1435 found 902
    [290358.738171] BTRFS error (device dm-1): parent transid verify failed on 105349120 wanted 1435 found 902
    [290368.774814] BTRFS error (device dm-1): parent transid verify failed on 283131904 wanted 1435 found 911
    [290368.790327] repair_io_failure: 26 callbacks suppressed
    [290368.790339] BTRFS info (device dm-1): read error corrected: ino 0 off 283131904 (dev /dev/mapper/btrfs_pool1 sector 552992)
    [290368.790683] BTRFS info (device dm-1): read error corrected: ino 0 off 283136000 (dev /dev/mapper/btrfs_pool1 sector 553000)
    [290368.790983] BTRFS info (device dm-1): read error corrected: ino 0 off 283140096 (dev /dev/mapper/btrfs_pool1 sector 553008)
    [290368.791265] BTRFS info (device dm-1): read error corrected: ino 0 off 283144192 (dev /dev/mapper/btrfs_pool1 sector 553016)
    [290374.976655] BTRFS error (device dm-1): parent transid verify failed on 283148288 wanted 1435 found 911
    [290374.982507] BTRFS info (device dm-1): read error corrected: ino 0 off 283148288 (dev /dev/mapper/btrfs_pool1 sector 553024)
    [290374.982832] BTRFS info (device dm-1): read error corrected: ino 0 off 283152384 (dev /dev/mapper/btrfs_pool1 sector 553032)
    [290374.983131] BTRFS info (device dm-1): read error corrected: ino 0 off 283156480 (dev /dev/mapper/btrfs_pool1 sector 553040)
    [290374.983419] BTRFS info (device dm-1): read error corrected: ino 0 off 283160576 (dev /dev/mapper/btrfs_pool1 sector 553048)
    [290394.470089] BTRFS error (device dm-1): parent transid verify failed on 290963456 wanted 1435 found 911
    [290394.519792] BTRFS info (device dm-1): read error corrected: ino 0 off 290963456 (dev /dev/mapper/btrfs_pool1 sector 568288)
    [290394.520183] BTRFS info (device dm-1): read error corrected: ino 0 off 290967552 (dev /dev/mapper/btrfs_pool1 sector 568296)
    [290394.520522] BTRFS info (device dm-1): read error corrected: ino 0 off 290971648 (dev /dev/mapper/btrfs_pool1 sector 568304)
    [290394.520851] BTRFS info (device dm-1): read error corrected: ino 0 off 290975744 (dev /dev/mapper/btrfs_pool1 sector 568312)
    [290394.535021] BTRFS error (device dm-1): parent transid verify failed on 314458112 wanted 1435 found 911
    [290394.768369] BTRFS info (device dm-1): read error corrected: ino 0 off 314458112 (dev /dev/mapper/btrfs_pool1 sector 614176)
    [290394.768892] BTRFS info (device dm-1): read error corrected: ino 0 off 314462208 (dev /dev/mapper/btrfs_pool1 sector 614184)
    [290394.769218] BTRFS info (device dm-1): read error corrected: ino 0 off 314466304 (dev /dev/mapper/btrfs_pool1 sector 614192)
    [290394.769529] BTRFS info (device dm-1): read error corrected: ino 0 off 314470400 (dev /dev/mapper/btrfs_pool1 sector 614200)
    [375198.754150] BTRFS error (device dm-1): parent transid verify failed on 353206272 wanted 1435 found 912
    

    Ich habe keine vernünftige Lösung dafür im Netz gefunden, so das ich dieses RAID heute auflöse.

  • Da btrfs bei mir ja nicht so der Bringer war, Fehler im Image vom Kamil?, Fehler in btrfs? Ich weiß es nicht, also weg damit! Da ich das NAS noch richtig produktiv genutzt hatte, waren die Daten schnell gesichert. Danach das NAS neugestartet, nun sind die beiden Platten nicht mehr gemountet und wir können damit arbeiten.

    ACHTUNG! Ich bitte wie immer darum, das Gehirn ab hier einzuschalten! Sonst droht Datenverlust!

    Aus Sicherheitsgründen gebe ich hier die Laufwerke so an = sdX1

    Das X bitte entsprechend austauschen!


    Die beiden Platten mit

    sudo fdisk /dev/sdX
    

    neu einrichten. Alte Partition weg, neu einrichten usw. Im Detail gehe ich hier jetzt nicht drauf ein. Ich gehe davon aus, das das bekannt ist.

    Der Plan

    raid_pool0 = sdX1 = /dev/mapper/raid_pool0
    raid_pool1 = sdX1 = /dev/mapper/raid_pool1

    Verschlüsseln

    sudo cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdX1
    sudo cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdX1
    

    Platten entschlüsseln

    sudo cryptsetup open /dev/sdX1 raid_pool0
    sudo cryptsetup open /dev/sdX1 raid_pool1
    

    RAID1 anlegen

    sudo mdadm --create /dev/md0 --auto md --level=1 --raid-devices=2 /dev/mapper/raid_pool0 /dev/mapper/raid_pool1 
    
    sudo mkfs.ext4 /dev/md0
    

    Script zum Entschlüsseln und Mounten crypt.sh

    #!/bin/bash
    ###############################################################################$
    #       Autor: Frank Mankel
    #       Verschlüsseltes Raid1 einbinden!
    #
    #       Hardware:
    #       ROCKPro64v2.1
    #       PCIe SATA Karte
    #       2St. 2,5 Zoll HDD Platten a 2TB
    #
    #       Software:
    #       bionic-minimal 0.7.9
    #       Kontakt: frank.mankel@gmail.com
    #
    ###############################################################################$
    
    #Passwort abfragen
    echo "Passwort eingeben!"
    read -s password
    echo "Bitte warten......"
    
    #Passwörter abfragen
    echo -n $password | cryptsetup open /dev/sdX1 raid_pool0 -d -
    echo -n $password | cryptsetup open /dev/sdX1 raid_pool1 -d -
    
    #Raid1 mounten
    mount /dev/md0 /mnt/raid
    
    echo "Laufwerke erfolgreich gemountet!"
    

    Bis jetzt sieht das Raid ok aus, ich werde das die nächsten Tage mal ein wenig im Auge behalten.

     [   82.430293] device-mapper: uevent: version 1.0.3
     [   82.430430] device-mapper: ioctl: 4.39.0-ioctl (2018-04-03) initialised: dm-devel@redhat.com
     [  108.196397] md/raid1:md0: not clean -- starting background reconstruction
     [  108.196401] md/raid1:md0: active with 2 out of 2 mirrors
     [  108.240395] md0: detected capacity change from 0 to 2000260497408
     [  110.076860] md: resync of RAID array md0
     [  110.385099] EXT4-fs (md0): recovery complete
     [  110.431715] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
     [57744.301662] md: md0: resync done.
    

  • 0 Stimmen
    13 Beiträge
    804 Aufrufe
    N

    @frankm Alles Klar!
    Wie schon erwähnt, für meine Zwecke rechts! Die Jahre über hat gute Dienste geleistet (PCI-e und HDD) und wird hoffentlich auch noch ein paar Jahre bis zum nächsten Umbau tun!
    Vielen Dank!

  • Debian Buster 10.8 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    197 Aufrufe
    Niemand hat geantwortet
  • Neues Script "change-default-kernel.sh "

    ROCKPro64
    1
    0 Stimmen
    1 Beiträge
    583 Aufrufe
    Niemand hat geantwortet
  • Restic - Rootserver als Datenablage nutzen

    Restic
    2
    0 Stimmen
    2 Beiträge
    684 Aufrufe
    FrankMF

    Ok, das erste Backup dauert immer was länger 😉 In meinem Fall 5 Std. 16 Minuten.

    Files: 33408 new, 0 changed, 0 unmodified Dirs: 1 new, 0 changed, 0 unmodified Data Blobs: 20849 new Tree Blobs: 2 new Added to the repo: 6.278 GiB processed 33408 files, 8.604 GiB in 5:16:03 snapshot 5beg1cb3 saved

    Aber, das Schöne ist, das die Backups inkrementell angelegt werden. Das nächste geht schneller 🙂

    open repository repository 3gg202a2 opened successfully, password is correct lock repository load index files using parent snapshot 5beg1cb3 start scan on [/home/frank] start backup on [/home/frank] scan finished in 3.791s: 33788 files, 8.611 GiB Files: 496 new, 74 changed, 33218 unmodified Dirs: 0 new, 1 changed, 0 unmodified Data Blobs: 292 new Tree Blobs: 2 new Added to the repo: 43.661 MiB processed 33788 files, 8.611 GiB in 2:15 snapshot fag41bf7 saved

    Eine tägliche Sicherung sollte dann wohl reichen.

  • [HOWTO]ROCKPro64 - NAS bauen Teil 1

    Angeheftet ROCKPro64
    5
    0 Stimmen
    5 Beiträge
    2k Aufrufe
    FrankMF

    Die Pinne für den Adapter liegen ja nur parallel zum Eingang des Steckers vom Netzteil. Also, solange da nichts abfackelt kann man da eine Menge Strom drüber jagen 🙂

    Wenn es funktioniert ist ja alles gut.

  • Unterstützung Lüfter

    ROCKPro64
    5
    0 Stimmen
    5 Beiträge
    2k Aufrufe
    FrankMF

    Mit dem neuen Release hatte jemand das mal ausprobiert -> https://forum.frank-mankel.org/topic/795/fan-control-omv-auyfan-0-10-12-gitlab-ci-linux-build-184-kernel-5-6/6

    Dieser Kernel kam zur Anwendung

    Linux rockpro64 5.6.0-1137-ayufan-ge57f05e7bf8f #ayufan SMP Wed Apr 15 10:16:02 UTC 2020 aarch64 GNU/Linux

    Dort stellt man dann fest, das sich eine Kleinigkeit geändert hat. Der Pfad und der Dateiname hat sich geändert.

    Kontrollieren kann man das mit

    nano /sys/devices/platform/pwm-fan/hwmon/hwmon3/pwm1

    Der Wert geht von 0 - 255, wie gehabt.

  • Neuer Bootprozeß seit 0.7.x

    ROCKPro64
    1
    0 Stimmen
    1 Beiträge
    843 Aufrufe
    Niemand hat geantwortet
  • Benchmarks

    Angeheftet Verschoben Archiv
    10
    0 Stimmen
    10 Beiträge
    2k Aufrufe
    FrankMF
    iozone Test (0.6.52) Hardware

    Hardware ist eine Samsung EVO 960 m.2 mit 250GB

    Eingabe sudo iozone -e -I -a -s 100M -r 4k -r 16k -r 512k -r 1024k -r 16384k -i 0 -i 1 -i 2 Ausgabe Run began: Thu Jun 14 12:04:01 2018 Include fsync in write timing O_DIRECT feature enabled Auto Mode File size set to 102400 kB Record Size 4 kB Record Size 16 kB Record Size 512 kB Record Size 1024 kB Record Size 16384 kB Command line used: iozone -e -I -a -s 100M -r 4k -r 16k -r 512k -r 1024k -r 16384k -i 0 -i 1 -i 2 Output is in kBytes/sec Time Resolution = 0.000001 seconds. Processor cache size set to 1024 kBytes. Processor cache line size set to 32 bytes. File stride size set to 17 * record size. random random bkwd record stride kB reclen write rewrite read reread read write read rewrite read fwrite frewrite fread freread 102400 4 40859 79542 101334 101666 31721 60459 102400 16 113215 202566 234307 233091 108334 154750 102400 512 362864 412548 359279 362810 340235 412626 102400 1024 400478 453205 381115 385746 372378 453548 102400 16384 583762 598047 595752 596251 590950 604690

    Zum direkten Vergleich hier heute mal mit 4.17.0-rc6-1019

    rock64@rockpro64:/mnt$ uname -a Linux rockpro64 4.17.0-rc6-1019-ayufan-gfafc3e1c913f #1 SMP PREEMPT Tue Jun 12 19:06:59 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux iozone Test rock64@rockpro64:/mnt$ sudo iozone -e -I -a -s 100M -r 4k -r 16k -r 512k -r 1024k -r 16384k -i 0 -i 1 -i 2 Iozone: Performance Test of File I/O Version $Revision: 3.429 $ Compiled for 64 bit mode. Build: linux Contributors:William Norcott, Don Capps, Isom Crawford, Kirby Collins Al Slater, Scott Rhine, Mike Wisner, Ken Goss Steve Landherr, Brad Smith, Mark Kelly, Dr. Alain CYR, Randy Dunlap, Mark Montague, Dan Million, Gavin Brebner, Jean-Marc Zucconi, Jeff Blomberg, Benny Halevy, Dave Boone, Erik Habbinga, Kris Strecker, Walter Wong, Joshua Root, Fabrice Bacchella, Zhenghua Xue, Qin Li, Darren Sawyer, Vangel Bojaxhi, Ben England, Vikentsi Lapa. Run began: Sat Jun 16 06:34:43 2018 Include fsync in write timing O_DIRECT feature enabled Auto Mode File size set to 102400 kB Record Size 4 kB Record Size 16 kB Record Size 512 kB Record Size 1024 kB Record Size 16384 kB Command line used: iozone -e -I -a -s 100M -r 4k -r 16k -r 512k -r 1024k -r 16384k -i 0 -i 1 -i 2 Output is in kBytes/sec Time Resolution = 0.000001 seconds. Processor cache size set to 1024 kBytes. Processor cache line size set to 32 bytes. File stride size set to 17 * record size. random random bkwd record stride kB reclen write rewrite read reread read write read rewrite read fwrite frewrite fread freread 102400 4 48672 104754 115838 116803 47894 103606 102400 16 168084 276437 292660 295458 162550 273703 102400 512 566572 597648 580005 589209 534508 597007 102400 1024 585621 624443 590545 599177 569452 630098 102400 16384 504871 754710 765558 780592 777696 753426 iozone test complete.