Skip to content

Verschlüsseltes RAID1

Linux
  • Heute mal wieder was zum Ausprobieren.

    Hardware

    • 2 * 4TB HDD

    Software

    • Debian Buster 10

    Pakete installieren

    apt install cryptsetup
    apt install mdadm
    

    Installation

    Moment, wir brauchen noch einen Plan 🙂 Jede Platte wird mit je zwei Partitionen ausgestattet.

    • sdb1 raid_pool_1_1
    • sdb2 raid_pool_2_1
    • sdc1 raid_pool_1_2
    • sdc2 raid_pool_2_2

    Platten partitionieren

    root@frank-mankel:~# gdisk /dev/sdb
    GPT fdisk (gdisk) version 1.0.3
    
    Partition table scan:
      MBR: not present
      BSD: not present
      APM: not present
      GPT: not present
    
    Creating new GPT entries.
    
    Command (? for help): d
    No partitions
    
    Command (? for help): n
    Partition number (1-128, default 1): 1
    First sector (34-7814037134, default = 2048) or {+-}size{KMGTP}: 
    Last sector (2048-7814037134, default = 7814037134) or {+-}size{KMGTP}: 3907018567
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300): 
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): n
    Partition number (2-128, default 2): 
    First sector (34-7814037134, default = 3907018752) or {+-}size{KMGTP}: 
    Last sector (3907018752-7814037134, default = 7814037134) or {+-}size{KMGTP}: 
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300): 
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): w
    
    Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
    PARTITIONS!!
    
    Do you want to proceed? (Y/N): Y
    OK; writing new GUID partition table (GPT) to /dev/sdb.
    The operation has completed successfully.
    

    Verschlüsseln

    cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdb1
    cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdb2
    cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdc1
    cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdc2
    

    Beispiel-Ausgabe

    root@frank-mankel:~# cryptsetup --key-size 512 --hash sha256 --iter-time 5000 --use-random luksFormat /dev/sdb2
    
    WARNING!
    ========
    This will overwrite data on /dev/sdb2 irrevocably.
    
    Are you sure? (Type uppercase yes): YES
    Enter passphrase for /dev/sdb2: 
    Verify passphrase: 
    

    Entschlüsseln

    cryptsetup open /dev/sdb1 raid_pool_1_1
    

    Ok, was passiert hier? Wir müssen das Passwort eingeben, danach wird die HDD für das RAID vorbereitet.

    Disk /dev/mapper/raid_pool_1_1: 1.8 TiB, 2000375681024 bytes, 3906983752 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    

    Der Rest

    cryptsetup open /dev/sdc1 raid_pool_1_2
    cryptsetup open /dev/sdb2 raid_pool_2_1
    cryptsetup open /dev/sdc2 raid_pool_2_2
    

    Raid anlegen

    mdadm --create /dev/md0 --auto md --level=1 --raid-devices=2 /dev/mapper/raid_pool_1_1 /dev/mapper/raid_pool_1_2 
    

    Danach gibt es das Device md0

    Disk /dev/md0: 1.8 TiB, 2000240377856 bytes, 3906719488 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    

    Das andere

    mdadm --create /dev/md1 --auto md --level=1 --raid-devices=2 /dev/mapper/raid_pool_2_1 /dev/mapper/raid_pool_2_2
    

    und

    Disk /dev/md1: 1.8 TiB, 2000241360896 bytes, 3906721408 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    

    Formatieren

    mkfs.ext4 /dev/md0
    mkfs.ext4 /dev/md1
    

    Danach sind beide Raids einsatzbereit. Hier schon gemountet.

    /dev/md0                        1.8T  626M  1.7T   1% /mnt/md0
    /dev/md1                        1.8T   77M  1.7T   1% /mnt/md1
    
  • Mir war dann gestern, nach einigen Neustarts aufgefallen, das die Raids den Status [1/2] hatten. Also nur eine HDD im Raid-Verbund. Ursache - unbekannt!

    Normalzustand

    /dev/mapper/raid_pool_1_1: UUID="7b7a5028-165a-6d71-d51a-671216e353ec" UUID_SUB="109b5184-0d3a-b26b-cd72-8239f0f6a56e" LABEL="frank-mankel:0" TYPE="linux_raid_member"
    /dev/md0: UUID="6744030a-4c14-4cbc-a626-7365aab80e22" TYPE="ext4"
    /dev/mapper/raid_pool_1_2: UUID="7b7a5028-165a-6d71-d51a-671216e353ec" UUID_SUB="6f8da3a7-e86f-f3bf-5602-de7dcad62aa0" LABEL="frank-mankel:0" TYPE="linux_raid_member"
    /dev/mapper/raid_pool_2_1: UUID="aa6daa4e-0964-4446-22f0-e6e3a65ea34a" UUID_SUB="ffd29fd9-84ca-1d64-2671-a0d3c417ee8c" LABEL="frank-mankel:1" TYPE="linux_raid_member"
    /dev/md1: UUID="a56404ef-4525-473d-a616-2fdf79c314f6" TYPE="ext4"
    /dev/mapper/raid_pool_2_2: UUID="aa6daa4e-0964-4446-22f0-e6e3a65ea34a" UUID_SUB="29c67ccb-9582-75e5-8345-c5589680e663" LABEL="frank-mankel:1" TYPE="linux_raid_member"
    

    Status anzeigen (hier korrekt)

    root@frank-mankel:~# cat /proc/mdstat
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
    md1 : active raid1 dm-25[1] dm-24[0]
          1953360704 blocks super 1.2 [2/2] [UU]
          bitmap: 0/15 pages [0KB], 65536KB chunk
    
    md0 : active raid1 dm-23[1] dm-22[0]
          1953359744 blocks super 1.2 [2/2] [UU]
          bitmap: 0/15 pages [0KB], 65536KB chunk
    
    unused devices: <none>
    

    Detaillierter Zustand

    root@frank-mankel:~# mdadm -D /dev/md0
       /dev/md0:
                  Version : 1.2
            Creation Time : Mon Aug 26 15:52:03 2019
               Raid Level : raid1
               Array Size : 1953359744 (1862.87 GiB 2000.24 GB)
            Used Dev Size : 1953359744 (1862.87 GiB 2000.24 GB)
             Raid Devices : 2
            Total Devices : 2
              Persistence : Superblock is persistent
       
            Intent Bitmap : Internal
       
              Update Time : Fri Aug 30 04:03:25 2019
                    State : clean 
           Active Devices : 2
          Working Devices : 2
           Failed Devices : 0
            Spare Devices : 0
       
       Consistency Policy : bitmap
       
                     Name : frank-mankel:0  (local to host frank-mankel)
                     UUID : 7b7a5028:165a6d71:d51a6712:16e353ec
                   Events : 55682
       
           Number   Major   Minor   RaidDevice State
              0     253       22        0      active sync   /dev/dm-22
              1     253       23        1      active sync   /dev/dm-23
    

    Problem

    Jetzt wird die ganze Sache kompliziert und man muss fürchterlich aufpassen, das nichts schief geht. Das Raid zeigt einem die UUID der noch enthaltenen Platte an. Somit muss man sich die andere raus suchen, siehe ganz oben.

    Annahme, vom Raid md0 fehlt das zweite Laufwerk. Dann machen wir

    mdadm --add /dev/md0 /dev/mapper/raid_pool_1_2
    

    Mein md0 besteht ja aus

    /dev/mapper/raid_pool_1_1
    /dev/mapper/raid_pool_1_2   
    

    Script

    Hier mein Script, was ich nach dem Starten des PCs ausführe. Das klappt auf meinem Proxmox perfekt, ich darf nur keine Einträge in der /etc/fstab haben und die eine Maschine, die eine Platte auf diesem Raid nutzt, erst später starten. Auf keinen Fall auf Autostart=1 stellen!

    Außerdem habe ich in dem Script auf

    /dev/disk/by-uuid/4dd45131-bf78-4a23-ad29-af1b24284ca0
    

    umgestellt. Die UUID findet ihr mit

    ls -lha /dev/disk/by-uuid
    

    Ausgabe

    lrwxrwxrwx 1 root root  10 Aug 29 13:24 4dd45131-bf78-4a23-ad29-af1b24284ca0 -> ../../sdc1
    lrwxrwxrwx 1 root root  10 Aug 29 13:24 a8234184-3c6a-44d1-a6a3-d06d0baedfcc -> ../../sdc2
    lrwxrwxrwx 1 root root  10 Aug 29 13:24 857a73ca-199f-4e04-9651-088963e29fae -> ../../sdd1
    lrwxrwxrwx 1 root root  10 Aug 29 13:25 ed78c5ce-5bc9-49aa-9bc7-000771610940 -> ../../sdd2
    

    umgestellt. Das macht die Sache robuster, wenn man mal HDDs ansteckt usw. Weil dabei können sich ja mal gerne die Laufwerksbezeichnungen ändern. Die UUID bleibt aber immer gleich.

    #Passwort abfragen
    echo "Passwort eingeben!"
    read -s password
    echo "Bitte warten......"
    
    
    ## Passwörter abfragen
    echo -n $password | cryptsetup open /dev/disk/by-uuid/4dd45131-bf78-4a23-ad29-af1b24284ca0 raid_pool_1_1 -d -
    echo -n $password | cryptsetup open /dev/disk/by-uuid/857a73ca-199f-4e04-9651-088963e29fae raid_pool_1_2 -d -
    echo -n $password | cryptsetup open /dev/disk/by-uuid/a8234184-3c6a-44d1-a6a3-d06d0baedfcc raid_pool_2_1 -d -
    echo -n $password | cryptsetup open /dev/disk/by-uuid/ed78c5ce-5bc9-49aa-9bc7-000771610940 raid_pool_2_2 -d -
    
    ## Raid 0&1 mounten
    mount /dev/md0 /mnt/md0
    mount /dev/md1 /mnt/md1
    
    echo "Laufwerke erfolgreich gemountet!"
    

    Ich hoffe jetzt, das ich mich damit erst mal nicht mehr beschäftigen muss. Und immer nur machen, wenn man ganz viel Zeit hat 🙂

    Damit es immer so aussieht 🙂

    fcdf8c19-31e3-4933-a452-847f4415c750-grafik.png

  • Forgejo

    Linux
    1
    1
    0 Stimmen
    1 Beiträge
    118 Aufrufe
    Niemand hat geantwortet
  • Debian Bookworm 12.9 released

    Verschoben Linux
    1
    0 Stimmen
    1 Beiträge
    239 Aufrufe
    Niemand hat geantwortet
  • Restic v0.17.3 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    120 Aufrufe
    Niemand hat geantwortet
  • Pycharm und Autoupload

    Linux
    1
    3
    0 Stimmen
    1 Beiträge
    78 Aufrufe
    Niemand hat geantwortet
  • Debian Bookworm 12.8 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    143 Aufrufe
    Niemand hat geantwortet
  • Test3

    Linux
    1
    0 Stimmen
    1 Beiträge
    71 Aufrufe
    Niemand hat geantwortet
  • Fedora 41 - Standby Problem

    Linux
    4
    2
    0 Stimmen
    4 Beiträge
    729 Aufrufe
    FrankMF
    Es hatte bis jetzt leider gar nichts vernünftig funktioniert. Nachdem Manjaro den Kernel 6.10 rausgeschmissen hat (EOL), stand ich auf dem Schlauch. Alles nach 6.10 ging nicht, zwischenzeitlich war ich auf 6.6., da ging es, aber ist auch keine Lösung. Also, mal wieder überall rein gelesen. Hier findet man die Lösung. https://discussion.fedoraproject.org/t/kernel-6-11-3-200-fc40-unable-to-resume-from-suspend-when-bluetooth-enabled/134008/18 File /etc/systemd/system/bluetooth-fix.service anlegen [Unit] Description=Disable Bluetooth before going to sleep Before=sleep.target StopWhenUnneeded=yes [Service] Type=oneshot RemainAfterExit=yes ExecStart=/usr/sbin/rfkill block bluetooth ExecStop=/usr/sbin/rfkill unblock bluetooth [Install] WantedBy=sleep.target Aktivieren systemctl enable bluetooth-fix.service Danach geht mein Standby auch wieder mit höheren Kernel-Versionen. uname -a  ✔  20s  Linux frank-manjaro 6.12.1-4-MANJARO #1 SMP PREEMPT_DYNAMIC Mon, 25 Nov 2024 05:36:03 +0000 x86_64 GNU/Linux Frank wieder zufrieden Das ist jetzt zwar nur ein Workaround, aber besser als gar nichts. Was weiß ich, wann welche Firma jetzt mal das Problem anfasst und fixt!? Für mich hat der Workaround auch keine negativen Auswirkungen. Zumindestens ist mir noch nichts aufgefallen. Ich werde berichten.
  • Liste von Linuxbefehlen

    Angeheftet Linux
    4
    1
    0 Stimmen
    4 Beiträge
    798 Aufrufe
    FrankMF
    Anzeige des Speicherplatzes als Ersatz für df -h ~ duf  ✔ ╭──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮ │ 8 local devices │ ├─────────────────┬────────┬────────┬────────┬───────────────────────────────┬───────┬─────────────────────────────────┤ │ MOUNTED ON │ SIZE │ USED │ AVAIL │ USE% │ TYPE │ FILESYSTEM │ ├─────────────────┼────────┼────────┼────────┼───────────────────────────────┼───────┼─────────────────────────────────┤ │ / │ 435.4G │ 154.6G │ 274.6G │ [#######.............] 35.5% │ btrfs │ /dev/luks-5336cabc-29f1-4af2-8a │ │ │ │ │ │ │ │ 31/dd411a9a1599 │ │ /boot/efi │ 299.4M │ 728.0K │ 298.7M │ [....................] 0.2% │ vfat │ /dev/nvme0n1p1 │ │ /home │ 435.4G │ 154.6G │ 274.6G │ [#######.............] 35.5% │ btrfs │ /dev/luks-5336cabc-29f1-4af2-8a │ │ │ │ │ │ │ │ 31/dd411a9a1599 │ │ /mnt/1TB │ 916.7G │ 821.8G │ 48.3G │ [#################...] 89.7% │ ext4 │ /dev/sda1 │ │ /mnt/Backup │ 457.4G │ 125.3G │ 308.8G │ [#####...............] 27.4% │ ext4 │ /dev/sdc1 │ │ /mnt/Backup_PVE │ 3.6T │ 718.3G │ 2.7T │ [###.................] 19.6% │ ext4 │ /dev/sdb1 │ │ /var/cache │ 435.4G │ 154.6G │ 274.6G │ [#######.............] 35.5% │ btrfs │ /dev/luks-5336cabc-29f1-4af2-8a │ │ │ │ │ │ │ │ 31/dd411a9a1599 │ │ /var/log │ 435.4G │ 154.6G │ 274.6G │ [#######.............] 35.5% │ btrfs │ /dev/luks-5336cabc-29f1-4af2-8a │ │ │ │ │ │ │ │ 31/dd411a9a1599 │ ╰─────────────────┴────────┴────────┴────────┴───────────────────────────────┴───────┴─────────────────────────────────╯ ╭──────────────────────────────────────────────────────────────────────────────────────────────────╮ │ 1 network device │ ├────────────┬────────┬────────┬────────┬───────────────────────────────┬──────┬───────────────────┤ │ MOUNTED ON │ SIZE │ USED │ AVAIL │ USE% │ TYPE │ FILESYSTEM │ ├────────────┼────────┼────────┼────────┼───────────────────────────────┼──────┼───────────────────┤ │ /mnt/NAS │ 786.4G │ 327.0G │ 419.3G │ [########............] 41.6% │ nfs4 │ 192.168.3.19:/NAS │ ╰────────────┴────────┴────────┴────────┴───────────────────────────────┴──────┴───────────────────╯ ╭───────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮ │ 9 special devices │ ├─────────────────────────────────┬────────┬────────┬───────┬───────────────────────────────┬──────────┬────────────┤ │ MOUNTED ON │ SIZE │ USED │ AVAIL │ USE% │ TYPE │ FILESYSTEM │ ├─────────────────────────────────┼────────┼────────┼───────┼───────────────────────────────┼──────────┼────────────┤ │ /dev │ 30.2G │ 0B │ 30.2G │ │ devtmpfs │ dev │ │ /dev/shm │ 30.3G │ 21.9M │ 30.3G │ [....................] 0.1% │ tmpfs │ tmpfs │ │ /run │ 30.3G │ 2.0M │ 30.3G │ [....................] 0.0% │ tmpfs │ run │ │ /run/credentials/systemd-crypts │ 1.0M │ 0B │ 1.0M │ │ tmpfs │ tmpfs │ │ etup@luks\x2d3a8e1aea\x2d0d01\x │ │ │ │ │ │ │ │ 2d4e45\x2d940f\x2d63af54c3d7f0. │ │ │ │ │ │ │ │ service │ │ │ │ │ │ │ │ /run/credentials/systemd-crypts │ 1.0M │ 0B │ 1.0M │ │ tmpfs │ tmpfs │ │ etup@luks\x2d5336cabc\x2d29f1\x │ │ │ │ │ │ │ │ 2d4af2\x2d8a31\x2ddd411a9a1599. │ │ │ │ │ │ │ │ service │ │ │ │ │ │ │ │ /run/credentials/systemd-journa │ 1.0M │ 0B │ 1.0M │ │ tmpfs │ tmpfs │ │ ld.service │ │ │ │ │ │ │ │ /run/user/1000 │ 6.1G │ 4.4M │ 6.1G │ [....................] 0.1% │ tmpfs │ tmpfs │ │ /sys/firmware/efi/efivars │ 128.0K │ 62.8K │ 60.2K │ [#########...........] 49.1% │ efivarfs │ efivarfs │ │ /tmp │ 30.3G │ 954.6M │ 29.3G │ [....................] 3.1% │ tmpfs │ tmpfs │ ╰─────────────────────────────────┴────────┴────────┴───────┴───────────────────────────────┴──────────┴────────────╯