Skip to content

Proxmox - Neue HDD hinzufügen

Verschoben Proxmox
  • Proxmox macht vieles wie Linux, aber nicht alles. Aber, es hat ein sehr gutes Konzept und eine sehr gute Anleitung.

    Nehmen wir an, wir hätten eine neue HDD und wollen diese für unseren Proxmox nutzen. Am Anfang muss man sich ganz schön Gedanken machen, wie man die Festplatten usw. nutzt. Mein aktueller Stand vor dem Einbau.

    • SSD 240GB Betriebssystem
    • NVMe SSD 500GB für die VM's

    Meine aktuelle Struktur sieht so aus

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    local             dir     active        57278576         3119556        51219732    5.45%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Mit fdsik -l sehen wir nach dem Einbau folgendes

    Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
    Disk model: WDC WD40EZRZ-00G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    

    Mein Plan ist es, die Platte in zwei Partitionen zu unterteilen.

    root@frank-mankel:~# gdisk
    GPT fdisk (gdisk) version 1.0.3
    
    Type device filename, or press <Enter> to exit: /dev/sdb
    Partition table scan:
      MBR: not present
      BSD: not present
      APM: not present
      GPT: not present
    
    Creating new GPT entries.
    
    Command (? for help): n
    Partition number (1-128, default 1): 
    First sector (34-7814037134, default = 2048) or {+-}size{KMGTP}: 
    Last sector (2048-7814037134, default = 7814037134) or {+-}size{KMGTP}: 3907018567
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300):
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): n
    Partition number (2-128, default 2): 
    First sector (34-7814037134, default = 3907018752) or {+-}size{KMGTP}: 
    Last sector (3907018752-7814037134, default = 7814037134) or {+-}size{KMGTP}: 
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300): 
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): p
    Disk /dev/sdb: 7814037168 sectors, 3.6 TiB
    Model: WDC WD40EZRZ-00G
    Sector size (logical/physical): 512/4096 bytes
    Disk identifier (GUID): E625BB03-8BE4-49B4-9089-78D236650F3E
    Partition table holds up to 128 entries
    Main partition table begins at sector 2 and ends at sector 33
    First usable sector is 34, last usable sector is 7814037134
    Partitions will be aligned on 2048-sector boundaries
    Total free space is 2198 sectors (1.1 MiB)
    
    Number  Start (sector)    End (sector)  Size       Code  Name
       1            2048      3907018567   1.8 TiB     8300  Linux filesystem
       2      3907018752      7814037134   1.8 TiB     8300  Linux filesystem
    
    Command (? for help): w
    
    Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
    PARTITIONS!!
    
    Do you want to proceed? (Y/N): Y
    OK; writing new GUID partition table (GPT) to /dev/sdb.
    The operation has completed successfully.
    

    Nun haben wir zwei Partitionen.

    Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
    Disk model: WDC WD40EZRZ-00G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: E625BB03-8BE4-49B4-9089-78D236650F3E
    
    Device          Start        End    Sectors  Size Type
    /dev/sdb1        2048 3907018567 3907016520  1.8T Linux filesystem
    /dev/sdb2  3907018752 7814037134 3907018383  1.8T Linux filesystem
    

    Partition 1 formatieren

    root@frank-mankel:~# mkfs.ext4 /dev/sdb1
    mke2fs 1.44.5 (15-Dec-2018)
    Creating filesystem with 488377065 4k blocks and 122101760 inodes
    Filesystem UUID: a9a466bb-61db-4500-8027-225421460f6e
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    	4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    	102400000, 214990848
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (262144 blocks): done
    Writing superblocks and filesystem accounting information: done    
    

    Der Plan

    Ich mache aus der ersten Partition einen Datenspeicher für Backups. Darum habe ich auch in ext4 formatiert. In der Anleitung steht dann folgendes.

    Backup files    dump/
    

    Configuration Example (/etc/pve/storage.cfg)

    dir: backup
    path /mnt/backup
    content backup
    maxfiles 7

    Above configuration defines a storage pool called backup. That pool can be used to store up to 7 backups (maxfiles 7) per VM. The real path for the backup files is /mnt/backup/dump/....

    Ok, das Probieren wir. Das Verzeichnis erstellt.

    root@frank-mankel:~# mkdir /mnt/backup/
    root@frank-mankel:~# mkdir /mnt/backup/dump
    

    Dann die Datei bearbeiten

    nano /etc/pve/storage.cfg
    

    Inhalt

    dir: local
            path /var/lib/vz
            content iso,vztmpl,backup
    
    lvmthin: local-lvm
            thinpool data
            vgname pve
            content rootdir,images
    
    lvmthin: VM
            thinpool VM
            vgname VM
            content images,rootdir
            nodes frank-mankel
    
    dir: backup
            path /mnt/backup
            content backup
            maxfiles 7
    

    Das dir:backup habe ich hinzugefügt. Einmal F5 im Webinterface drücken.

    72137d21-bfd0-44bc-a958-b53b560402f6-grafik.png

    Schwupps, da ist das Backup-Verzeichnis.

    Test, Backup von einem Container erstellt.

    root@frank-mankel:~# ls -la /mnt/backup/dump
    total 381384
    drwxr-xr-x 2 root root      4096 Jul 23 16:56 .
    drwxr-xr-x 3 root root      4096 Jul 23 16:54 ..
    -rw-r--r-- 1 root root       527 Jul 23 16:56 vzdump-lxc-102-2019_07_23-16_56_04.log
    -rw-r--r-- 1 root root 390521711 Jul 23 16:56 vzdump-lxc-102-2019_07_23-16_56_04.tar.lzo
    

    Die Struktur jetzt

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active        57278576         3501916        50837372    6.11%
    local             dir     active        57278576         3501916        50837372    6.11%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Das sieht so weit gut aus, hoffe ich 🙂

    Wer aufgepasst hat, es ist noch eine Partition frei. Dafür gibt es auch schon einen Plan 😉

  • Hoppla, da passt was nicht.

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active        57278576         3501916        50837372    6.11%
    local             dir     active        57278576         3501916        50837372    6.11%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Hier sieht man, das backup ca. 50GB groß ist. Da die Partition deutlich größer ist, fehlt da was!?? Kurz mal nachgedacht und gesucht..... 😉

    Der Eintrag in /etc/fstab muss natürlich auch vorhanden sein, so wie gewohnt. Danach

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active      1921797220           77856      1824027568    0.00%
    local             dir     active        57278576         3502984        50836304    6.12%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    e9b52dbe-dc81-4bec-a4e8-a26885f57d84-grafik.png

    Mein vorhin erstelltes Backup war weg. Also aufpassen!!

  • Proxmox - Video Tipp

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    117 Aufrufe
    Niemand hat geantwortet
  • Proxmox 8.1 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    110 Aufrufe
    Niemand hat geantwortet
  • NAS 2023 - Thema Datensicherung

    Verschoben Linux
    2
    0 Stimmen
    2 Beiträge
    140 Aufrufe
    FrankMF

    Bleibt noch etwas wichtiges. Die ganzen Konfigurationsdateien vom Proxmox Host. Sinnvoll, das man sich das sichert.

    #!/bin/bash # Script um mit Restic Daten automatisiert zu sichern! # Dient zum Sichern des Ordners /etc/pve! # Was soll gesichert werden? backup_pfad=/etc/pve # Programm Start restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve backup $backup_pfad > backup_pve_001.log restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve forget --keep-last 3 --keep-monthly 3 --prune >> backup_pve_002.log # Testen restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve check --read-data >> backup_pve_003.log

    Crontab eingerichtet - fertig!

  • Fritzbox - Proxmox - pfSense - IPv6

    Verschoben Linux
    1
    0 Stimmen
    1 Beiträge
    486 Aufrufe
    Niemand hat geantwortet
  • Proxmox - Root Password mit Sonderzeichen

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    100 Aufrufe
    Niemand hat geantwortet
  • MSI B550I Gaming Edge WiFi

    Linux
    2
    0 Stimmen
    2 Beiträge
    130 Aufrufe
    FrankMF

    Einige Tage später, bin ich mit meinem neuen Projekt (grob) fertig. Der Rechner hostet jetzt eine Proxmox VE auf der eine VM mit pfSense läuft, die meinem Netzwerk als Sicherung dient. Dazu ist eine zusätzliche Netzwerkkarte in den freien Grafikkartenslot verbaut worden.

    Jo, es hatte schon seinen Grund einen AMD Ryzen5 5600G zu nehmen 😉

    10:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) 10:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)

    Somit hatte ich die benötigten Netzwerkkarten für mein Setup.

    WAN - Netzwerkschnittstelle auf dem Bord LAN - Intel Corporation 82576 OPT1 - Intel Corporation 82576

    LAN ist das Netzwerk für meine Geräte, OPT1 ist mein Netzwerk für alle Geräte denen ich nicht besonders vertraue.

    TV FireTV PS5
    usw.

    Das läuft auch mit guter Geschwindigkeit.

    speed.png

    Was mir hier richtig Zeit gekostet hatte, war ein Denkfehler im Konzept. Ich habe ja mein aktuelles NAS aufgelöst und hatte den ZFS-Pool des Proxmox dafür benutzt. Das ging auch, aber mir gefielen da einige Aspekte nicht.

    lief im falschen Netz auf dem Proxmox Host lief der NFS

    Suboptimal, das musste besser gehen. Also habe ich mich damit beschäftigt, wie man Festplatten an eine VM durchreicht. Das Ergebnis

    4ad18f09-4098-41c8-a92d-bb5fd3392999-grafik.png

    Aus diesen beiden Platten habe ich dann einen ZFS-Pool gemacht.

    root@debian1:~# zpool status pool: NAS state: ONLINE scan: resilvered 232K in 00:00:01 with 0 errors on Sun Oct 17 16:38:46 2021 config: NAME STATE READ WRITE CKSUM NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 scsi-0QEMU_QEMU_HARDDISK_drive-scsi1 ONLINE 0 0 0 scsi-0QEMU_QEMU_HARDDISK_drive-scsi2 ONLINE 0 0 0 errors: No known data errors

    Warum ZFS? Kann ich auch nicht beantworten, da immer mehr das nutzen (Ubuntu, pfSense usw.) habe ich gedacht, wir probieren es mal aus. Da ZFS sehr speicherhungrig ist, was ich vorher wusste, hat die Kiste auch 64GB RAM (Host). Ich hoffe das langt. Die Debian VM läuft zur Zeit mit 4GB. Mal sehen, ob das in Zukunft ausreicht.

    root@debian1:~# free gesamt benutzt frei gemns. Puffer/Cache verfügbar Speicher: 4025628 119896 3801808 508 103924 3732976 Swap: 998396 0 998396

    Das Ganze ist jetzt fertig aufgebaut und das Gehäuse ist zugeschraubt. Verbaut sind aktuell

    2 * 4TB HDD ZFS-Pool Host 2 * 2TB HDD ZFS-Pool für NAS (VM100)

    Nächster Schritt ist die Datensicherung des NAS und grundsätzlich die Vervollständigung der Konfiguration. Da habe ich bei der Testerei doch einiges ignoriert....

    20211018_111551_ergebnis.jpg

  • Proxmox - VMs sichern

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    460 Aufrufe
    Niemand hat geantwortet
  • Proxmox - Neuer Host eingerichtet

    Proxmox
    2
    0 Stimmen
    2 Beiträge
    287 Aufrufe
    FrankMF

    Meine Webseiten & Foren, alles was ich so betreibe ist erfolgreich umgezogen. Den Aufwand habe ich ein ganzes Stück unterschätzt. Aber Am Ende war alles erfolgreich.

    Möchte hier nicht zu sehr ins Detail gehen, deshalb nur ein grober Überblick.

    verschiedene Webserver MySQL Datenbank diverse andere Dienste

    Warum Proxmox?

    Ich kann jetzt einfach komplette Server sichern, clonen usw. Kann vor dem Ausprobieren, was ich oft mache, mal eben zur Sicherheit einen Snapshot machen. Geht was schief, kann ich schnell wieder zurück. Optimal für ein Spielkind.

    Sollte jemand Fehler finden, sagt mir bitte kurz Bescheid. Ich versuche das dann zu fixen.