Skip to content

IPv6 und Subnetze

Linux
  • Wir müssen uns da noch mal ein paar Gedanken zu machen.

    Nico hat ja auf der Froscon einen Vortrag gehalten, hier mein Beitrag dazu.
    https://forum.frank-mankel.org/topic/638/ipv6-fritzbox-pfsense

    Aber, bei dem Aufsetzen eines neuen Wireguard-Servers, hatte ich dann gestern doch mehr Fragen als Antworten. Wo fange ich jetzt am Besten an? Dann schauen wir mal was Hetzner mir so gibt 😉

    Nach der Einrichtung sieht das Netzwerk so aus.

    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
        inet6 ::1/128 scope host 
           valid_lft forever preferred_lft forever
    2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 96:00:00:38:de:d7 brd ff:ff:ff:ff:ff:ff
        inet 88.198.xxx.xxx/32 brd 88.198.154.143 scope global dynamic eth0
           valid_lft 52741sec preferred_lft 52741sec
        inet6 2a01:4f8:c0c:xxxx::1/64 scope global 
           valid_lft forever preferred_lft forever
        inet6 fe80::9400:ff:fe38:ded7/64 scope link 
           valid_lft forever preferred_lft forever
    

    Ich verschleier hier mal die echten IPs, aber das sollte nicht stören um hier folgen zu können. Hoffe ich. Man sieht oben, das man eine öffentliche IPv6 Adresse bekommt. Diese Adresse hat wohl Hetzner zugewiesen bekommen.

    2a01:4f8:c0c
    

    Mal zerlegen.

    • Die IANA vergibt Subnetze (/12), das ist hier in dem Fall die 2a01
    • Die RIPE vergibt Subnetze (/29), das ist hier in dem Fall die 4f8:c0c

    Und Firmen wie Hetzner bekommen jetzt ein /48 Netz, das heißt sie können 65.536 x /64 Netz vergeben. Das könnt ihr alles in Nico seinem Talk nachlesen bzw. Euch anschauen. Ab ca. Minute 10:24

    Hetzner vergibt jetzt an uns ein /64 Netz.

    inet6 2a01:4f8:c0c:xxxx::1/64 scope global 
    

    Nun brauchte ich für meinen Wireguard-Server ein /72 Netz. grübel Das machte mir richtig Kopfschmerzen. Ich habe dann versucht, das mal in meine Birne rein zu bekommen. Fangen wir vorne an.

    Die Adresse (die 4848 habe ich hier mal willkürlich eingetragen)

    2a01:4f8:c0c:4848::100: 
    

    lautet ausgeschrieben

    2a01:04f8:0c0c:4848:0000:0000:0000:0001
    

    Dann schauen wir uns auf dieser Webseite die Grafik an -> https://www.ipv6-portal.de/tools/subnet-tabelle.html und sehen, das ein /72 Netz an dieser Stelle anfängt.

    2a01:04f8:0c0c:4848:0X00:0000:0000:0001
    

    Hier mit einem X markiert! Somit würde dann die IPv6 Adresse bzw. Bereich für das /72 Netz so aussehen.

    2a01:04f8:0c0c:4848:0100:0000:0000:0001
    

    und gekürzt

    2a01:4f8:c0c:4848:100::1/72 
    

    Puh! IPv6 ist nicht ganz so einfach 🙂 Das bedeutet jetzt übrigens, das ich in diesem Netz

     72 057 594 037 927 900
    

    Adressen habe. Also, so rund 72 Billarden. Ok, die werde ich wohl nicht alle brauchen 😇 Und dieses Netz haben wir dann auch noch 16 mal. Ok, lassen wir das, das führt zu nix LOL

    Und danke an Nico, der meine dummen Fragen immer alle ertragen muss

    Achtung

    Ob das alles so 100% wasserdicht ist, weiß ich nicht. Wenn hier jemand einen dicken Schnitzer findet, würde ich mich freuen, wenn ihr hier einen kleinen Kommentar hinterlasst, ich ändere das dann.

    Quellen

    https://media.ccc.de/v/froscon2019-2423-just_another_ipv6_talk#t=756
    https://www.ipv6-portal.de/tools/subnet-tabelle.html
    https://de.wikipedia.org/wiki/Netzmaske
    https://de.wikipedia.org/wiki/Zahlennamen

  • Proxmox 8.3 released

    Proxmox
    2
    0 Stimmen
    2 Beiträge
    170 Aufrufe
    FrankMF
    Ich habe gestern mal eine Neuigkeit ausprobiert, den Import einer Anwendung mittels OVA. Dazu habe ich irgendwo im Netz ein File für OpenProject gefunden (steht schon sehr lange auf meiner Testliste). Der Import war langweilig einfach. Nach Import ein paar Dinge eingestellt, Netzwerk usw. und die VM gestartet. Ok, die Installation war so alt, das ich sie danach wieder gelöscht habe, aber das soll ja kein Problem sein. Man kann OpenProject ja auch mittels .deb Package installieren. Zweiter Test war der "Tag View". Interessantes Feature, was ich auch mal direkt angewendet habe, auch wenn fast alle meine VMs Debian sind
  • Nextcloud Hub8 (29.0.0) released

    Nextcloud
    2
    +3
    0 Stimmen
    2 Beiträge
    231 Aufrufe
    FrankMF
    Ich möchte hier aber auch nicht unterschlagen, dass viele der Neuerungen bei meiner Installation nicht funktionieren. Hauptsächlich Funktionen im Zusammenhang mit der neuen Teams Funktion. Da ich schon sehr lange Nextcloud nutze, kenne ich das von den 0.0er Versionen. Da braucht es erst mal ein paar Updates, bis das fehlerfrei funktioniert.
  • Debian 12 - Bluetooth Ausfall nach Stromausfall

    Linux
    1
    0 Stimmen
    1 Beiträge
    138 Aufrufe
    Niemand hat geantwortet
  • FrOSCon 18

    Linux
    1
    0 Stimmen
    1 Beiträge
    87 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux
    2
    0 Stimmen
    2 Beiträge
    717 Aufrufe
    FrankMF
    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen Den Anfang macht die ZFS-Replication Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools. root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool Wir erzeugen ein Dataset im datapool zfs create datapool/docs -o mountpoint=/docs Wir erzeugen eine Datei mit Inhalt echo "version 1" > /docs/data.txt Wir erzeugen einen Snapshot zfs snapshot datapool/docs@today Kontrolle root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K - Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test. zfs send datapool/docs@today | zfs receive Backup_Home/test Nun befinden sich die Daten in dem anderen ZFS-Pool root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup Den Test reiche ich dann später nach. Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/ ZFS inkrementelle Replication Als, nur die geänderten Daten senden! Wir erzeugen ein paar Dateien root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt Neuer Snapshot zfs snapshot datapool/docs@17:02 Liste der Snapshots root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K - Wir senden dieinkrementelle Replication zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot. zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K Und Kontrolle ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/
  • NanoPi R2S - Firewall mit VLan und DHCP-Server

    Verschoben NanoPi R2S
    2
    +1
    0 Stimmen
    2 Beiträge
    790 Aufrufe
    FrankMF
    Nachdem ich die Tage feststellen musste, das irgendwas mit dem Gerät nicht stimmte, bekam keine DNS Auflösung über die Konsole, habe ich das heute mal eben neuinstalliert. Armbian ist ja immer was spezielles Hat sich bis heute nix dran geändert..... Ok, dann heute mal eben ein neues Image erstellt. Download Gewählt habe ich das Armbian Buster. Image auf die SD-Karte, eingeloggt. Alles wie oben erstellt und abgespeichert. Neustart, geht wieder alles. root@192.168.3.15's password: _ _ _ ____ ____ ____ | \ | | __ _ _ __ ___ _ __ (_) | _ \|___ \/ ___| | \| |/ _` | '_ \ / _ \| '_ \| | | |_) | __) \___ \ | |\ | (_| | | | | (_) | |_) | | | _ < / __/ ___) | |_| \_|\__,_|_| |_|\___/| .__/|_| |_| \_\_____|____/ |_| Welcome to Debian GNU/Linux 10 (buster) with Linux 5.9.11-rockchip64 System load: 2% Up time: 11 min Memory usage: 10% of 978M IP: 192.168.3.15 192.168.1.1 192.168.2.1 CPU temp: 61°C Usage of /: 5% of 29G Last login: Sun Dec 6 12:28:10 2020 from 192.168.3.213 Kernelversion root@nanopi-r2s:~# uname -a Linux nanopi-r2s 5.9.11-rockchip64 #20.11.1 SMP PREEMPT Fri Nov 27 21:59:08 CET 2020 aarch64 GNU/Linux ip a oot@nanopi-r2s:~# ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether b2:b5:10:38:9e:76 brd ff:ff:ff:ff:ff:ff inet 192.168.3.15/24 brd 192.168.3.255 scope global dynamic eth0 valid_lft 6360sec preferred_lft 6360sec inet6 2a02:908:xxxxxx/64 scope global dynamic mngtmpaddr valid_lft 7196sec preferred_lft 596sec inet6 fe80::b0b5:10ff:fe38:9e76/64 scope link valid_lft forever preferred_lft forever 3: lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff 4: lan0.100@lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff inet 192.168.1.1/24 brd 192.168.1.255 scope global lan0.100 valid_lft forever preferred_lft forever inet6 fe80::b0b5:10ff:fe38:9e96/64 scope link valid_lft forever preferred_lft forever 5: lan0.200@lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff inet 192.168.2.1/24 brd 192.168.2.255 scope global lan0.200 valid_lft forever preferred_lft forever inet6 fe80::b0b5:10ff:fe38:9e96/64 scope link valid_lft forever preferred_lft forever Vom Notebook aus funktioniert auch alles. So weit bin ich zufrieden. Jetzt mal langsam anfangen, der Kiste IPv6 beizubringen. Oje, nicht gerade mein Lieblingsthema... Bis der NanoPi R4S hier ankommt und ein vernünftiges Image hat, vergeht ja noch was Zeit...
  • Debian 10 Buster 10.5 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    211 Aufrufe
    Niemand hat geantwortet
  • ROCKPro64 - Projekt Wireguard Server

    Verschoben ROCKPro64
    2
    +1
    0 Stimmen
    2 Beiträge
    522 Aufrufe
    FrankMF
    Hat ein wenig Nerven gekostet und der Artikel ist auch was länger geworden Viel Spaß beim Lesen und testen!