Skip to content

ZFS - Wichtige Befehle

Linux
3 1 1.1k
  • zpool - configure ZFS storage pools

    Ein paar der wichtigsten Befehle, die ich so die letzten Tage kennengelernt und benutzt habe. Wird bei Bedarf erweitert.

    zpool create

    Hiermit bauen wir einen ZFS Pool aus zwei Platten auf.

    zpool create ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26 ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zpool status

    Zeigt uns den Status des Pools an, welche Platten, Zustand usw.

    root@pve:~# zpool status
      pool: ZFS-Pool
     state: ONLINE
      scan: resilvered 1.20T in 02:56:31 with 0 errors on Mon Oct 18 18:28:36 2021
    config:
    
    	NAME                                          STATE     READ WRITE CKSUM
    	ZFS-Pool                                      ONLINE       0     0     0
    	  mirror-0                                    ONLINE       0     0     0
    	    ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26  ONLINE       0     0     0
    	    ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52  ONLINE       0     0     0
    
    errors: No known data errors
    

    zpool attach

    Hiermit fügen wir eine oder mehrere Platten zu einem Pool hinzu.

    zpool attach ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26 ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zpool detach

    Das entfernt eine Platte aus dem Pool.

    zpool detach ZFS-Pool 8992518921607088473
    

    zpool replace

    Eine Platte, die z.B. ausgefallen ist, wird hiermit ersetzt.

    zpool replace ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zfs - configures ZFS file systems


    zfs list

    Listet den Inhalt des ZFS Filesystemes.

    root@pve:~# zfs list -t filesystem -o name,used
    NAME                  USED
    ZFS-Pool              418G
    ZFS-Pool/nas_backup   384G
    

    oder

    root@pve:~# zfs list
    NAME                     USED  AVAIL     REFER  MOUNTPOINT
    ZFS-Pool                 418G  3.10T     1.50G  /ZFS-Pool
    ZFS-Pool/nas_backup      384G  3.10T      384G  /ZFS-Pool/nas_backup
    ZFS-Pool/vm-100-disk-0  33.0G  3.13T     3.17G  -
    

    oder

    gibt alle Parameter aus, was für Experten 😉

    root@pve:~# zfs get all ZFS-Pool
    NAME      PROPERTY              VALUE                  SOURCE
    ZFS-Pool  type                  filesystem             -
    ZFS-Pool  creation              Sat Oct 16 10:50 2021  -
    ZFS-Pool  used                  418G                   -
    ZFS-Pool  available             3.10T                  -
    ZFS-Pool  referenced            1.50G                  -
    ZFS-Pool  compressratio         1.01x                  -
    ZFS-Pool  mounted               yes                    -
    ZFS-Pool  quota                 none                   default
    ZFS-Pool  reservation           none                   default
    ZFS-Pool  recordsize            128K                   default
    ZFS-Pool  mountpoint            /ZFS-Pool              default
    ZFS-Pool  sharenfs              off                    default
    ZFS-Pool  checksum              on                     default
    ZFS-Pool  compression           on                     local
    ZFS-Pool  atime                 on                     default
    ZFS-Pool  devices               on                     default
    ZFS-Pool  exec                  on                     default
    ZFS-Pool  setuid                on                     default
    ZFS-Pool  readonly              off                    default
    ZFS-Pool  zoned                 off                    default
    ZFS-Pool  snapdir               hidden                 default
    ZFS-Pool  aclmode               discard                default
    ZFS-Pool  aclinherit            restricted             default
    ZFS-Pool  createtxg             1                      -
    ZFS-Pool  canmount              on                     default
    ZFS-Pool  xattr                 on                     default
    ZFS-Pool  copies                1                      default
    ZFS-Pool  version               5                      -
    ZFS-Pool  utf8only              off                    -
    ZFS-Pool  normalization         none                   -
    ZFS-Pool  casesensitivity       sensitive              -
    ZFS-Pool  vscan                 off                    default
    ZFS-Pool  nbmand                off                    default
    ZFS-Pool  sharesmb              off                    default
    ZFS-Pool  refquota              none                   default
    ZFS-Pool  refreservation        none                   default
    ZFS-Pool  guid                  16136524096267552939   -
    ZFS-Pool  primarycache          all                    default
    ZFS-Pool  secondarycache        all                    default
    ZFS-Pool  usedbysnapshots       0B                     -
    ZFS-Pool  usedbydataset         1.50G                  -
    ZFS-Pool  usedbychildren        417G                   -
    ZFS-Pool  usedbyrefreservation  0B                     -
    ZFS-Pool  logbias               latency                default
    ZFS-Pool  objsetid              54                     -
    ZFS-Pool  dedup                 off                    default
    ZFS-Pool  mlslabel              none                   default
    ZFS-Pool  sync                  standard               default
    ZFS-Pool  dnodesize             legacy                 default
    ZFS-Pool  refcompressratio      1.00x                  -
    ZFS-Pool  written               1.50G                  -
    ZFS-Pool  logicalused           394G                   -
    ZFS-Pool  logicalreferenced     1.50G                  -
    ZFS-Pool  volmode               default                default
    ZFS-Pool  filesystem_limit      none                   default
    ZFS-Pool  snapshot_limit        none                   default
    ZFS-Pool  filesystem_count      none                   default
    ZFS-Pool  snapshot_count        none                   default
    ZFS-Pool  snapdev               hidden                 default
    ZFS-Pool  acltype               off                    default
    ZFS-Pool  context               none                   default
    ZFS-Pool  fscontext             none                   default
    ZFS-Pool  defcontext            none                   default
    ZFS-Pool  rootcontext           none                   default
    ZFS-Pool  relatime              off                    default
    ZFS-Pool  redundant_metadata    all                    default
    ZFS-Pool  overlay               on                     default
    ZFS-Pool  encryption            off                    default
    ZFS-Pool  keylocation           none                   default
    ZFS-Pool  keyformat             none                   default
    ZFS-Pool  pbkdf2iters           0                      default
    ZFS-Pool  special_small_blocks  0                      default
    

    zfs create

    Legt ein Dataset an. Das kann man sich wie einen Ordner vorstellen.

    A dataset is a space where you put your data. Datasets are flexible in size and are located inside your pool.

    zfs create <Pool_Name>/<dataset>
    

    zfs snapshot

    zfs snapshot datapool/test@today
    

    zfs list

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                  USED  AVAIL     REFER  MOUNTPOINT
    datapool/test@today     0B      -       96K  -
    

    Die Anleitung zum Thema -> https://openzfs.github.io/openzfs-docs/index.html

    Interessante Links zum Thema

  • Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen 🙂

    Den Anfang macht die

    ZFS-Replication

    Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools.

    root@pbs:/mnt/datastore/datapool/test# zfs list
    NAME                    USED  AVAIL     REFER  MOUNTPOINT
    Backup_Home             222G   677G      222G  /mnt/datastore/Backup_Home
    datapool                2.36G  1.75T     2.36G  /mnt/datastore/datapool
    

    Wir erzeugen ein Dataset im datapool

    zfs create datapool/docs -o mountpoint=/docs
    

    Wir erzeugen eine Datei mit Inhalt

    echo "version 1" > /docs/data.txt
    

    Wir erzeugen einen Snapshot

    zfs snapshot datapool/docs@today
    

    Kontrolle

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                          USED  AVAIL     REFER  MOUNTPOINT
    datapool/docs@today             0B      -       96K  -
    

    Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test.

    zfs send datapool/docs@today | zfs receive Backup_Home/test
    

    Nun befinden sich die Daten in dem anderen ZFS-Pool

    root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/
    data.txt
    

    Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt 😉

    zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup
    

    Den Test reiche ich dann später nach.

    Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/

    ZFS inkrementelle Replication

    Als, nur die geänderten Daten senden!

    Wir erzeugen ein paar Dateien

    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt
    

    Neuer Snapshot

    zfs snapshot datapool/docs@17:02
    

    Liste der Snapshots

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                          USED  AVAIL     REFER  MOUNTPOINT
    datapool/docs@today            56K      -       96K  -
    datapool/docs@17:02             0B      -      112K  -
    

    Wir senden dieinkrementelle Replication

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test
    send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K
    total estimated size is 38.6K
    cannot receive incremental stream: destination Backup_Home/test has been modified
    since most recent snapshot
    

    Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot.

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test
    send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K
    total estimated size is 38.6K
    

    Und Kontrolle

    ls /mnt/datastore/Backup_Home/test/
    data1.txt  data2.txt  data3.txt  data4.txt  data.txt   
    

    Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/

  • Heute mal drüber gestolpert, das es auch so was geben kann.

    root@pve2:~# zpool status
      pool: pool_NAS
     state: ONLINE
    status: Some supported and requested features are not enabled on the pool.
            The pool can still be used, but some features are unavailable.
    action: Enable all features using 'zpool upgrade'. Once this is done,
            the pool may no longer be accessible by software that does not support
            the features. See zpool-features(7) for details.
      scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025
    config:
    
            NAME                                         STATE     READ WRITE CKSUM
            pool_NAS                                     ONLINE       0     0     0
              mirror-0                                   ONLINE       0     0     0
                ata-WDC_WDS100T1R0A-68A4W0_230520800733  ONLINE       0     0     0
                ata-WDC_WDS100T1R0A-68A4W0_230520801376  ONLINE       0     0     0
    
    errors: No known data errors
    

    Was machen? Als erstes mal ein Backup angestoßen. Danach

    root@pve2:~# zpool get all pool_NAS | grep feature
    pool_NAS  feature@async_destroy          enabled                        local
    pool_NAS  feature@empty_bpobj            active                         local
    pool_NAS  feature@lz4_compress           active                         local
    pool_NAS  feature@multi_vdev_crash_dump  enabled                        local
    pool_NAS  feature@spacemap_histogram     active                         local
    pool_NAS  feature@enabled_txg            active                         local
    pool_NAS  feature@hole_birth             active                         local
    pool_NAS  feature@extensible_dataset     active                         local
    pool_NAS  feature@embedded_data          active                         local
    pool_NAS  feature@bookmarks              enabled                        local
    pool_NAS  feature@filesystem_limits      enabled                        local
    pool_NAS  feature@large_blocks           enabled                        local
    pool_NAS  feature@large_dnode            enabled                        local
    pool_NAS  feature@sha512                 enabled                        local
    pool_NAS  feature@skein                  enabled                        local
    pool_NAS  feature@edonr                  enabled                        local
    pool_NAS  feature@userobj_accounting     active                         local
    pool_NAS  feature@encryption             enabled                        local
    pool_NAS  feature@project_quota          active                         local
    pool_NAS  feature@device_removal         enabled                        local
    pool_NAS  feature@obsolete_counts        enabled                        local
    pool_NAS  feature@zpool_checkpoint       enabled                        local
    pool_NAS  feature@spacemap_v2            active                         local
    pool_NAS  feature@allocation_classes     enabled                        local
    pool_NAS  feature@resilver_defer         enabled                        local
    pool_NAS  feature@bookmark_v2            enabled                        local
    pool_NAS  feature@redaction_bookmarks    enabled                        local
    pool_NAS  feature@redacted_datasets      enabled                        local
    pool_NAS  feature@bookmark_written       enabled                        local
    pool_NAS  feature@log_spacemap           active                         local
    pool_NAS  feature@livelist               enabled                        local
    pool_NAS  feature@device_rebuild         enabled                        local
    pool_NAS  feature@zstd_compress          enabled                        local
    pool_NAS  feature@draid                  enabled                        local
    pool_NAS  feature@zilsaxattr             disabled                       local
    pool_NAS  feature@head_errlog            disabled                       local
    pool_NAS  feature@blake3                 disabled                       local
    pool_NAS  feature@block_cloning          disabled                       local
    pool_NAS  feature@vdev_zaps_v2           disabled                       local
    

    Das kommt von neuen Funktionen, die zu ZFS hinzugefügt wurden und bei Erstellung des Pools nicht vorhanden waren. Dann upgraden wir mal

    root@pve2:~# zpool upgrade pool_NAS
    This system supports ZFS pool feature flags.
    
    Enabled the following features on 'pool_NAS':
      zilsaxattr
      head_errlog
      blake3
      block_cloning
      vdev_zaps_v2
    

    Kontrolle

    root@pve2:~# zpool status
      pool: pool_NAS
     state: ONLINE
      scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025
    config:
    
            NAME                                         STATE     READ WRITE CKSUM
            pool_NAS                                     ONLINE       0     0     0
              mirror-0                                   ONLINE       0     0     0
                ata-WDC_WDS100T1R0A-68A4W0_230520800733  ONLINE       0     0     0
                ata-WDC_WDS100T1R0A-68A4W0_230520801376  ONLINE       0     0     0
    
    errors: No known data errors
    

    Features kontrollieren

    root@pve2:~# zpool get all pool_NAS | grep feature
    pool_NAS  feature@async_destroy          enabled                        local
    pool_NAS  feature@empty_bpobj            active                         local
    pool_NAS  feature@lz4_compress           active                         local
    pool_NAS  feature@multi_vdev_crash_dump  enabled                        local
    pool_NAS  feature@spacemap_histogram     active                         local
    pool_NAS  feature@enabled_txg            active                         local
    pool_NAS  feature@hole_birth             active                         local
    pool_NAS  feature@extensible_dataset     active                         local
    pool_NAS  feature@embedded_data          active                         local
    pool_NAS  feature@bookmarks              enabled                        local
    pool_NAS  feature@filesystem_limits      enabled                        local
    pool_NAS  feature@large_blocks           enabled                        local
    pool_NAS  feature@large_dnode            enabled                        local
    pool_NAS  feature@sha512                 enabled                        local
    pool_NAS  feature@skein                  enabled                        local
    pool_NAS  feature@edonr                  enabled                        local
    pool_NAS  feature@userobj_accounting     active                         local
    pool_NAS  feature@encryption             enabled                        local
    pool_NAS  feature@project_quota          active                         local
    pool_NAS  feature@device_removal         enabled                        local
    pool_NAS  feature@obsolete_counts        enabled                        local
    pool_NAS  feature@zpool_checkpoint       enabled                        local
    pool_NAS  feature@spacemap_v2            active                         local
    pool_NAS  feature@allocation_classes     enabled                        local
    pool_NAS  feature@resilver_defer         enabled                        local
    pool_NAS  feature@bookmark_v2            enabled                        local
    pool_NAS  feature@redaction_bookmarks    enabled                        local
    pool_NAS  feature@redacted_datasets      enabled                        local
    pool_NAS  feature@bookmark_written       enabled                        local
    pool_NAS  feature@log_spacemap           active                         local
    pool_NAS  feature@livelist               enabled                        local
    pool_NAS  feature@device_rebuild         enabled                        local
    pool_NAS  feature@zstd_compress          enabled                        local
    pool_NAS  feature@draid                  enabled                        local
    pool_NAS  feature@zilsaxattr             enabled                        local
    pool_NAS  feature@head_errlog            active                         local
    pool_NAS  feature@blake3                 enabled                        local
    pool_NAS  feature@block_cloning          enabled                        local
    pool_NAS  feature@vdev_zaps_v2           enabled                        local
    

    So, alle neuen Features aktiviert. Jetzt kann der Pool weiterhin seine Arbeit machen.

  • Forgejo - v11.0.2

    Verschoben Forgejo forgejo linux
    1
    1
    0 Stimmen
    1 Beiträge
    99 Aufrufe
    Niemand hat geantwortet
  • Nextcloud - Collabora Installation Debian Bookworm 12

    Nextcloud nextcloud collabora linux
    2
    3
    0 Stimmen
    2 Beiträge
    2k Aufrufe
    FrankMF
    Ok, ich war leider nicht in der Lage den CODE-Server hinter einem Proxy zu installieren. Das CODE-Team scheint Docker zu lieben und das andere nur am Rande zu machen. Ohne Liebe Da ich extrem lange Ladezeiten hatte und die Software insgesamt nicht den Eindruck machte, das man das gerne produktiv auf einem Server nutzen möchte, habe ich den Server eben wieder gelöscht. Jetzt fehlt mir leider, die deepl.com Anbindung, aber das kann man ja auch über die Webseite nutzen. Ich nutze jetzt wieder den eingebauten CODE-Server, der eigentlich ein App-Image ist. [image: 1694677466020-28c41010-5ce1-4f7c-89d5-1c9b253011d0-grafik.png] Der klare Vorteil, es läuft incl. Dokumenten Freigabe Nicht vergessen, unter Allow list for WOPI requests kommen die Server Adressen des Nextcloud-Webservers rein! [image: 1694677621827-c1a06c2c-86b5-4750-a062-7ba9d8dd8253-grafik.png]
  • Kopia - HTTP/S Server

    Verschoben Kopia kopia linux
    3
    2
    0 Stimmen
    3 Beiträge
    2k Aufrufe
    FrankMF
    Ich hatte ein paar Probleme, die ich mir teilweise nicht erklären kann Ich möchte den Kopia Server gerne über systemd steuern. SystemD [Unit] Description=Kopia Server After=syslog.target After=network.target [Service] Type=simple User=kopia Group=kopia ExecStart=/usr/bin/kopia server --tls-cert-file /home/kopia-server/fullchain.pem --tls-key-file /home/kopia-server/privkey.pem --htpasswd-file /home/kopia-server/.htpasswd --address <IPv4>:51515 Restart=always RestartSec=5 [Install] WantedBy=multi-user.target Danach systemctl daemon-reload systemctl start kopia-server Mit systemctl status kopia-server kann man sich den Status anzeigen lassen. Client Rechner Auf dem Client, der das Backup zum Server schicken soll, machen wir dann folgendes. USER@HOSTNAME:~$ kopia repo connect server --url=https://<DOMAIN>:51515 --override-username=USER --override-hostname=HOSTNAME Enter password to open repository: Connected to repository API Server. NOTICE: Kopia will check for updates on GitHub every 7 days, starting 24 hours after first use. To disable this behavior, set environment variable KOPIA_CHECK_FOR_UPDATES=false Alternatively you can remove the file "/home/frank/.config/kopia/repository.config.update-info.json". Danach steht die Verbindung und wir können Backups hochschieben. kopia snapshot create $HOME Damit wird das Homeverzeichnis gesichert. Das initiale Backup, hat 30 Minuten gebraucht. created snapshot with root kb9e50ff5xxxxxxxxxx265d40a5d0861 and ID cda5c0ffxxxxxxxxxxxxxxa4cb4a367b in 30m28s Ein späteres Backup, sieht so aus. USER@HOSTNAME:~$ kopia snapshot create $HOME Snapshotting USER@HOSTNAME:/home/frank ... * 0 hashing, 51 hashed (324.8 MB), 8524 cached (6.6 GB), 0 uploaded (0 B), 0 errors 100.0% Created snapshot with root kc20a4xxxxxxxxxxxx745c6c7b37c and ID d7a96eaxxxxxxxxxxx0961018eacffa in 3m12s Nach 3 Minuten durch. Zu diesem Zeitpunkt hat sich aber auch nicht wirklich was geändert! Fazit Das Tool macht immer noch einen sehr guten Eindruck. Die Geschwindigkeit ist sehr gut. Die Anleitung ist leider unzureichend. Da gibt es so viele Möglichkeiten, da braucht es sehr lange, bis man da mal durchsteigt. Zum Glück, ist das was man normalerweise braucht, recht überschaubar. Bis zum produktiven Einsatz braucht das aber bei mir noch eine Menge mehr Tests. Was ich noch testen möchte Verzeichnis mounten Backup testweise wieder herstellen (zumindestens teilweise) Der Test läuft mit Standard Einstellungen, also z.B. ohne Kompression. Das sollte man dann auch mal testen.. Bitte achtet auf gleiche Versionen auf dem Clienten, wie auf dem Server. Ich meine da ein paar Probleme festgestellt zu haben...
  • ROCKPro64 - Projekt Wireguard Server

    Verschoben ROCKPro64 linux rockpro64 wireguard
    2
    2
    0 Stimmen
    2 Beiträge
    595 Aufrufe
    FrankMF
    Hat ein wenig Nerven gekostet und der Artikel ist auch was länger geworden Viel Spaß beim Lesen und testen!
  • Debian Buster 10 Release

    Linux linux nvidia
    3
    1
    0 Stimmen
    3 Beiträge
    475 Aufrufe
    FrankMF
    Da man ja beim Login auswählen kann, mit was die Session startet, war ich doch jetzt etwas neugierig was überhaupt läuft. [image: 1562484643462-img_20190707_092217.jpg] frank@debian:~$ echo $WAYLAND_DISPLAY frank@debian:~$ loginctl SESSION UID USER SEAT TTY 7 1000 frank seat0 tty2 c1 116 Debian-gdm seat0 tty1 2 sessions listed. frank@debian:~$ loginctl show-session c1 -p Type Type=x11 frank@debian:~$ loginctl show-session c1 Id=c1 User=116 Name=Debian-gdm Timestamp=Sat 2019-07-06 22:43:34 CEST TimestampMonotonic=30094837 VTNr=1 Seat=seat0 TTY=tty1 Remote=no Service=gdm-launch-environment Scope=session-c1.scope Leader=1015 Audit=4294967295 Type=x11 Class=greeter Active=no State=online IdleHint=yes IdleSinceHint=1562446130937731 IdleSinceHintMonotonic=346278596 LockedHint=yes Die Installation der Nvidia Treiber macht da wohl einen x11 Desktop raus. Aber auch nicht weiter schlimm, der Wayland lief ja hier überhaupt nicht. Würde mich aber über interessante Links zum Thema freuen
  • Twitter-Beiträge in NodeBB anzeigen

    Verschoben NodeBB nodebb linux
    3
    0 Stimmen
    3 Beiträge
    450 Aufrufe
    FrankMF
    Endlich was gefunden um Twitter-Beiträge hier anzuzeigen. Beispiele siehe oben... YEAH Wie man das in NodeBB und dem Plugin nodebb-plugin-ns-embed einbaut, steht hier. https://community.nodebb.org/topic/7135/nodebb-plugin-ns-embed-ns-embed/39
  • NodeBB - Automatisch starten

    NodeBB nodebb linux
    1
    0 Stimmen
    1 Beiträge
    682 Aufrufe
    Niemand hat geantwortet
  • Bananian auf HDD installieren

    BananaPi bananapi linux
    1
    0 Stimmen
    1 Beiträge
    931 Aufrufe
    Niemand hat geantwortet