Skip to content

NAS 2023 - Software Teil 1

Angeheftet Verschoben Linux
1 1 290
  • Kommen wir zum schwierigen Teil. Man kann ja auch alles mit einem Debian Server machen, aber ich hatte mich mal wieder für einen Proxmox entschieden. Habe ja schon öfter einen gehabt und finde ihn immer wieder sehr praktisch.

    Auf dem NVMe SSD Riegel habe ich eine Standardinstallation mit dem ISO Image von Proxmox durchgeführt. Das kennt man ja so weit schon.

    Kleiner Tipp, macht die Installation immer schon am richtigen Netzwerk (falls mehrere vorhanden sind), das hinterher zu ändern ist immer unnötige Arbeit.

    23287ac1-59b2-4a18-bb94-d726f3f92f0f-grafik.png

    Ich hatte einige Probleme ein verschlüsseltes RIADs einzurichten bzw. überhaupt RAIDs. Die waren immer wieder nach einem Reboot weg!? Ich habe das dann mal für mich auf den fehlenden GRUB geschoben!??

    Device       Start        End    Sectors   Size Type
    /dev/sdd1       34       2047       2014  1007K BIOS boot
    /dev/sdd2     2048    2099199    2097152     1G EFI System
    /dev/sdd3  2099200 1953525134 1951425935 930.5G Linux LVM
    

    Ich habe es dann mit den Möglichkeiten von Proxmox (GUI) realisiert. Dazu bietet Proxmox ja ZFS an und ich hatte das schon mal länger hier im Einsatz. Na dann halt jetzt auch wieder.

    Also, die zwei 4TB-Platten geteilt und zwei ZFS Pools angelegt.

    67db7964-5e0e-4c27-97c1-12f522afb487-grafik.png

    Jetzt konnte ich aber immer noch nicht das machen, was ich wollte. Die Pools konnten nur Disk Image & Container enthalten!?

    9c1aa049-3c56-4304-b1d8-6579e6a0abaf-grafik.png

    Man kann aber unter Datacenter - Storage -Add ein Directory anlegen. Das bekommt irgendeinen Namen und als Pfad folgendes übergeben

    /Pool_1/Backups
    

    Das sieht dann so aus.

    3f65a7a7-1a0b-44bc-96f5-6118edc922c7-grafik.png

    Was macht das im Hintergrund, es legt ein Volume auf dem ZFS-Pool an.

    root@pve:~# zfs list
    NAME             USED  AVAIL     REFER  MOUNTPOINT
    Pool_1           940M  1.76T       96K  /Pool_1
    Pool_1/Backups   939M  1.76T      939M  /Pool_1/Backups
    Pool_2           277G  1.49T       96K  /Pool_2
    Pool_2/NAS       277G  1.49T      277G  /Pool_2/NAS
    

    Und jetzt bin ich in der Lage, dem Volume zuzuweisen, was ich dort speichern möchte.

    Jetzt was Wichtiges. Der Teil mit ZFS kann Fehler enthalten, wer es besser weiß, ich freue mich immer über Verbesserungen und Korrekturen.

    Jetzt habe ich das so, wie ich das haben möchte. Ein Pool kümmert sich um Datensicherungen usw. Der ander Pool dient meinem NAS als Datenspeicher.

    Nächster Teil wird sich dann mit der Einrichtung der pfSense VM beschäftigen.

    NAS 2023 - Hardware

    NAS 2023 - Software Teil 2

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM verschob dieses Thema von Privat am
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat dieses Thema am angepinnt
  • OpenCloud - Aktualisieren!?

    OpenCloud opencloud docker linux
    1
    1
    0 Stimmen
    1 Beiträge
    45 Aufrufe
    Niemand hat geantwortet
  • Debian 12 & fail2ban

    Linux debian linux fail2ban
    1
    0 Stimmen
    1 Beiträge
    151 Aufrufe
    Niemand hat geantwortet
  • OpenCloud - Docker Compose local

    Verschoben OpenCloud opencloud linux
    3
    1
    0 Stimmen
    3 Beiträge
    762 Aufrufe
    FrankMF
    Noch was Wichtiges. Die Docker Installation nutzt folgende config. In meinem Beispiel findet man sie unter /home/frank/opencloud/deployments/examples/opencloud_full Darin liegt ein .env ## Basic Settings ## # Define the docker compose log driver used. # Defaults to local LOG_DRIVER= # If you're on an internet facing server, comment out following line. # It skips certificate validation for various parts of OpenCloud and is # needed when self signed certificates are used. INSECURE=true ## Traefik Settings ## # Note: Traefik is always enabled and can't be disabled. # Serve Traefik dashboard. # Defaults to "false". TRAEFIK_DASHBOARD= # Domain of Traefik, where you can find the dashboard. # Defaults to "traefik.opencloud.test" TRAEFIK_DOMAIN= # Basic authentication for the traefik dashboard. # Defaults to user "admin" and password "admin" (written as: "admin:$2y$05$KDHu3xq92SPaO3G8Ybkc7edd51pPLJcG1nWk3lmlrIdANQ/B6r5pq"). # To create user:password pair, it's possible to use this command: # echo $(htpasswd -nB user) | sed -e s/\\$/\\$\\$/g TRAEFIK_BASIC_AUTH_USERS= # Email address for obtaining LetsEncrypt certificates. # Needs only be changed if this is a public facing server. TRAEFIK_ACME_MAIL= # Set to the following for testing to check the certificate process: # "https://acme-staging-v02.api.letsencrypt.org/directory" # With staging configured, there will be an SSL error in the browser. # When certificates are displayed and are emitted by # "Fake LE Intermediate X1", # the process went well and the envvar can be reset to empty to get valid certificates. TRAEFIK_ACME_CASERVER= [....gekürzt....] Man kann dort etwas ändern und mittels docker compose up -d alles aktualisieren. Radicale OpenCloud nutzt im Moment folgendes https://radicale.org/v3.html als Backend Server für Kalender & Kontakte. Jemand hat mir dann erklärt, wie das so funktioniert. Danach hatte es dann klick gemacht. https://fosstodon.org/@h4kamp/114562514701351170 In der config findet man zum Beispiel die Konfiguration für radicale (Kalender- und Kontakte-App) Das ist nur eine rudimentäre Ablage, wird gesteuert über Clienten, z.B. die Thunderbird Kalender Funktion. ### Radicale Setting ### # Radicale is a small open-source CalDAV (calendars, to-do lists) and CardDAV (contacts) server. # When enabled OpenCloud is configured as a reverse proxy for Radicale, providing all authenticated # OpenCloud users access to a Personal Calendar and Addressbook RADICALE=:radicale.yml # Docker image to use for the Radicale Container #RADICALE_DOCKER_IMAGE=opencloudeu/radicale # Docker tag to pull for the Radicale Container #RADICALE_DOCKER_TAG=latest # Define the storage location for the Radicale data. Set the path to a local path. # Ensure that the configuration and data directories are owned by the user and group with ID 1000:1000. # This matches the default user inside the container and avoids permission issues when accessing files. # Leaving it default stores data in docker internal volumes. #RADICALE_DATA_DIR=/your/local/radicale/data In einer Standard Installation ist das auskommentiert. RADICALE=:radicale.yml Danach ein docker compose up -d und Eure Kalendereinträge (extern auf einem Clienten verwaltet) werden in der OpenCloud gesichert.
  • NiceGUI

    Linux nicegui linux python
    2
    0 Stimmen
    2 Beiträge
    463 Aufrufe
    FrankMF
    Ich habe mir das jetzt einige Tage gegeben und habe mich dagegen entschieden. Werde weiterhin PyWebIO benutzen. Hauptgrund ist die wesentlich bessere Dokumentation -> https://pywebio.readthedocs.io/en/latest/index.html Da kann ich mir auch mit meinem Python Kenntnisstand die Informationen holen, die ich brauche um es einzusetzen.
  • Debian Buster 10.9 released

    Linux debian linux
    1
    0 Stimmen
    1 Beiträge
    241 Aufrufe
    Niemand hat geantwortet
  • Restic & Rclone & Nextcloud

    Linux nextcloud rclone linux restic
    3
    0 Stimmen
    3 Beiträge
    869 Aufrufe
    FrankMF
    Hier mal eine Ausgabe vom ersten Durchgang root@frank-MS-7C37:~# restic --password-file /root/passwd -r rclone:Nextcloud:HOME_UBUNTU backup --files-from /root/includes.txt repository 99xxxxa0 opened successfully, password is correct created new cache in /root/.cache/restic rclone: 2020/05/08 17:47:57 ERROR : locks: error listing: directory not found rclone: 2020/05/08 17:47:58 ERROR : index: error listing: directory not found rclone: 2020/05/08 17:47:58 ERROR : snapshots: error listing: directory not found Files: 3503 new, 0 changed, 0 unmodified Dirs: 2 new, 0 changed, 0 unmodified Added to the repo: 16.872 GiB processed 3503 files, 21.134 GiB in 1:02:56 snapshot fdxxxxec saved Der erste Durchgang hat also etwa eine Stunde benötigt. Durch die Deduplikation der Daten, ist der Vorgang beim zweiten Durchgang viel schneller weil nur neue oder geänderte Daten gesichert werden. Und außerdem sind alle Daten AES-256 verschlüsselt. Also perfekt zur Ablage in irgendeiner Cloud root@frank-MS-7C37:~# restic --password-file /root/passwd -r rclone:Nextcloud:HOME_UBUNTU backup --files-from /root/includes.txt repository 99xxxxa0 opened successfully, password is correct Files: 57 new, 41 changed, 3449 unmodified Dirs: 0 new, 2 changed, 0 unmodified Added to the repo: 22.941 MiB processed 3547 files, 21.137 GiB in 0:13 snapshot c6xxxxe4 saved Wie ihr seht, hat der zweite Durchgang nur ein paar neue und geänderte Daten gesichert. Der Rest ist ja schon vorhanden. Und das kann man dann auch problemlos täglich, wöchentlich oder was auch immer mal eben schnell durchführen. Eines meiner absoluten Lieblingstool
  • Node.js Paketmanager npm Sicherheitsproblem!

    Linux security nodejs linux npm
    1
    0 Stimmen
    1 Beiträge
    270 Aufrufe
    Niemand hat geantwortet
  • VS Code - entferntes Verzeichnis einbinden

    Linux vscode linux
    2
    0 Stimmen
    2 Beiträge
    479 Aufrufe
    FrankMF
    Mein kleines Projekt liegt auch noch auf gitlab.com. Man kann prima die beiden Dienste (VSCode & gitlab.com) verknüpfen. Eine Änderung, ein commit und dann git push origin master Und die Änderungen sind oben. Aber, ich stecke da noch ganz am Anfang der Lernkurve