Skip to content

checkmk - Dockerinstallation

Verschoben checkmk
  • Nachdem ich wieder ein wenig hier umgebaut habe, wollte ich eine checkmk Installation installieren. Aber wo? Ich habe hier eine pfSense, ok mit FreeBSD scheidet das als Installationsziel aus. Auf meinem ROCKPro64, mein neues NAS mit Debian Buster 10.1, scheiterte die Installation an nicht vorhandenem arm Pakete. Gut, das ich da noch über die Docker Installation gestolpert bin 🙂

    Da auf meinem Haupt-PC sowieso Docker installiert ist, bot sich das an es mal auszuprobieren.

    Die Anleitung zur Dockerinstallation findet man hier. https://checkmk.de/cms_introduction_docker.html

    Installation

    Docker

    apt install docker.io
    

    checkmk Container

    root@debian:~# docker container run -dit -p 8080:5000 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v monitoring:/omd/sites --name monitoring -v /etc/localtime:/etc/localtime:ro --restart always checkmk/check-mk-raw:2.0.0-latest
    Unable to find image 'checkmk/check-mk-raw:1.6.0-latest' locally
    1.6.0-latest: Pulling from checkmk/check-mk-raw
    8f91359f1fff: Pull complete 
    3d794619eec5: Pull complete 
    1468b0cb296b: Pull complete 
    787a36ef0a12: Pull complete 
    159fac9366a1: Pull complete 
    fefc9fe50b26: Pull complete 
    Digest: sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    Status: Downloaded newer image for checkmk/check-mk-raw:1.6.0-latest
    

    Nach der Installation müssen wir uns Logfile schauen, damit wir das Passwort bekommen.

    root@debian:~# docker container logs monitoring
    ### CREATING SITE 'cmk'
    Adding /opt/omd/sites/cmk/tmp to /etc/fstab.
    Going to set TMPFS to off.
    Created new site cmk with version 1.6.0p5.cre.
    
      The site can be started with omd start cmk.
      The default web UI is available at http://xxxxxxxxxx/cmk/
    
      The admin user for the web applications is cmkadmin with password: password
      (It can be changed with 'htpasswd -m ~/etc/htpasswd cmkadmin' as site user.
    )
      Please do a su - cmk for administration of this site.
    
    ### STARTING XINETD
    [ ok ] Starting internet superserver: xinetd.
    ### STARTING SITE
    Starting mkeventd...OK
    Starting rrdcached...OK
    Starting npcd...OK
    Starting nagios...OK
    Starting apache...OK
    Initializing Crontab...OK
    ### STARTING CRON
    ### CONTAINER STARTED
    

    Danach kann man den Container erreichen. Jetzt sollte man als erstes das generierte Passwort durch ein eigenes ersetzen. Dazu brauchen wird die ID des Containers

    root@frank-MS-7C37:~# docker ps
    CONTAINER ID   IMAGE                               COMMAND                  CREATED         STATUS                   PORTS                              NAMES
    b59475ab385b   checkmk/check-mk-raw:2.0.0-latest   "/docker-entrypoint.…"   3 minutes ago   Up 3 minutes (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    

    Jetzt einloggen

    root@frank-MS-7C37:~# docker exec -it b59475ab385b bash
    root@b59475ab385b:/# 
    

    Jetzt sind wir innerhalb des Docker Containers. Und nun das Passwort wechseln!!

    root@b59475ab385b:/# omd su cmk
    OMD[cmk]:~$ htpasswd etc/htpasswd cmkadmin
    New password: 
    Re-type new password: 
    Updating password for user cmkadmin
    

    Nun steht dem Einloggen nichts mehr im Wege.

    c76ff794-223f-452e-86ec-9f74459e1136-grafik.png

    Und hier nach dem Einloggen.

    7dd2a7a1-b89e-45cf-a228-e0645f55cbc0-grafik.png

    Sicherheit

    Bitte das hier unbedingt beachten. https://checkmk.de/cms_agent_linux.html#security

    Docker

    docker ps zeigt alle laufenden Docker Container an.

    root@debian:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                  PORTS                              NAMES
    Container-ID        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   25 hours ago        Up 25 hours (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    

    In die Kommandozeile des Containers wechseln.

    docker exec -it Container-ID bash
    

    Sicherheit der Agents

    Dazu bitte die Dokumentation beachten!

  • Ich hatte damals vergessen, die CheckMK Installation zu sichern. Jo, dann halt von vorne. Aber das ist bei den Dockerinstallationen für mich alles noch was neu 😉

    Backup erstellen

    24a87d1d-2951-4793-b60b-bf6d17d065f0-grafik.png

    Was muss in das Feld "Directory to save the backup to" rein!?!?!?

    Es hat etwas gedauert, bis es bei mir Klick gemacht hat. Wenn man sich in die Dockerinstallation einloggt

    docker exec -it Container-ID bash
    

    dann wird es etwas klarer. Wir bewegen uns ja in diesem Dateiverzeichnis.

    root@5e2e67e33438:/# ls -lha opt/omd/sites
    total 20K
    drwxr-xr-x 4 cmk  1001 4.0K Jun 12 22:27 .
    drwxr-xr-x 1 root root 4.0K Jun 10 18:52 ..
    drwxr-xr-x 3 cmk  1001 4.0K Jun 12 22:30 backup
    drwxr-xr-x 8 cmk  1001 4.0K Jun 11 20:23 cmk
    

    Das Verzeichnis backup habe ich angelegt. Danach konnte ich mit CheckMK ein Backup anlegen. Jo, aber wo liegen die Daten auf dem Host?

    Suche auf dem Host

    Beim Startaufruf, wird das hier übergeben.

    -v monitoring:/omd/sites
    

    In der Anleitung steht folgendes.

    Diese Option bindet die Daten der Instanz in diesem Container an eine persistente Stelle im Dateisystem des Docker-Node. Sie gehen daher nicht verloren, wenn der Container wieder entfernt wird.

    Ok. Hilft mir leider noch nicht so richtig. Weiter suchen....

    root@frank:/# docker volume inspect monitoring
    [
        {
            "CreatedAt": "2020-06-12T22:27:13+02:00",
            "Driver": "local",
            "Labels": null,
            "Mountpoint": "/var/lib/docker/volumes/monitoring/_data",
            "Name": "monitoring",
            "Options": null,
            "Scope": "local"
        }
    ]
    

    Und hier finden wir dann den Mountpoint!

    root@frank:/# ls -lha /var/lib/docker/volumes/monitoring/_data
    insgesamt 16K
    drwxr-xr-x 4 frank omd  4,0K Jun 12 22:27 .
    drwxr-xr-x 3 root  root 4,0K Jun 11 20:23 ..
    drwxr-xr-x 3 frank omd  4,0K Jun 12 22:30 backup
    drwxr-xr-x 8 frank omd  4,0K Jun 11 20:23 cmk
    

    Die Gruppe omd habe ich eingetragen, muss ich noch mal testen ob das überhaupt sein muss. Wird ergänzt.....

    Und dort liegen jetzt die persistenten Daten der Docker Installation.

    root@frank:/# ls -lha /var/lib/docker/volumes/monitoring/_data/backup/
    insgesamt 12K
    drwxr-xr-x 3 frank omd        4,0K Jun 12 22:30 .
    drwxr-xr-x 4 frank omd        4,0K Jun 12 22:27 ..
    drwxrwxr-x 2 frank messagebus 4,0K Jun 12 22:30 Check_MK-5exxxxx3438-cmk-backup-complete
    

    Und dieses Backup kann ich mir dann auf mein NAS schieben 🙂

  • Auf meinem jetzigen Ubuntu 20.04 hatte ich das Problem, das ich checkmk nach einem Neustart nicht aufrufen konnte. Kurz mal ein wenig umgeschaut und dann klingelte es 😉

    systemctl enable docker
    

    Der Dienst Docker lief nicht. Problem gelöst.

  • Sichern der Backup Daten aus der CheckMK Installation

    rsync -av /var/lib/docker/volumes/monitoring/_data/backup/ /media/NAS/Dokumente/Sicherungen/checkmk
    
  • Das hat so nicht geklappt 😞

    Dann mal schauen, wie man es noch machen könnte. Docker Container sichern.

    Sicherung

    root@frank-MS-7C37:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                 PORTS                              NAMES
    3ba19e0a9d12        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   14 hours ago        Up 2 hours (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    
    root@frank-MS-7C37:~# docker commit -p 3ba19e0a9d12 checkmk_backup
    sha256:f75be0ea3c256be98979577b880d77718394352ab2b1551343a0a1a3db6a44dc
    
    root@frank-MS-7C37:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                   PORTS                              NAMES
    3ba19e0a9d12        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   14 hours ago        Up 2 hours (unhealthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    
    root@frank-MS-7C37:~# docker image ls
    REPOSITORY             TAG                 IMAGE ID            CREATED             SIZE
    checkmk_backup         latest              f75be0ea3c25        11 seconds ago      832MB
    checkmk/check-mk-raw   1.6.0-latest        c3efcf4b5c6e        2 weeks ago         830MB
    
    root@frank-MS-7C37:~# docker save -o checkmk_backup.tar checkmk_backup
    

    Danach haben wir eine Sicherung des Docker Containers auf der Platte.

    root@frank-MS-7C37:~# ls -lha
    insgesamt 827M
    drwx------  8 root root 4,0K Aug  1 09:57 .
    drwxr-xr-x 23 root root 4,0K Jul 26 11:14 ..
    -rw-------  1 root root 826M Aug  1 09:57 checkmk_backup.tar
    

    Den können wir jetzt noch packen

    root@frank-MS-7C37:~# gzip checkmk_backup.tar 
    root@frank-MS-7C37:~# ls -lha
    insgesamt 307M
    drwx------  8 root root 4,0K Aug  1 09:58 .
    drwxr-xr-x 23 root root 4,0K Jul 26 11:14 ..
    -rw-------  1 root root 307M Aug  1 09:57 checkmk_backup.tar.gz
    

    Wiederherstellung

    Ungetestet im Moment, kommt noch 😉

    docker load -i checkmk_backup.tar
    

    Starten des Containers dann mit

    docker container run -dit -p 8080:5000 --ulimit nofile=1024 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v monitoring:/omd/sites --name monitoring -v /etc/localtime:/etc/localtime:ro --restart always checkmk_backup
    

    Quelle: https://www.laub-home.de/wiki/Docker_Backup_und_Restore_-_eine_kleine_Anleitung

  • Heute mal das Thema noch mal angefasst.

    Das Backup heute erstellt und ausprobiert. Läuft 😉

    root@:~# docker ps
    CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS                             PORTS                              NAMES
    a1ca31c7290b        checkmk_backup      "/docker-entrypoint.…"   31 seconds ago      Up 31 seconds (health: starting)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring3
    
  • Das ganze jetzt auch mal praktisch umsetzen, damit der Docker Container auch immer schön gesichert wird.

    #!/bin/sh
    # Script sichert den Docker Container von checkmk. Das Script funktioniert nur, da ich nur EINEN
    # Docker Container laufen habe!
    
    # Wir holen uns die Ausgabe von docker ps
    docker ps > ps.txt
    
    # Mich interessiert nur die 2. Zeile
    tail -n 1 ps.txt > ps_2.txt
    
    # Wir brauchen die ID und speichern diese zwischen
    ID="$(cut -d' ' -f1 ps_2.txt)"
    echo $ID
    
    # Docker Container sichern!
    # Damit wird eine Docker Kopie angelegt.
    docker commit -p $ID checkmk_backup
    
    # Hiermit sichern wir den Docker Container als .tar File im angegebenen Pfad.
    docker save -o /root/checkmk_Docker_Container/checkmk_backup.tar checkmk_backup
    
    # Den gesicherten Container aufs NAS schieben
    rsync -av /root/checkmk_Docker_Container/ /media/NAS/Dokumente/Sicherungen/checkmk_Docker_Container
    
  • Meine Dockersicherungen versagen immer kläglich, so bald sich die Versionen bei checkmk ändern. Da ich dieses checkmk aber unbedingt brauche, habe ich das mal als Cloud Server bei Hetzner getestet. Da bekam ich beim kleinsten Server, beim Anlegen eines Hostes sofort Speicherprobleme (2GB). Ok, seltsam.. Dann habe ich den Server auf 4GB hoch skaliert. Danach lief es.

    Aber, jetzt das Problem. Das hätte ca. 72€ im Jahr nur fürs Monitoring verbrannt. Das war es mir nicht wert, obwohl für das Hobby schon der ein oder andere Euro drauf geht 🙂

    Also, kommt wieder eine Dockerinstallation auf meine Haupt-PC. Der ist sowieso an und ich weiß das das gut funktioniert. Habe heute im Eingangspost ein paar Anpassungen vorgenommen, was einem halt so auffällt bei einer Neuinstallation.

    Danach die ganzen Hosts anlegen, das muss ja einfacher gehen. In der Firma der SysAdmin importiert die ja auch. Also mal die checkmk Dokumentation durchsucht und fündig geworden.

    Unter Punkt 6 findet man Import von CSV Dateien.

    Das Beispiel aus der Dokumentation

    hostname;ip address;alias;agent;snmp_ds
    lnx17.example.com;192.168.178.48;Webserver;cmk-agent;
    lnx18.exmpl.com;192.168.178.55;Backupserver;cmk-agent;
    switch47-11;;Switch47;no-agent;snmp-v2
    

    Das bekommen wir hin, alle meine Server eingetragen,

    bf1ddc6f-c726-4c20-8c9c-9156b732a0b6-grafik.png

    Fertig, noch ein wenig Feinarbeit danach an den Diensten und es lief wieder.

  • Und noch was Wichtiges.

    6777da6e-3b4f-41b9-bf6e-26496ae67cd8-grafik.png

    Damit sichert man den Datenaustausch ab.

    Kapitel 7.4. Inbuilt encryption

    Den Ordner findet man hier -> /etc/check_mk/encryption.cfg

  • FrankMF FrankM verschob dieses Thema von Linux am
  • FrankMF FrankM hat am auf dieses Thema verwiesen

  • Firefox 122 als .deb Paket

    Linux
    1
    0 Stimmen
    1 Beiträge
    124 Aufrufe
    Niemand hat geantwortet
  • Proxmox - Umzug auf neue Hardware ASRock N100DC-ITX

    Angeheftet Proxmox
    25
    0 Stimmen
    25 Beiträge
    4k Aufrufe
    FrankMF

    Hallo @wooshell , erst mal sehr schade das Du so einen Stress mit dem Board hast. Ich habe das jetzt schon Monate laufen, übrigens ohne einen Kühler. Ok, wird ordentlich warm aber ich hasse Lüfter 😉

    Ich kann leider nicht so richtig erkennen, wo dein Problem liegt. Wie groß ist dein Speicher? Ist der in der Liste der unterstützen RAM Riegel?

    Das habe ich verbaut.

    RAM: Corsair Vengeance SODIMM 32GB (2x16GB) DDR4 2400MHz CL16 https://www.corsair.com/de/de/Kategorien/Produkte/Arbeitsspeicher/VENGEANCE-DDR4-SODIMM/p/CMSX32GX4M2A2400C16

    Aus dem Bauch heraus, würde ich auf RAM tippen.

  • Star64 lieferbar

    Star64
    1
    0 Stimmen
    1 Beiträge
    62 Aufrufe
    Niemand hat geantwortet
  • NanoPi R4S - Armbian

    NanoPi R4S
    2
    0 Stimmen
    2 Beiträge
    335 Aufrufe
    FrankMF

    Müsste seit gestern so weit sein 🙂

    b20f93d2-1719-40c5-afb8-6b4edafa6793-image.png

  • NanoPi R2S - Firewall mit VLan und DHCP-Server

    Verschoben NanoPi R2S
    2
    0 Stimmen
    2 Beiträge
    750 Aufrufe
    FrankMF

    Nachdem ich die Tage feststellen musste, das irgendwas mit dem Gerät nicht stimmte, bekam keine DNS Auflösung über die Konsole, habe ich das heute mal eben neuinstalliert.

    Armbian ist ja immer was spezielles 🙂 Hat sich bis heute nix dran geändert.....

    Ok, dann heute mal eben ein neues Image erstellt. Download Gewählt habe ich das Armbian Buster.

    Image auf die SD-Karte, eingeloggt. Alles wie oben erstellt und abgespeichert. Neustart, geht wieder alles. 😍

    root@192.168.3.15's password: _ _ _ ____ ____ ____ | \ | | __ _ _ __ ___ _ __ (_) | _ \|___ \/ ___| | \| |/ _` | '_ \ / _ \| '_ \| | | |_) | __) \___ \ | |\ | (_| | | | | (_) | |_) | | | _ < / __/ ___) | |_| \_|\__,_|_| |_|\___/| .__/|_| |_| \_\_____|____/ |_| Welcome to Debian GNU/Linux 10 (buster) with Linux 5.9.11-rockchip64 System load: 2% Up time: 11 min Memory usage: 10% of 978M IP: 192.168.3.15 192.168.1.1 192.168.2.1 CPU temp: 61°C Usage of /: 5% of 29G Last login: Sun Dec 6 12:28:10 2020 from 192.168.3.213 Kernelversion root@nanopi-r2s:~# uname -a Linux nanopi-r2s 5.9.11-rockchip64 #20.11.1 SMP PREEMPT Fri Nov 27 21:59:08 CET 2020 aarch64 GNU/Linux ip a oot@nanopi-r2s:~# ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether b2:b5:10:38:9e:76 brd ff:ff:ff:ff:ff:ff inet 192.168.3.15/24 brd 192.168.3.255 scope global dynamic eth0 valid_lft 6360sec preferred_lft 6360sec inet6 2a02:908:xxxxxx/64 scope global dynamic mngtmpaddr valid_lft 7196sec preferred_lft 596sec inet6 fe80::b0b5:10ff:fe38:9e76/64 scope link valid_lft forever preferred_lft forever 3: lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff 4: lan0.100@lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff inet 192.168.1.1/24 brd 192.168.1.255 scope global lan0.100 valid_lft forever preferred_lft forever inet6 fe80::b0b5:10ff:fe38:9e96/64 scope link valid_lft forever preferred_lft forever 5: lan0.200@lan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000 link/ether b2:b5:10:38:9e:96 brd ff:ff:ff:ff:ff:ff inet 192.168.2.1/24 brd 192.168.2.255 scope global lan0.200 valid_lft forever preferred_lft forever inet6 fe80::b0b5:10ff:fe38:9e96/64 scope link valid_lft forever preferred_lft forever

    Vom Notebook aus funktioniert auch alles. So weit bin ich zufrieden. Jetzt mal langsam anfangen, der Kiste IPv6 beizubringen. Oje, nicht gerade mein Lieblingsthema...

    Bis der NanoPi R4S hier ankommt und ein vernünftiges Image hat, vergeht ja noch was Zeit...

  • Nextcloud - Upgrade auf 19.0.1

    Nextcloud
    1
    0 Stimmen
    1 Beiträge
    220 Aufrufe
    Niemand hat geantwortet
  • Restic - forget --keep-last 3 --prune

    Restic
    2
    0 Stimmen
    2 Beiträge
    586 Aufrufe
    FrankMF

    Ich habe mich damit noch ein wenig beschäftigt, die letzten drei zu behalten, ist nicht so optimal. Da es viele Optionen bei dem Befehl gibt, hier ein Ausschnitt

    Flags: -l, --keep-last n keep the last n snapshots -H, --keep-hourly n keep the last n hourly snapshots -d, --keep-daily n keep the last n daily snapshots -w, --keep-weekly n keep the last n weekly snapshots -m, --keep-monthly n keep the last n monthly snapshots -y, --keep-yearly n keep the last n yearly snapshots

    habe ich das ein wenig so angepasst, das ich denke es passt für mich.

    restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune

    Damit behalte ich auch die jeweils eines pro Monat. Und die letzten drei. Das sieht dann so aus.

    root@debian:~# ./backup2.sh repository 2f3f6147 opened successfully, password is correct Files: 38 new, 100 changed, 13268 unmodified Dirs: 0 new, 1 changed, 0 unmodified Added to the repo: 10.166 GiB processed 13406 files, 50.324 GiB in 3:24 snapshot 849f614c saved repository 2f3f6147 opened successfully, password is correct Applying Policy: keep the last 3 snapshots, 3 monthly snapshots snapshots for (host [debian], paths [/home/frank]): keep 5 snapshots: ID Time Host Tags Reasons Paths ------------------------------------------------------------------------------------ a7251cfd 2019-11-28 17:00:01 debian monthly snapshot /home/frank 283d4027 2019-12-31 17:00:01 debian monthly snapshot /home/frank ae2b96ec 2020-01-01 21:47:46 debian last snapshot /home/frank 079e00a6 2020-01-02 17:00:01 debian last snapshot /home/frank 849f614c 2020-01-03 21:08:45 debian last snapshot /home/frank monthly snapshot ------------------------------------------------------------------------------------ 5 snapshots remove 26 snapshots: ID Time Host Tags Paths ------------------------------------------------------------------ 896f16c2 2019-11-07 22:23:40 debian /home/frank b21bcf6d 2019-11-11 17:00:01 debian /home/frank f89248fb 2019-11-12 17:00:01 debian /home/frank 123ab546 2019-11-13 17:00:01 debian /home/frank b82d87d0 2019-11-18 17:00:01 debian /home/frank 040b0ab7 2019-11-19 17:00:01 debian /home/frank 7221d8ef 2019-11-20 17:00:01 debian /home/frank 84132a25 2019-11-21 17:00:01 debian /home/frank b558a52c 2019-11-25 17:00:01 debian /home/frank e5cc0c3e 2019-12-02 17:00:01 debian /home/frank 22423fa5 2019-12-03 17:00:01 debian /home/frank 39df1ab9 2019-12-04 17:00:01 debian /home/frank 98843457 2019-12-05 17:00:01 debian /home/frank b0cdd4b6 2019-12-09 17:00:01 debian /home/frank 828414f9 2019-12-10 17:00:01 debian /home/frank e34a27c3 2019-12-11 17:00:01 debian /home/frank 6e488c3b 2019-12-12 17:00:01 debian /home/frank 17898403 2019-12-16 17:00:01 debian /home/frank 1973305a 2019-12-17 17:00:01 debian /home/frank 9553bedd 2019-12-18 17:00:01 debian /home/frank fedf749d 2019-12-19 17:00:01 debian /home/frank 8e7cb876 2019-12-23 17:00:01 debian /home/frank 0bd0d102 2019-12-25 17:00:01 debian /home/frank 13d348b0 2019-12-26 17:00:01 debian /home/frank c7d960aa 2019-12-30 17:00:01 debian /home/frank f6ea9118 2020-01-01 17:00:01 debian /home/frank ------------------------------------------------------------------ 26 snapshots 26 snapshots have been removed, running prune counting files in repo building new index for repo [0:35] 100.00% 7806 / 7806 packs repository contains 7806 packs (46537 blobs) with 41.110 GiB processed 46537 blobs: 0 duplicate blobs, 0 B duplicate load all snapshots find data that is still in use for 5 snapshots [0:01] 100.00% 5 / 5 snapshots found 32654 of 46537 data blobs still in use, removing 13883 blobs will remove 0 invalid files will delete 715 packs and rewrite 752 packs, this frees 5.027 GiB [2:28] 100.00% 752 / 752 packs rewritten counting files in repo [0:01] 100.00% 6571 / 6571 packs finding old index files saved new indexes as [d137b425 f7caee99 a6e9711a] remove 35 old index files [1:13] 100.00% 1467 / 1467 packs deleted done using temporary cache in /tmp/restic-check-cache-916655151 repository 2f3f6147 opened successfully, password is correct created new cache in /tmp/restic-check-cache-916655151 create exclusive lock for repository load indexes check all packs check snapshots, trees and blobs read all data [7:47] 100.00% 6571 / 6571 items duration: 7:47 no errors were found root@debian:~#

    Am Ende seht ihr noch, wie Restic alle Files testet. Mein Script sieht jetzt so aus.

    #!/bin/bash # Script um mit Restic Daten automatisiert zu sichern! # Dient zum Sichern der Homepartition auf dem ROCKPro64 NAS! # Was soll gesichert werden? backup_pfad=/home/frank # Programm Start restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ backup $backup_pfad --exclude-file=excludes.txt restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune # Testen restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ check --read-data

    Das dann schön mit einem Cronjob laufen lassen und die Datensicherung ist erledigt 😉

  • NodeBB - Automatisch starten

    NodeBB
    1
    0 Stimmen
    1 Beiträge
    619 Aufrufe
    Niemand hat geantwortet