Skip to content

checkmk - Dockerinstallation

Verschoben checkmk
9 1 1.4k
  • Nachdem ich wieder ein wenig hier umgebaut habe, wollte ich eine checkmk Installation installieren. Aber wo? Ich habe hier eine pfSense, ok mit FreeBSD scheidet das als Installationsziel aus. Auf meinem ROCKPro64, mein neues NAS mit Debian Buster 10.1, scheiterte die Installation an nicht vorhandenem arm Pakete. Gut, das ich da noch über die Docker Installation gestolpert bin 🙂

    Da auf meinem Haupt-PC sowieso Docker installiert ist, bot sich das an es mal auszuprobieren.

    Die Anleitung zur Dockerinstallation findet man hier. https://checkmk.de/cms_introduction_docker.html

    Installation

    Docker

    apt install docker.io
    

    checkmk Container

    root@debian:~# docker container run -dit -p 8080:5000 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v monitoring:/omd/sites --name monitoring -v /etc/localtime:/etc/localtime:ro --restart always checkmk/check-mk-raw:2.0.0-latest
    Unable to find image 'checkmk/check-mk-raw:1.6.0-latest' locally
    1.6.0-latest: Pulling from checkmk/check-mk-raw
    8f91359f1fff: Pull complete 
    3d794619eec5: Pull complete 
    1468b0cb296b: Pull complete 
    787a36ef0a12: Pull complete 
    159fac9366a1: Pull complete 
    fefc9fe50b26: Pull complete 
    Digest: sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    Status: Downloaded newer image for checkmk/check-mk-raw:1.6.0-latest
    

    Nach der Installation müssen wir uns Logfile schauen, damit wir das Passwort bekommen.

    root@debian:~# docker container logs monitoring
    ### CREATING SITE 'cmk'
    Adding /opt/omd/sites/cmk/tmp to /etc/fstab.
    Going to set TMPFS to off.
    Created new site cmk with version 1.6.0p5.cre.
    
      The site can be started with omd start cmk.
      The default web UI is available at http://xxxxxxxxxx/cmk/
    
      The admin user for the web applications is cmkadmin with password: password
      (It can be changed with 'htpasswd -m ~/etc/htpasswd cmkadmin' as site user.
    )
      Please do a su - cmk for administration of this site.
    
    ### STARTING XINETD
    [ ok ] Starting internet superserver: xinetd.
    ### STARTING SITE
    Starting mkeventd...OK
    Starting rrdcached...OK
    Starting npcd...OK
    Starting nagios...OK
    Starting apache...OK
    Initializing Crontab...OK
    ### STARTING CRON
    ### CONTAINER STARTED
    

    Danach kann man den Container erreichen. Jetzt sollte man als erstes das generierte Passwort durch ein eigenes ersetzen. Dazu brauchen wird die ID des Containers

    root@frank-MS-7C37:~# docker ps
    CONTAINER ID   IMAGE                               COMMAND                  CREATED         STATUS                   PORTS                              NAMES
    b59475ab385b   checkmk/check-mk-raw:2.0.0-latest   "/docker-entrypoint.…"   3 minutes ago   Up 3 minutes (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    

    Jetzt einloggen

    root@frank-MS-7C37:~# docker exec -it b59475ab385b bash
    root@b59475ab385b:/# 
    

    Jetzt sind wir innerhalb des Docker Containers. Und nun das Passwort wechseln!!

    root@b59475ab385b:/# omd su cmk
    OMD[cmk]:~$ htpasswd etc/htpasswd cmkadmin
    New password: 
    Re-type new password: 
    Updating password for user cmkadmin
    

    Nun steht dem Einloggen nichts mehr im Wege.

    c76ff794-223f-452e-86ec-9f74459e1136-grafik.png

    Und hier nach dem Einloggen.

    7dd2a7a1-b89e-45cf-a228-e0645f55cbc0-grafik.png

    Sicherheit

    Bitte das hier unbedingt beachten. https://checkmk.de/cms_agent_linux.html#security

    Docker

    docker ps zeigt alle laufenden Docker Container an.

    root@debian:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                  PORTS                              NAMES
    Container-ID        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   25 hours ago        Up 25 hours (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    

    In die Kommandozeile des Containers wechseln.

    docker exec -it Container-ID bash
    

    Sicherheit der Agents

    Dazu bitte die Dokumentation beachten!

  • Ich hatte damals vergessen, die CheckMK Installation zu sichern. Jo, dann halt von vorne. Aber das ist bei den Dockerinstallationen für mich alles noch was neu 😉

    Backup erstellen

    24a87d1d-2951-4793-b60b-bf6d17d065f0-grafik.png

    Was muss in das Feld "Directory to save the backup to" rein!?!?!?

    Es hat etwas gedauert, bis es bei mir Klick gemacht hat. Wenn man sich in die Dockerinstallation einloggt

    docker exec -it Container-ID bash
    

    dann wird es etwas klarer. Wir bewegen uns ja in diesem Dateiverzeichnis.

    root@5e2e67e33438:/# ls -lha opt/omd/sites
    total 20K
    drwxr-xr-x 4 cmk  1001 4.0K Jun 12 22:27 .
    drwxr-xr-x 1 root root 4.0K Jun 10 18:52 ..
    drwxr-xr-x 3 cmk  1001 4.0K Jun 12 22:30 backup
    drwxr-xr-x 8 cmk  1001 4.0K Jun 11 20:23 cmk
    

    Das Verzeichnis backup habe ich angelegt. Danach konnte ich mit CheckMK ein Backup anlegen. Jo, aber wo liegen die Daten auf dem Host?

    Suche auf dem Host

    Beim Startaufruf, wird das hier übergeben.

    -v monitoring:/omd/sites
    

    In der Anleitung steht folgendes.

    Diese Option bindet die Daten der Instanz in diesem Container an eine persistente Stelle im Dateisystem des Docker-Node. Sie gehen daher nicht verloren, wenn der Container wieder entfernt wird.

    Ok. Hilft mir leider noch nicht so richtig. Weiter suchen....

    root@frank:/# docker volume inspect monitoring
    [
        {
            "CreatedAt": "2020-06-12T22:27:13+02:00",
            "Driver": "local",
            "Labels": null,
            "Mountpoint": "/var/lib/docker/volumes/monitoring/_data",
            "Name": "monitoring",
            "Options": null,
            "Scope": "local"
        }
    ]
    

    Und hier finden wir dann den Mountpoint!

    root@frank:/# ls -lha /var/lib/docker/volumes/monitoring/_data
    insgesamt 16K
    drwxr-xr-x 4 frank omd  4,0K Jun 12 22:27 .
    drwxr-xr-x 3 root  root 4,0K Jun 11 20:23 ..
    drwxr-xr-x 3 frank omd  4,0K Jun 12 22:30 backup
    drwxr-xr-x 8 frank omd  4,0K Jun 11 20:23 cmk
    

    Die Gruppe omd habe ich eingetragen, muss ich noch mal testen ob das überhaupt sein muss. Wird ergänzt.....

    Und dort liegen jetzt die persistenten Daten der Docker Installation.

    root@frank:/# ls -lha /var/lib/docker/volumes/monitoring/_data/backup/
    insgesamt 12K
    drwxr-xr-x 3 frank omd        4,0K Jun 12 22:30 .
    drwxr-xr-x 4 frank omd        4,0K Jun 12 22:27 ..
    drwxrwxr-x 2 frank messagebus 4,0K Jun 12 22:30 Check_MK-5exxxxx3438-cmk-backup-complete
    

    Und dieses Backup kann ich mir dann auf mein NAS schieben 🙂

  • Auf meinem jetzigen Ubuntu 20.04 hatte ich das Problem, das ich checkmk nach einem Neustart nicht aufrufen konnte. Kurz mal ein wenig umgeschaut und dann klingelte es 😉

    systemctl enable docker
    

    Der Dienst Docker lief nicht. Problem gelöst.

  • Sichern der Backup Daten aus der CheckMK Installation

    rsync -av /var/lib/docker/volumes/monitoring/_data/backup/ /media/NAS/Dokumente/Sicherungen/checkmk
    
  • Das hat so nicht geklappt 😞

    Dann mal schauen, wie man es noch machen könnte. Docker Container sichern.

    Sicherung

    root@frank-MS-7C37:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                 PORTS                              NAMES
    3ba19e0a9d12        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   14 hours ago        Up 2 hours (healthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    
    root@frank-MS-7C37:~# docker commit -p 3ba19e0a9d12 checkmk_backup
    sha256:f75be0ea3c256be98979577b880d77718394352ab2b1551343a0a1a3db6a44dc
    
    root@frank-MS-7C37:~# docker ps
    CONTAINER ID        IMAGE                               COMMAND                  CREATED             STATUS                   PORTS                              NAMES
    3ba19e0a9d12        checkmk/check-mk-raw:1.6.0-latest   "/docker-entrypoint.…"   14 hours ago        Up 2 hours (unhealthy)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring
    
    root@frank-MS-7C37:~# docker image ls
    REPOSITORY             TAG                 IMAGE ID            CREATED             SIZE
    checkmk_backup         latest              f75be0ea3c25        11 seconds ago      832MB
    checkmk/check-mk-raw   1.6.0-latest        c3efcf4b5c6e        2 weeks ago         830MB
    
    root@frank-MS-7C37:~# docker save -o checkmk_backup.tar checkmk_backup
    

    Danach haben wir eine Sicherung des Docker Containers auf der Platte.

    root@frank-MS-7C37:~# ls -lha
    insgesamt 827M
    drwx------  8 root root 4,0K Aug  1 09:57 .
    drwxr-xr-x 23 root root 4,0K Jul 26 11:14 ..
    -rw-------  1 root root 826M Aug  1 09:57 checkmk_backup.tar
    

    Den können wir jetzt noch packen

    root@frank-MS-7C37:~# gzip checkmk_backup.tar 
    root@frank-MS-7C37:~# ls -lha
    insgesamt 307M
    drwx------  8 root root 4,0K Aug  1 09:58 .
    drwxr-xr-x 23 root root 4,0K Jul 26 11:14 ..
    -rw-------  1 root root 307M Aug  1 09:57 checkmk_backup.tar.gz
    

    Wiederherstellung

    Ungetestet im Moment, kommt noch 😉

    docker load -i checkmk_backup.tar
    

    Starten des Containers dann mit

    docker container run -dit -p 8080:5000 --ulimit nofile=1024 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v monitoring:/omd/sites --name monitoring -v /etc/localtime:/etc/localtime:ro --restart always checkmk_backup
    

    Quelle: https://www.laub-home.de/wiki/Docker_Backup_und_Restore_-_eine_kleine_Anleitung

  • Heute mal das Thema noch mal angefasst.

    Das Backup heute erstellt und ausprobiert. Läuft 😉

    root@:~# docker ps
    CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS                             PORTS                              NAMES
    a1ca31c7290b        checkmk_backup      "/docker-entrypoint.…"   31 seconds ago      Up 31 seconds (health: starting)   6557/tcp, 0.0.0.0:8080->5000/tcp   monitoring3
    
  • Das ganze jetzt auch mal praktisch umsetzen, damit der Docker Container auch immer schön gesichert wird.

    #!/bin/sh
    # Script sichert den Docker Container von checkmk. Das Script funktioniert nur, da ich nur EINEN
    # Docker Container laufen habe!
    
    # Wir holen uns die Ausgabe von docker ps
    docker ps > ps.txt
    
    # Mich interessiert nur die 2. Zeile
    tail -n 1 ps.txt > ps_2.txt
    
    # Wir brauchen die ID und speichern diese zwischen
    ID="$(cut -d' ' -f1 ps_2.txt)"
    echo $ID
    
    # Docker Container sichern!
    # Damit wird eine Docker Kopie angelegt.
    docker commit -p $ID checkmk_backup
    
    # Hiermit sichern wir den Docker Container als .tar File im angegebenen Pfad.
    docker save -o /root/checkmk_Docker_Container/checkmk_backup.tar checkmk_backup
    
    # Den gesicherten Container aufs NAS schieben
    rsync -av /root/checkmk_Docker_Container/ /media/NAS/Dokumente/Sicherungen/checkmk_Docker_Container
    
  • Meine Dockersicherungen versagen immer kläglich, so bald sich die Versionen bei checkmk ändern. Da ich dieses checkmk aber unbedingt brauche, habe ich das mal als Cloud Server bei Hetzner getestet. Da bekam ich beim kleinsten Server, beim Anlegen eines Hostes sofort Speicherprobleme (2GB). Ok, seltsam.. Dann habe ich den Server auf 4GB hoch skaliert. Danach lief es.

    Aber, jetzt das Problem. Das hätte ca. 72€ im Jahr nur fürs Monitoring verbrannt. Das war es mir nicht wert, obwohl für das Hobby schon der ein oder andere Euro drauf geht 🙂

    Also, kommt wieder eine Dockerinstallation auf meine Haupt-PC. Der ist sowieso an und ich weiß das das gut funktioniert. Habe heute im Eingangspost ein paar Anpassungen vorgenommen, was einem halt so auffällt bei einer Neuinstallation.

    Danach die ganzen Hosts anlegen, das muss ja einfacher gehen. In der Firma der SysAdmin importiert die ja auch. Also mal die checkmk Dokumentation durchsucht und fündig geworden.

    Unter Punkt 6 findet man Import von CSV Dateien.

    Das Beispiel aus der Dokumentation

    hostname;ip address;alias;agent;snmp_ds
    lnx17.example.com;192.168.178.48;Webserver;cmk-agent;
    lnx18.exmpl.com;192.168.178.55;Backupserver;cmk-agent;
    switch47-11;;Switch47;no-agent;snmp-v2
    

    Das bekommen wir hin, alle meine Server eingetragen,

    bf1ddc6f-c726-4c20-8c9c-9156b732a0b6-grafik.png

    Fertig, noch ein wenig Feinarbeit danach an den Diensten und es lief wieder.

  • Und noch was Wichtiges.

    6777da6e-3b4f-41b9-bf6e-26496ae67cd8-grafik.png

    Damit sichert man den Datenaustausch ab.

    Kapitel 7.4. Inbuilt encryption

    Den Ordner findet man hier -> /etc/check_mk/encryption.cfg

  • FrankMF FrankM verschob dieses Thema von Linux am
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • Debian Bookworm 12.10 released

    Linux debian linux bookworm
    3
    0 Stimmen
    3 Beiträge
    309 Aufrufe
    FrankMF
    @MikDD Ich kann das Verhalten von Die bei mir nicht erkennen. Habe ein NAS, welches ich mit einem SystemD Dienst einfach einbinde. [Unit] Description=Mount NFS Share from 192.168.3.19:/NAS After=network-online.target Wants=network-online.target [Mount] What=192.168.3.19:/NAS Where=/mnt/NAS Type=nfs Options=defaults,timeo=900 [Install] WantedBy=multi-user.target Dann habe ich das in meinem Dateibrowser drin, suche meinen Videoordner und starte das Video. Einen kleinen Moment später startet das Video. Die Verzögerung wird die Zeitspanne sein, die benötigt wird einen Cache zu füllen. Wäre ja auch blöd, wenn man erst den ganzen Film runter laden muss. Hier, in meinem Forum, sollte man genug Informationen dazu finden. Wenn es irgendwo hakt oder klappt, stelle bitte eine Frage. Achso, Willkommen im Forum
  • Manjaro - KDE Plasma 6

    Linux manjaro linux plasma6 kde
    3
    3
    0 Stimmen
    3 Beiträge
    859 Aufrufe
    FrankMF
    Da fällt mir heute beim Lesen dieses Beitrages auf das ich damals ja auf unstable gestellt habe. [frank-manjaro ~]# pacman-mirrors --get-branch unstable Anleitung dazu -> https://wiki.manjaro.org/index.php/Switching_Branches Ok, da könnte ja auch mal was schief gehen? Da ich hier aber ein btrfs Filesystem fahre und Timeshift Snapshots anlegt, sollte das Risiko überschaubar sein. [image: 1714893983029-567442e5-80f0-4ce9-9b91-3e8f9a4a94d8-grafik.png] Es werden bei jeder Aktion vorher Snapshots angelegt, auf die man im Grub Menü zugreifen kann und diese wieder installieren lassen kann. Hatte das früher schon mal getestet, ging wirklich gut. Werde ich die Tage auch hier auf dem System, zur Sicherheit, mal testen. Fazit, ich lasse das mal so wie es ist
  • Star64 - Warnung

    Angeheftet Star64 star64 risc-v linux
    1
    0 Stimmen
    1 Beiträge
    109 Aufrufe
    Niemand hat geantwortet
  • Konsolentext in Englisch

    Linux linux
    1
    0 Stimmen
    1 Beiträge
    75 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux zfs linux
    3
    0 Stimmen
    3 Beiträge
    887 Aufrufe
    FrankMF
    Heute mal drüber gestolpert, das es auch so was geben kann. root@pve2:~# zpool status pool: pool_NAS state: ONLINE status: Some supported and requested features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(7) for details. scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Was machen? Als erstes mal ein Backup angestoßen. Danach root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr disabled local pool_NAS feature@head_errlog disabled local pool_NAS feature@blake3 disabled local pool_NAS feature@block_cloning disabled local pool_NAS feature@vdev_zaps_v2 disabled local Das kommt von neuen Funktionen, die zu ZFS hinzugefügt wurden und bei Erstellung des Pools nicht vorhanden waren. Dann upgraden wir mal root@pve2:~# zpool upgrade pool_NAS This system supports ZFS pool feature flags. Enabled the following features on 'pool_NAS': zilsaxattr head_errlog blake3 block_cloning vdev_zaps_v2 Kontrolle root@pve2:~# zpool status pool: pool_NAS state: ONLINE scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Features kontrollieren root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr enabled local pool_NAS feature@head_errlog active local pool_NAS feature@blake3 enabled local pool_NAS feature@block_cloning enabled local pool_NAS feature@vdev_zaps_v2 enabled local So, alle neuen Features aktiviert. Jetzt kann der Pool weiterhin seine Arbeit machen.
  • Node.js - Security Update

    Linux nodejs linux
    1
    0 Stimmen
    1 Beiträge
    242 Aufrufe
    Niemand hat geantwortet
  • Debian 11 Bullseye released!

    Linux debian linux
    4
    0 Stimmen
    4 Beiträge
    371 Aufrufe
    FrankMF
    Mein Systemadmin auf der Arbeit meinte heute, angesprochen auf das Problem, läuft der Network-Manager? Ok, gute Frage...... Schauen wir mal. Ich bin mir leider nicht 100% sicher, ob er vor meinem Eingreifen lief, ich denke aber schon. Warum ich unsicher bin? root@debian:~# systemctl enable systemd-networkd.service Created symlink /etc/systemd/system/dbus-org.freedesktop.network1.service → /lib/systemd/system/systemd-networkd.service. Created symlink /etc/systemd/system/multi-user.target.wants/systemd-networkd.service → /lib/systemd/system/systemd-networkd.service. Created symlink /etc/systemd/system/sockets.target.wants/systemd-networkd.socket → /lib/systemd/system/systemd-networkd.socket. Created symlink /etc/systemd/system/network-online.target.wants/systemd-networkd-wait-online.service → /lib/systemd/system/systemd-networkd-wait-online.service. Ok, danach root@debian:~# systemctl start systemd-networkd.service root@debian:~# systemctl status systemd-networkd.service ● systemd-networkd.service - Network Service Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled; ven> Active: active (running) since Tue 2021-08-17 17:36:38 CEST; 6s ago TriggeredBy: ● systemd-networkd.socket Docs: man:systemd-networkd.service(8) Main PID: 1288 (systemd-network) Status: "Processing requests..." Tasks: 1 (limit: 19087) Memory: 3.9M CPU: 39ms CGroup: /system.slice/systemd-networkd.service └─1288 /lib/systemd/systemd-networkd Aug 17 17:36:38 debian systemd[1]: Starting Network Service... Aug 17 17:36:38 debian systemd-networkd[1288]: enp25s0: Gained IPv6LL Aug 17 17:36:38 debian systemd-networkd[1288]: Enumeration completed Aug 17 17:36:38 debian systemd[1]: Started Network Service. Danach ging immer noch nix. root@debian:/etc/network# ^C root@debian:/etc/network# nmcli device show GENERAL.DEVICE: wlx7cdd907cbec2 GENERAL.TYPE: wifi GENERAL.HWADDR: BA:59:C0:76:C7:F5 GENERAL.MTU: 1500 GENERAL.STATE: 20 (nicht verfügbar) GENERAL.CONNECTION: -- GENERAL.CON-PATH: -- GENERAL.DEVICE: enp25s0 GENERAL.TYPE: ethernet GENERAL.HWADDR: 30:9C:23:60:C6:8E GENERAL.MTU: 1500 GENERAL.STATE: 10 (nicht verwaltet) GENERAL.CONNECTION: -- GENERAL.CON-PATH: -- WIRED-PROPERTIES.CARRIER: an IP4.ADDRESS[1]: 192.168.3.169/24 IP4.GATEWAY: 192.168.3.1 IP4.ROUTE[1]: dst = 192.168.3.0/24, nh = 0.0.0.0, mt = 0 IP4.ROUTE[2]: dst = 0.0.0.0/0, nh = 192.168.3.1, mt = 0 IP6.ADDRESS[1]: 2a02:908:1260:13bc:329c:23ff:xxxx:xxxx/64 IP6.ADDRESS[2]: fd8a:6ff:2880:0:329c:23ff:fe60:c68e/64 IP6.ADDRESS[3]: fe80::329c:23ff:fe60:c68e/64 IP6.GATEWAY: fe80::e4d3:f0ff:fe8f:2354 IP6.ROUTE[1]: dst = fe80::/64, nh = ::, mt = 256 IP6.ROUTE[2]: dst = ::/0, nh = fe80::e4d3:f0ff:fe8f:2354, mt = 1024 IP6.ROUTE[3]: dst = 2a02:908:xxxx:xxxx::/64, nh = ::, mt = 256 IP6.ROUTE[4]: dst = fd8a:6ff:2880::/64, nh = ::, mt = 256 Jetzt hatte ich das erste Mal einen Ansatz, wonach ich suchen musste. GENERAL.STATE: 10 (nicht verwaltet) Etwas Suche im Netz und dann das nano /etc/NetworkManager/NetworkManager.conf Inhalt der Datei [main] plugins=ifupdown,keyfile [ifupdown] managed=false Das false in true geändert. Danach ein systemctl restart NetworkManager und ich konnte den Network-Manager auf dem Desktop benutzen!?!?!? [image: 1629216580219-bildschirmfoto-vom-2021-08-17-18-07-25.png] Irgendwas ist da durcheinander im Bullseye
  • Ubuntu 20.04 Focal - Einrichtung

    Linux ubuntu linux
    16
    5
    0 Stimmen
    16 Beiträge
    2k Aufrufe
    FrankMF
    @reiner-zufall sagte in Ubuntu 20.04 Focal - Einrichtung: auto-save-session Interessant. Bitte poste, wenn Du was findest.