Skip to content

Debian 11 Bullseye released!

Linux
4 1 377
  • Heute wird Debian 11 Bullseye released. Man konnte den ganzen Tag mitlesen wie das so läuft. Und dort kamen auch ein paar Info's was so alles neu ist.

    • neues ipp-usb Paket für treiberloses Drucken über USB
    • neuer "Open" Befehl der weiß was er mit dem File machen soll (ich bin gespannt..)
    • nächster Testzweig heißt "Bookworm"
    • "systemd persistent journal" ist aktiv, es läuft neben dem normalen logging.
    • treiberloses scannen mit "sane-airscan"
    • erster Kernel mit exFAT Filesystem

    Releasing Debian 11 doesn't mean Debian 10 "buster" is abandoned. Debian supports the previous version for at least twelve months following a new release, before it moves to the LTS and eLTS teams for further maintenance #ReleasingDebianBullseye

    Jetzt warten wir nur noch auf die Images 🙂

  • Bildschirmfoto vom 2021-08-14 20-28-16.png

    Mein Notebook am aktualisieren. Der Vorgang ist ein wenig zickig, aber es funktioniert 😉

  • Auf meinem Zweit-PC mit dem Debian Netinstaller installiert. Nach dem Neustart die Grafiktreiber installiert (NVidia) und es lief. Als Desktop ist Cinnamon installiert. Dort fällt mir dann auf, das der Networkmanager keine Verbindung anzeigt.

    Ok, für den USB WiFi Stick sind keine Treiber installiert, das ist klar. Aber auch keine LAN Verbindung, obwohl sie steht.

    root@debian:~# ping 8.8.8.8
    PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
    64 bytes from 8.8.8.8: icmp_seq=1 ttl=117 time=15.2 ms
    64 bytes from 8.8.8.8: icmp_seq=2 ttl=117 time=13.5 ms
    ^C
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 13.546/14.356/15.167/0.810 ms
    root@debian:~# ping www.google.de
    PING www.google.de(fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003)) 56 data bytes
    64 bytes from fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003): icmp_seq=1 ttl=118 time=15.2 ms
    64 bytes from fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003): icmp_seq=2 ttl=118 time=13.3 ms
    ^C
    --- www.google.de ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 13.288/14.261/15.234/0.973 ms
    

    Gut, mal nachdenken...

  • Mein Systemadmin auf der Arbeit meinte heute, angesprochen auf das Problem, läuft der Network-Manager? Ok, gute Frage...... Schauen wir mal.

    Ich bin mir leider nicht 100% sicher, ob er vor meinem Eingreifen lief, ich denke aber schon. Warum ich unsicher bin?

    root@debian:~# systemctl enable systemd-networkd.service
    Created symlink /etc/systemd/system/dbus-org.freedesktop.network1.service → /lib/systemd/system/systemd-networkd.service.
    Created symlink /etc/systemd/system/multi-user.target.wants/systemd-networkd.service → /lib/systemd/system/systemd-networkd.service.
    Created symlink /etc/systemd/system/sockets.target.wants/systemd-networkd.socket → /lib/systemd/system/systemd-networkd.socket.
    Created symlink /etc/systemd/system/network-online.target.wants/systemd-networkd-wait-online.service → /lib/systemd/system/systemd-networkd-wait-online.service.
    

    Ok, danach

    root@debian:~# systemctl start systemd-networkd.service
    root@debian:~# systemctl status systemd-networkd.service
    ● systemd-networkd.service - Network Service
         Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled; ven>
         Active: active (running) since Tue 2021-08-17 17:36:38 CEST; 6s ago
    TriggeredBy: ● systemd-networkd.socket
           Docs: man:systemd-networkd.service(8)
       Main PID: 1288 (systemd-network)
         Status: "Processing requests..."
          Tasks: 1 (limit: 19087)
         Memory: 3.9M
            CPU: 39ms
         CGroup: /system.slice/systemd-networkd.service
                 └─1288 /lib/systemd/systemd-networkd
    
    Aug 17 17:36:38 debian systemd[1]: Starting Network Service...
    Aug 17 17:36:38 debian systemd-networkd[1288]: enp25s0: Gained IPv6LL
    Aug 17 17:36:38 debian systemd-networkd[1288]: Enumeration completed
    Aug 17 17:36:38 debian systemd[1]: Started Network Service.
    

    Danach ging immer noch nix.

    root@debian:/etc/network# ^C
    root@debian:/etc/network# nmcli device show
    GENERAL.DEVICE:                         wlx7cdd907cbec2
    GENERAL.TYPE:                           wifi
    GENERAL.HWADDR:                         BA:59:C0:76:C7:F5
    GENERAL.MTU:                            1500
    GENERAL.STATE:                          20 (nicht verfügbar)
    GENERAL.CONNECTION:                     --
    GENERAL.CON-PATH:                       --
    
    GENERAL.DEVICE:                         enp25s0
    GENERAL.TYPE:                           ethernet
    GENERAL.HWADDR:                         30:9C:23:60:C6:8E
    GENERAL.MTU:                            1500
    GENERAL.STATE:                          10 (nicht verwaltet)
    GENERAL.CONNECTION:                     --
    GENERAL.CON-PATH:                       --
    WIRED-PROPERTIES.CARRIER:               an
    IP4.ADDRESS[1]:                         192.168.3.169/24
    IP4.GATEWAY:                            192.168.3.1
    IP4.ROUTE[1]:                           dst = 192.168.3.0/24, nh = 0.0.0.0, mt = 0
    IP4.ROUTE[2]:                           dst = 0.0.0.0/0, nh = 192.168.3.1, mt = 0
    IP6.ADDRESS[1]:                         2a02:908:1260:13bc:329c:23ff:xxxx:xxxx/64
    IP6.ADDRESS[2]:                         fd8a:6ff:2880:0:329c:23ff:fe60:c68e/64
    IP6.ADDRESS[3]:                         fe80::329c:23ff:fe60:c68e/64
    IP6.GATEWAY:                            fe80::e4d3:f0ff:fe8f:2354
    IP6.ROUTE[1]:                           dst = fe80::/64, nh = ::, mt = 256
    IP6.ROUTE[2]:                           dst = ::/0, nh = fe80::e4d3:f0ff:fe8f:2354, mt = 1024
    IP6.ROUTE[3]:                           dst = 2a02:908:xxxx:xxxx::/64, nh = ::, mt = 256
    IP6.ROUTE[4]:                           dst = fd8a:6ff:2880::/64, nh = ::, mt = 256
    

    Jetzt hatte ich das erste Mal einen Ansatz, wonach ich suchen musste.

        GENERAL.STATE:                          10 (nicht verwaltet)
    

    Etwas Suche im Netz und dann das

    nano /etc/NetworkManager/NetworkManager.conf
    

    Inhalt der Datei

    [main]
    plugins=ifupdown,keyfile
    
    [ifupdown]
    managed=false
    

    Das false in true geändert. Danach ein

    systemctl restart NetworkManager
    

    und ich konnte den Network-Manager auf dem Desktop benutzen!?!?!?

    Bildschirmfoto vom 2021-08-17 18-07-25.png

    Irgendwas ist da durcheinander im Bullseye 😳

  • Debian Bug auf Arm64

    Linux linux arm64
    1
    0 Stimmen
    1 Beiträge
    187 Aufrufe
    Niemand hat geantwortet
  • Restic v0.17.2 released

    Restic restic linux
    1
    0 Stimmen
    1 Beiträge
    163 Aufrufe
    Niemand hat geantwortet
  • Crowdsec - Ein fail2ban Ersatz?

    Linux crowdsec linux fail2ban
    2
    1
    0 Stimmen
    2 Beiträge
    980 Aufrufe
    FrankMF
    Ich kann jetzt hier von meiner ersten Erfahrung berichten und wie CrowdSec mich gebannt hat Was war passiert? Ich war gestern sehr intensiv mit der Konfiguration von Nextcloud <-> Collabora Online beschäftigt. Nachdem ich irgendwie nicht weiterkam habe ich mich der Erstellung eines Dokumentes gewidmet. Nach einiger Zeit war die Nextcloud nicht mehr erreichbar. Ok, hatte ich bei der Konfiguration auch schon mal, den Server einmal neugestartet und fertig. Doch jetzt kam es, Server neugestartet - hilft nicht. Gut, schauen wir mal nach, Der SSH Login ging auch nicht Jetzt war guter Rat gefragt. Zu diesem Zeitpunkt ging ich noch davon aus, das auf diesem Server kein CrowdSec installiert war, sondern fail2ban. Und fail2ban hatte eine sehr kurze Bantime vom 10M. Also blieb wohl nur noch das Rescue System von Hetzner. [image: 1694411392066-488866bc-3dcf-4abc-9e98-6107d65aa4c7-grafik.png] Da hatte ich ja so gut wie gar keine Erfahrung mit. Also mal kurz den Nico angetriggert und es kam folgender Link. https://docs.hetzner.com/de/robot/dedicated-server/troubleshooting/hetzner-rescue-system/ Das Laufwerk war schnell bestimmt und schnell nach /tmp gemountet. Danach musste man sich noch mit chroot in diese Umgebung anmelden. chroot-prepare /mnt chroot /mnt Nachdem das klappte, habe ich eben fail2ban disabled. sysmctl disable fail2ban Danach das Rescue beendet. Der Server startete wieder und ich kam wieder per SSH drauf. Puuh. Bei meiner ersten Kontrolle fiel mir was auf root@:~# pstree systemd─┬─2*[agetty] ├─atd ├─cron ├─crowdsec─┬─journalctl │ └─8*[{crowdsec}] ├─crowdsec-firewa───9*[{crowdsec-firewa}] Wie? Da läuft CrowdSec? Da ich dabei bin die Server auf CrowdSec umzustellen, war das wohl hier schon gemacht, aber leider nicht vernünftig. fail2ban hätte mindestens disabled werden müssen und in meiner Dokumentation war das auch nicht enthalten. 6 setzen! CrowdSec besteht ja aus zwei Diensten, CrowdSec und dem Firewall-Bouncer. Der CrowdSec Dienst lief aber nicht, der war irgendwie failed. Ok, starten wir ihn und schauen was passiert. Nachdem er gestarte war mal die Banliste angeschaut. cscli decisions list ergab diesen Eintrag. 2551501 │ crowdsec │ Ip:5.146.xxx.xxx │ crowdsecurity/http-crawl-non_statics │ ban │ │ │ 53 │ 1h5m55.391864693s │ 1671 Meine IP war gebannt. Dann wissen wir ja , woher die Probleme kamen. cscli decisions delete --id 2551501 Nach Eingabe war der Ban entfernt. Na gut, aber da ich aktuell immer noch an der richtigen Konfiguration von NC <-> CODE bastel, könnte das ja wieder passieren. Was machen? Kurz gegoogelt. Es gibt eine Whitelist. Aha! /etc/crowdsec/parsers/s02-enrich/whitelists.yaml name: crowdsecurity/whitelists description: "Whitelist events from private ipv4 addresses" whitelist: reason: "private ipv4/ipv6 ip/ranges" ip: - "127.0.0.1" - "::1" - "5.146.XXX.XXX" cidr: - "192.168.0.0/16" - "10.0.0.0/8" - "172.16.0.0/12" # expression: # - "'foo.com' in evt.Meta.source_ip.reverse" Danach den Dienst neustarten. Jetzt hoffen wir mal, das es hilft. Zum Schluss noch was, was mir aufgefallen war und was mich auch sehr verwirrt hatte. CrowdSec hatte wegen einem crowdsecurity/http-crawl-non_statics gebannt. Dadurch konnte ich meine subdomain.<DOMAIN> nicht erreichen. Ok, logisch, wenn der Ban von da ausgeht. Ich konnte aber gleichzeitig eine andere subdomain mit derselben <DOMAIN> auch nicht erreichen. Komplett verwirrte es mich dann, als ich eine andere <DOMAIN> auf dem selben Server erreichen konnte. Und zum Schluss ging auch der SSH nicht. Also, wieder viel gelernt..
  • Ansible - Hetzner Server erstellen

    Verschoben Ansible ansible linux hcloud
    1
    3
    0 Stimmen
    1 Beiträge
    344 Aufrufe
    Niemand hat geantwortet
  • Rest-Server Version 0.12.1 released

    Linux rest-server restic linux
    1
    0 Stimmen
    1 Beiträge
    136 Aufrufe
    Niemand hat geantwortet
  • NodeBB - Upgrade v1.19.2

    NodeBB nodebb linux
    2
    1
    0 Stimmen
    2 Beiträge
    219 Aufrufe
    FrankMF
    Es gab da noch ein lästiges Problem -> https://github.com/NodeBB/nodebb-plugin-emoji/issues/52 npm install nodebb-plugin-emoji@3.5.13 Die Version v3.5.13 behebt das Problem.
  • Kopia - Aufbau und Funktionsweise

    Kopia kopia linux
    1
    3
    0 Stimmen
    1 Beiträge
    1k Aufrufe
    Niemand hat geantwortet
  • Restic - forget --keep-last 3 --prune

    Restic linux restic
    2
    0 Stimmen
    2 Beiträge
    676 Aufrufe
    FrankMF
    Ich habe mich damit noch ein wenig beschäftigt, die letzten drei zu behalten, ist nicht so optimal. Da es viele Optionen bei dem Befehl gibt, hier ein Ausschnitt Flags: -l, --keep-last n keep the last n snapshots -H, --keep-hourly n keep the last n hourly snapshots -d, --keep-daily n keep the last n daily snapshots -w, --keep-weekly n keep the last n weekly snapshots -m, --keep-monthly n keep the last n monthly snapshots -y, --keep-yearly n keep the last n yearly snapshots habe ich das ein wenig so angepasst, das ich denke es passt für mich. restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune Damit behalte ich auch die jeweils eines pro Monat. Und die letzten drei. Das sieht dann so aus. root@debian:~# ./backup2.sh repository 2f3f6147 opened successfully, password is correct Files: 38 new, 100 changed, 13268 unmodified Dirs: 0 new, 1 changed, 0 unmodified Added to the repo: 10.166 GiB processed 13406 files, 50.324 GiB in 3:24 snapshot 849f614c saved repository 2f3f6147 opened successfully, password is correct Applying Policy: keep the last 3 snapshots, 3 monthly snapshots snapshots for (host [debian], paths [/home/frank]): keep 5 snapshots: ID Time Host Tags Reasons Paths ------------------------------------------------------------------------------------ a7251cfd 2019-11-28 17:00:01 debian monthly snapshot /home/frank 283d4027 2019-12-31 17:00:01 debian monthly snapshot /home/frank ae2b96ec 2020-01-01 21:47:46 debian last snapshot /home/frank 079e00a6 2020-01-02 17:00:01 debian last snapshot /home/frank 849f614c 2020-01-03 21:08:45 debian last snapshot /home/frank monthly snapshot ------------------------------------------------------------------------------------ 5 snapshots remove 26 snapshots: ID Time Host Tags Paths ------------------------------------------------------------------ 896f16c2 2019-11-07 22:23:40 debian /home/frank b21bcf6d 2019-11-11 17:00:01 debian /home/frank f89248fb 2019-11-12 17:00:01 debian /home/frank 123ab546 2019-11-13 17:00:01 debian /home/frank b82d87d0 2019-11-18 17:00:01 debian /home/frank 040b0ab7 2019-11-19 17:00:01 debian /home/frank 7221d8ef 2019-11-20 17:00:01 debian /home/frank 84132a25 2019-11-21 17:00:01 debian /home/frank b558a52c 2019-11-25 17:00:01 debian /home/frank e5cc0c3e 2019-12-02 17:00:01 debian /home/frank 22423fa5 2019-12-03 17:00:01 debian /home/frank 39df1ab9 2019-12-04 17:00:01 debian /home/frank 98843457 2019-12-05 17:00:01 debian /home/frank b0cdd4b6 2019-12-09 17:00:01 debian /home/frank 828414f9 2019-12-10 17:00:01 debian /home/frank e34a27c3 2019-12-11 17:00:01 debian /home/frank 6e488c3b 2019-12-12 17:00:01 debian /home/frank 17898403 2019-12-16 17:00:01 debian /home/frank 1973305a 2019-12-17 17:00:01 debian /home/frank 9553bedd 2019-12-18 17:00:01 debian /home/frank fedf749d 2019-12-19 17:00:01 debian /home/frank 8e7cb876 2019-12-23 17:00:01 debian /home/frank 0bd0d102 2019-12-25 17:00:01 debian /home/frank 13d348b0 2019-12-26 17:00:01 debian /home/frank c7d960aa 2019-12-30 17:00:01 debian /home/frank f6ea9118 2020-01-01 17:00:01 debian /home/frank ------------------------------------------------------------------ 26 snapshots 26 snapshots have been removed, running prune counting files in repo building new index for repo [0:35] 100.00% 7806 / 7806 packs repository contains 7806 packs (46537 blobs) with 41.110 GiB processed 46537 blobs: 0 duplicate blobs, 0 B duplicate load all snapshots find data that is still in use for 5 snapshots [0:01] 100.00% 5 / 5 snapshots found 32654 of 46537 data blobs still in use, removing 13883 blobs will remove 0 invalid files will delete 715 packs and rewrite 752 packs, this frees 5.027 GiB [2:28] 100.00% 752 / 752 packs rewritten counting files in repo [0:01] 100.00% 6571 / 6571 packs finding old index files saved new indexes as [d137b425 f7caee99 a6e9711a] remove 35 old index files [1:13] 100.00% 1467 / 1467 packs deleted done using temporary cache in /tmp/restic-check-cache-916655151 repository 2f3f6147 opened successfully, password is correct created new cache in /tmp/restic-check-cache-916655151 create exclusive lock for repository load indexes check all packs check snapshots, trees and blobs read all data [7:47] 100.00% 6571 / 6571 items duration: 7:47 no errors were found root@debian:~# Am Ende seht ihr noch, wie Restic alle Files testet. Mein Script sieht jetzt so aus. #!/bin/bash # Script um mit Restic Daten automatisiert zu sichern! # Dient zum Sichern der Homepartition auf dem ROCKPro64 NAS! # Was soll gesichert werden? backup_pfad=/home/frank # Programm Start restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ backup $backup_pfad --exclude-file=excludes.txt restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune # Testen restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ check --read-data Das dann schön mit einem Cronjob laufen lassen und die Datensicherung ist erledigt