Skip to content

Debian 11 Bullseye released!

Linux
  • Heute wird Debian 11 Bullseye released. Man konnte den ganzen Tag mitlesen wie das so läuft. Und dort kamen auch ein paar Info's was so alles neu ist.

    • neues ipp-usb Paket für treiberloses Drucken über USB
    • neuer "Open" Befehl der weiß was er mit dem File machen soll (ich bin gespannt..)
    • nächster Testzweig heißt "Bookworm"
    • "systemd persistent journal" ist aktiv, es läuft neben dem normalen logging.
    • treiberloses scannen mit "sane-airscan"
    • erster Kernel mit exFAT Filesystem

    Releasing Debian 11 doesn't mean Debian 10 "buster" is abandoned. Debian supports the previous version for at least twelve months following a new release, before it moves to the LTS and eLTS teams for further maintenance #ReleasingDebianBullseye

    Jetzt warten wir nur noch auf die Images 🙂

  • Bildschirmfoto vom 2021-08-14 20-28-16.png

    Mein Notebook am aktualisieren. Der Vorgang ist ein wenig zickig, aber es funktioniert 😉

  • Auf meinem Zweit-PC mit dem Debian Netinstaller installiert. Nach dem Neustart die Grafiktreiber installiert (NVidia) und es lief. Als Desktop ist Cinnamon installiert. Dort fällt mir dann auf, das der Networkmanager keine Verbindung anzeigt.

    Ok, für den USB WiFi Stick sind keine Treiber installiert, das ist klar. Aber auch keine LAN Verbindung, obwohl sie steht.

    root@debian:~# ping 8.8.8.8
    PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
    64 bytes from 8.8.8.8: icmp_seq=1 ttl=117 time=15.2 ms
    64 bytes from 8.8.8.8: icmp_seq=2 ttl=117 time=13.5 ms
    ^C
    --- 8.8.8.8 ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 13.546/14.356/15.167/0.810 ms
    root@debian:~# ping www.google.de
    PING www.google.de(fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003)) 56 data bytes
    64 bytes from fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003): icmp_seq=1 ttl=118 time=15.2 ms
    64 bytes from fra16s48-in-x03.1e100.net (2a00:1450:4001:80e::2003): icmp_seq=2 ttl=118 time=13.3 ms
    ^C
    --- www.google.de ping statistics ---
    2 packets transmitted, 2 received, 0% packet loss, time 1001ms
    rtt min/avg/max/mdev = 13.288/14.261/15.234/0.973 ms
    

    Gut, mal nachdenken...

  • Mein Systemadmin auf der Arbeit meinte heute, angesprochen auf das Problem, läuft der Network-Manager? Ok, gute Frage...... Schauen wir mal.

    Ich bin mir leider nicht 100% sicher, ob er vor meinem Eingreifen lief, ich denke aber schon. Warum ich unsicher bin?

    root@debian:~# systemctl enable systemd-networkd.service
    Created symlink /etc/systemd/system/dbus-org.freedesktop.network1.service → /lib/systemd/system/systemd-networkd.service.
    Created symlink /etc/systemd/system/multi-user.target.wants/systemd-networkd.service → /lib/systemd/system/systemd-networkd.service.
    Created symlink /etc/systemd/system/sockets.target.wants/systemd-networkd.socket → /lib/systemd/system/systemd-networkd.socket.
    Created symlink /etc/systemd/system/network-online.target.wants/systemd-networkd-wait-online.service → /lib/systemd/system/systemd-networkd-wait-online.service.
    

    Ok, danach

    root@debian:~# systemctl start systemd-networkd.service
    root@debian:~# systemctl status systemd-networkd.service
    ● systemd-networkd.service - Network Service
         Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled; ven>
         Active: active (running) since Tue 2021-08-17 17:36:38 CEST; 6s ago
    TriggeredBy: ● systemd-networkd.socket
           Docs: man:systemd-networkd.service(8)
       Main PID: 1288 (systemd-network)
         Status: "Processing requests..."
          Tasks: 1 (limit: 19087)
         Memory: 3.9M
            CPU: 39ms
         CGroup: /system.slice/systemd-networkd.service
                 └─1288 /lib/systemd/systemd-networkd
    
    Aug 17 17:36:38 debian systemd[1]: Starting Network Service...
    Aug 17 17:36:38 debian systemd-networkd[1288]: enp25s0: Gained IPv6LL
    Aug 17 17:36:38 debian systemd-networkd[1288]: Enumeration completed
    Aug 17 17:36:38 debian systemd[1]: Started Network Service.
    

    Danach ging immer noch nix.

    root@debian:/etc/network# ^C
    root@debian:/etc/network# nmcli device show
    GENERAL.DEVICE:                         wlx7cdd907cbec2
    GENERAL.TYPE:                           wifi
    GENERAL.HWADDR:                         BA:59:C0:76:C7:F5
    GENERAL.MTU:                            1500
    GENERAL.STATE:                          20 (nicht verfügbar)
    GENERAL.CONNECTION:                     --
    GENERAL.CON-PATH:                       --
    
    GENERAL.DEVICE:                         enp25s0
    GENERAL.TYPE:                           ethernet
    GENERAL.HWADDR:                         30:9C:23:60:C6:8E
    GENERAL.MTU:                            1500
    GENERAL.STATE:                          10 (nicht verwaltet)
    GENERAL.CONNECTION:                     --
    GENERAL.CON-PATH:                       --
    WIRED-PROPERTIES.CARRIER:               an
    IP4.ADDRESS[1]:                         192.168.3.169/24
    IP4.GATEWAY:                            192.168.3.1
    IP4.ROUTE[1]:                           dst = 192.168.3.0/24, nh = 0.0.0.0, mt = 0
    IP4.ROUTE[2]:                           dst = 0.0.0.0/0, nh = 192.168.3.1, mt = 0
    IP6.ADDRESS[1]:                         2a02:908:1260:13bc:329c:23ff:xxxx:xxxx/64
    IP6.ADDRESS[2]:                         fd8a:6ff:2880:0:329c:23ff:fe60:c68e/64
    IP6.ADDRESS[3]:                         fe80::329c:23ff:fe60:c68e/64
    IP6.GATEWAY:                            fe80::e4d3:f0ff:fe8f:2354
    IP6.ROUTE[1]:                           dst = fe80::/64, nh = ::, mt = 256
    IP6.ROUTE[2]:                           dst = ::/0, nh = fe80::e4d3:f0ff:fe8f:2354, mt = 1024
    IP6.ROUTE[3]:                           dst = 2a02:908:xxxx:xxxx::/64, nh = ::, mt = 256
    IP6.ROUTE[4]:                           dst = fd8a:6ff:2880::/64, nh = ::, mt = 256
    

    Jetzt hatte ich das erste Mal einen Ansatz, wonach ich suchen musste.

        GENERAL.STATE:                          10 (nicht verwaltet)
    

    Etwas Suche im Netz und dann das

    nano /etc/NetworkManager/NetworkManager.conf
    

    Inhalt der Datei

    [main]
    plugins=ifupdown,keyfile
    
    [ifupdown]
    managed=false
    

    Das false in true geändert. Danach ein

    systemctl restart NetworkManager
    

    und ich konnte den Network-Manager auf dem Desktop benutzen!?!?!?

    Bildschirmfoto vom 2021-08-17 18-07-25.png

    Irgendwas ist da durcheinander im Bullseye 😳

  • Pycharm - AI Assistant

    Linux
    1
    0 Stimmen
    1 Beiträge
    107 Aufrufe
    Niemand hat geantwortet
  • Open Source Software - Nur mit Luft & Liebe läuft es auch nicht rund

    Linux
    1
    0 Stimmen
    1 Beiträge
    126 Aufrufe
    Niemand hat geantwortet
  • NiceGUI

    Linux
    2
    0 Stimmen
    2 Beiträge
    321 Aufrufe
    FrankMF

    Ich habe mir das jetzt einige Tage gegeben und habe mich dagegen entschieden. Werde weiterhin PyWebIO benutzen. Hauptgrund ist die wesentlich bessere Dokumentation -> https://pywebio.readthedocs.io/en/latest/index.html

    Da kann ich mir auch mit meinem Python Kenntnisstand die Informationen holen, die ich brauche um es einzusetzen.

  • ZFS - Wichtige Befehle

    Linux
    2
    0 Stimmen
    2 Beiträge
    612 Aufrufe
    FrankMF

    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen 🙂

    Den Anfang macht die

    ZFS-Replication

    Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools.

    root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool

    Wir erzeugen ein Dataset im datapool

    zfs create datapool/docs -o mountpoint=/docs

    Wir erzeugen eine Datei mit Inhalt

    echo "version 1" > /docs/data.txt

    Wir erzeugen einen Snapshot

    zfs snapshot datapool/docs@today

    Kontrolle

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K -

    Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test.

    zfs send datapool/docs@today | zfs receive Backup_Home/test

    Nun befinden sich die Daten in dem anderen ZFS-Pool

    root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt

    Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt 😉

    zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup

    Den Test reiche ich dann später nach.

    Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/

    ZFS inkrementelle Replication

    Als, nur die geänderten Daten senden!

    Wir erzeugen ein paar Dateien

    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt

    Neuer Snapshot

    zfs snapshot datapool/docs@17:02

    Liste der Snapshots

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K -

    Wir senden dieinkrementelle Replication

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot

    Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot.

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K

    Und Kontrolle

    ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt

    Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/

  • Debian Buster 10.6 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    204 Aufrufe
    Niemand hat geantwortet
  • HDD umbenennen

    Linux
    1
    0 Stimmen
    1 Beiträge
    386 Aufrufe
    Niemand hat geantwortet
  • Liste von Linuxbefehlen

    Angeheftet Linux
    3
    0 Stimmen
    3 Beiträge
    681 Aufrufe
    FrankMF
    systemd Anzeige der geladenen Dienste root@host:/etc/systemd/system# systemctl --type=service UNIT LOAD ACTIVE SUB DESCRIPTION atd.service loaded active running Deferred execution scheduler blk-availability.service loaded active exited Availability of block devices cloud-config.service loaded active exited Apply the settings specified in cloud-config cloud-final.service loaded active exited Execute cloud user/final scripts cloud-init-local.service loaded active exited Initial cloud-init job (pre-networking) cloud-init.service loaded active exited Initial cloud-init job (metadata service crawler) console-setup.service loaded active exited Set console font and keymap cron.service loaded active running Regular background program processing daemon crowdsec-firewall-bouncer.service loaded active running The firewall bouncer for CrowdSec crowdsec.service loaded active running Crowdsec agent dbus.service loaded active running D-Bus System Message Bus getty@tty1.service loaded active running Getty on tty1 ifupdown-pre.service loaded active exited Helper to synchronize boot up for ifupdown keyboard-setup.service loaded active exited Set the console keyboard layout kmod-static-nodes.service loaded active exited Create List of Static Device Nodes lvm2-monitor.service loaded active exited Monitoring of LVM2 mirrors, snapshots etc. using dmeventd or progress polling mariadb.service loaded active running MariaDB 10.11.3 database server networking.service loaded active exited Raise network interfaces nginx.service loaded active running A high performance web server and a reverse proxy server qemu-guest-agent.service loaded active running QEMU Guest Agent resolvconf.service loaded active exited Nameserver information manager semaphore.service loaded active running Ansible Semaphore serial-getty@ttyS0.service loaded active running Serial Getty on ttyS0 ssh.service loaded active running OpenBSD Secure Shell server systemd-binfmt.service loaded active exited Set Up Additional Binary Formats systemd-fsck@dev-disk-by\x2duuid-1E22\x2dDC00.service loaded active exited File System Check on /dev/disk/by-uuid/1E22-DC00 systemd-journal-flush.service loaded active exited Flush Journal to Persistent Storage systemd-journald.service loaded active running Journal Service systemd-logind.service loaded active running User Login Management systemd-modules-load.service loaded active exited Load Kernel Modules systemd-random-seed.service loaded active exited Load/Save Random Seed systemd-remount-fs.service loaded active exited Remount Root and Kernel File Systems systemd-sysctl.service loaded active exited Apply Kernel Variables systemd-sysusers.service loaded active exited Create System Users systemd-timesyncd.service loaded active running Network Time Synchronization systemd-tmpfiles-setup-dev.service loaded active exited Create Static Device Nodes in /dev systemd-tmpfiles-setup.service loaded active exited Create Volatile Files and Directories systemd-udev-trigger.service loaded active exited Coldplug All udev Devices systemd-udevd.service loaded active running Rule-based Manager for Device Events and Files systemd-update-utmp.service loaded active exited Record System Boot/Shutdown in UTMP systemd-user-sessions.service loaded active exited Permit User Sessions ufw.service loaded active exited Uncomplicated firewall user-runtime-dir@0.service loaded active exited User Runtime Directory /run/user/0 user@0.service loaded active running User Manager for UID 0 LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type. 44 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'.
  • Restic - Beispielzeiten

    Restic
    1
    0 Stimmen
    1 Beiträge
    478 Aufrufe
    Niemand hat geantwortet