Skip to content

NAS - Cups & Sane

Linux
  • Mal wieder mit einem alten Thema beschäftigen. Cups - Raspberry als Druckdaemon

    Eigentlich unnötig bei mir zu Hause, aber ab und zu kann man das doch gebrauchen. Und da ich ja mit dem NAS ein Gerät hier rumstehen habe, was sich fast nur langweilt, kann man dem ja ein paar Aufgaben übertragen. Ich habe eine S/W Multifunktionsdrucker von Samsung Typ SCX-3205 hier stehen.

    Der Druckdaemon CUPS ist schon installiert, damit wir Zugriff aufs Webinterface bekommen muss man in der Konfig-Datei was einstellen.

    nano /etc/cups/cupsd.conf
    

    Inhalt der Datei

    <Location />
     # Allow remote administration...
     Allow 192.168.3.213
     Order allow,deny
    </Location>
    
    <Location /admin>
     # Allow remote administration...
     Allow 192.168.3.213
     Order allow,deny
    </Location>
    

    Um den Remote-Zugriff zu ermöglichen, fügt man in der Konsole folgendes ein.

    cupsctl --remote-admin
    

    Danach solltet ihr das Webinterface mittels

    https://192.168.X.XXX:631
    

    erreichen.

    Wenn man nach Userdaten gefragt wird, gibt man den Rootaccount des NAS an.

    Nun wird der Drucker hinzugefügt, ich verweise noch mal auf den Artikel Cups - Raspberry als Druckdaemon, dort habe ich das schon mal erklärt. Was dort aber fehlt ist, was macht man wenn der Drucker nicht in der Auswahlliste erscheint? Dann braucht man den Linuxtreiber für das entsprechende Modell. Bei meinem Modell kein Problem, kann ich die Datei doch einfach runterladen. Die Datei muss dann ausgepackt werden.

    tar zxvf uld_v1.00.36_00.91.tar.gz
    

    Dann in den Ordner uld wechseln

    cd uld
    

    Dann den Treiber installieren.

    ./install.sh
    

    Danach ein paar Eingaben machen und der Treiber ist installiert. Nun kann man das richtige Druckermodell auswählen. Erledigt.

    Tipp

    Damit das bei mir alles richtig funktionierte, habe ich die Rechner einmal komplett neugestartet.

    Auf dem Client taucht jetzt der freigegebene Drucker automatisch auf, diesen auswählen und als Standard markieren. Testseite drucken und fertig.

    Da mein Drucker auch scannen kann, kam ich auf die Idee das auch mal auszuprobieren. Ergebnis, kein Scanner gefunden 😞 Google brachte mich dann relativ schnell ans Ziel. Dafür gibt es unter Linux das Programm Sane. Sane ist auf dem NAS schon installiert. Für die entsprechende Konfiguration verweise ich mal auf

    https://wiki.debian.org/SaneOverNetwork
    

    Einstellungen wie in der Anleitung vorgenommen, wollte aber nicht. Der Tipp weiter oben, hat auch hier geholfen 😉

    Wichtig. Auf dem NAS

    nano /etc/sane.d/saned.conf
    

    Inhalt

    ## Access list
    # A list of host names, IP addresses or IP subnets (CIDR notation) that
    # are permitted to use local SANE devices. IPv6 addresses must be enclosed
    # in brackets, and should always be specified in their compressed form.
    #
    # The hostname matching is not case-sensitive.
    
    #scan-client.somedomain.firm
    192.168.3.1/24
    #[2001:db8:185e::42:12]
    #[2001:db8:185e::42:12]/64
    

    Die Rechner/Netzwerke freigeben, die Scannen dürfen. Danach Sane durchstarten.

     /etc/init.d/saned restart
    

    Eine sehr nette Anleitung mit ein paar weiterführenden Tipps findet man auf folgender Seite
    http://mein.homelinux.com/wiki/dienste/sane

    Client-Konfiguration

    Auf dem Client muss in der Datei /etc/sane.d/net.conf das Ziel angegeben werden.

    nano /etc/sane.d/net.conf
    

    Der Inhalt des Files sieht wie folgt aus:

    # This is the net backend config file.
    
    ## net backend options
    # Timeout for the initial connection to saned. This will prevent the backend
    # from blocking for several minutes trying to connect to an unresponsive
    # saned host (network outage, host down, ...). Value in seconds.
    # connect_timeout = 60
    
    ## saned hosts
    # Each line names a host to attach to.
    # If you list "localhost" then your backends can be accessed either
    # directly or through the net backend. Going through the net backend
    # may be necessary to access devices that need special privileges.
    # localhost
    192.168.3.xxx #IP-Adresse NAS
    

    Danach sucht der Client den Scanner auch an der richtigen Adresse!

    Fazit

    Mein nicht netzwerkfähiger Drucker hängt nun mittels USB am NAS und stellt seine Dienste mittels CUPS und SANE im lokalen Netzwerk zur Verfügung. Recht praktisch wenn man gelegentlich was vom Notebook ausdrucken oder scannen möchte. Da das NAS hier sowieso 24/7 unter Dampf ist, bot sich das an es so einzurichten.

  • 0 Stimmen
    4 Beiträge
    0 Aufrufe
    frankm@nrw.socialF
    @_DigitalWriter_ Kann man einfach besser lesen, vor allen Dingen im Alter
  • Debian 12 Bookworm released

    Linux debian linux
    5
    0 Stimmen
    5 Beiträge
    402 Aufrufe
    FrankMF
    Mein persönliches Fazit, alles läuft rund mit Debian Bookworm 12 Alle meine Hetzner VMs sind jetzt auf Bookworm Ok, was schwer und zeitaufwendig war, war die Nextcloud Installation bzw. der ganze PHP-Server. Das ist echt jedes mal eine Herausforderung, aber auch dabei werde ich die letzten Jahre sicherer. Hier die Story zum Nextcloud Server https://linux-nerds.org/topic/1437/nextcloud-upgrade-auf-bookworm-12 Richtig rund lief das Upgrade des NodeBB-Servers, war einfach und direkt auf Node18 hochgezogen. https://linux-nerds.org/topic/1444/nodebb-upgrade-auf-debian-bookworm-12 Damit ist jetzt alles hier auf Debian Bookworm 12 Haupt-PC VMs bei Hetzner VMs in der Proxmox Oh, da fällt mir gerade ein, der Proxmox ist noch fällig. Aber, dazu habe ich mir was einfallen lassen, da ist noch ein neues Mainboard unterwegs und dann gibt es dazu einen etwas größeren Beitrag. Danke Debian-Team, Debian Bookworm 12 ist eine runde Sache! Spannend wird jetzt, wie lange ich auf meinem Haupt-PC (Bookworm, KDE, Wayland) bleibe. Ich habe da so eine unangenehme Eigenschaft, wenn es um veraltete Pakete geht. Diesmal werde ich dann wahrscheinlich auf den Debian Unstable Zweig (sid) wechseln. Aber das dürfte noch was dauern, da ja aktuell erst mal alles passt.
  • Vaultwarden - SystemD

    Linux vaultwarden linux
    1
    0 Stimmen
    1 Beiträge
    232 Aufrufe
    Niemand hat geantwortet
  • Linux Mint Cinnamon 20.2 "Uma" released

    Linux linuxmint linux
    3
    2
    0 Stimmen
    3 Beiträge
    326 Aufrufe
    FrankMF
    Was noch gestört hatte, war der Scrollbalken im FF. Der war zu schmal, konnte man schlecht erwischen. [image: 1626417117745-8e403120-11e2-413f-a479-0ebc3002e6d4-grafik.png] Quelle: https://forums.linuxmint.com/viewtopic.php?f=47&t=330849&sid=1c7c71850931d5c34d8a0dd41ff57679
  • Kopia - Error 405

    Kopia kopia linux
    1
    1
    0 Stimmen
    1 Beiträge
    250 Aufrufe
    Niemand hat geantwortet
  • Kopia - HTTP/S Server

    Verschoben Kopia kopia linux
    3
    2
    0 Stimmen
    3 Beiträge
    2k Aufrufe
    FrankMF
    Ich hatte ein paar Probleme, die ich mir teilweise nicht erklären kann Ich möchte den Kopia Server gerne über systemd steuern. SystemD [Unit] Description=Kopia Server After=syslog.target After=network.target [Service] Type=simple User=kopia Group=kopia ExecStart=/usr/bin/kopia server --tls-cert-file /home/kopia-server/fullchain.pem --tls-key-file /home/kopia-server/privkey.pem --htpasswd-file /home/kopia-server/.htpasswd --address <IPv4>:51515 Restart=always RestartSec=5 [Install] WantedBy=multi-user.target Danach systemctl daemon-reload systemctl start kopia-server Mit systemctl status kopia-server kann man sich den Status anzeigen lassen. Client Rechner Auf dem Client, der das Backup zum Server schicken soll, machen wir dann folgendes. USER@HOSTNAME:~$ kopia repo connect server --url=https://<DOMAIN>:51515 --override-username=USER --override-hostname=HOSTNAME Enter password to open repository: Connected to repository API Server. NOTICE: Kopia will check for updates on GitHub every 7 days, starting 24 hours after first use. To disable this behavior, set environment variable KOPIA_CHECK_FOR_UPDATES=false Alternatively you can remove the file "/home/frank/.config/kopia/repository.config.update-info.json". Danach steht die Verbindung und wir können Backups hochschieben. kopia snapshot create $HOME Damit wird das Homeverzeichnis gesichert. Das initiale Backup, hat 30 Minuten gebraucht. created snapshot with root kb9e50ff5xxxxxxxxxx265d40a5d0861 and ID cda5c0ffxxxxxxxxxxxxxxa4cb4a367b in 30m28s Ein späteres Backup, sieht so aus. USER@HOSTNAME:~$ kopia snapshot create $HOME Snapshotting USER@HOSTNAME:/home/frank ... * 0 hashing, 51 hashed (324.8 MB), 8524 cached (6.6 GB), 0 uploaded (0 B), 0 errors 100.0% Created snapshot with root kc20a4xxxxxxxxxxxx745c6c7b37c and ID d7a96eaxxxxxxxxxxx0961018eacffa in 3m12s Nach 3 Minuten durch. Zu diesem Zeitpunkt hat sich aber auch nicht wirklich was geändert! Fazit Das Tool macht immer noch einen sehr guten Eindruck. Die Geschwindigkeit ist sehr gut. Die Anleitung ist leider unzureichend. Da gibt es so viele Möglichkeiten, da braucht es sehr lange, bis man da mal durchsteigt. Zum Glück, ist das was man normalerweise braucht, recht überschaubar. Bis zum produktiven Einsatz braucht das aber bei mir noch eine Menge mehr Tests. Was ich noch testen möchte Verzeichnis mounten Backup testweise wieder herstellen (zumindestens teilweise) Der Test läuft mit Standard Einstellungen, also z.B. ohne Kompression. Das sollte man dann auch mal testen.. Bitte achtet auf gleiche Versionen auf dem Clienten, wie auf dem Server. Ich meine da ein paar Probleme festgestellt zu haben...
  • FAN control OMV Auyfan 0.10.12: gitlab-ci-linux-build-184, Kernel 5.6

    Linux linux
    12
    1 Stimmen
    12 Beiträge
    1k Aufrufe
    M
    Hi, since I'm currently change my rockpro64 setup I came across this. With the kernel from ayufan you need to set PWM_CTL to /sys/devices/platform/pwm-fan/hwmon/hwmon3/pwm1 for my self compiled one I need /sys/devices/platform/pwm-fan/hwmon/hwmon0/pwm1 But I got it only working with one entry for PWM_CTL e.g. PWM_CTL = "/sys/devices/platform/pwm-fan/hwmon/hwmon0/pwm1", after that you need to start ats again sudo systemctl stop ats sudo systemctl start ats initially the fan should start immediately for a short period of time. In case it is even a different one on your kernel you can find the right one using this command. sudo find /sys -name pwm1 | grep hwmon So far I'm not sure which kernel parameter or modul changes this. Martin
  • Installation von Grav & NGinx & PHP7.2

    Angeheftet Verschoben Grav grav linux
    2
    1
    0 Stimmen
    2 Beiträge
    1k Aufrufe
    FrankMF
    Nachdem ich den ROCKPro64 jetzt auf den Mainline umgestellt habe, lief meine Testinstallation von Grav nicht mehr. Hilfreiche Sache um das Problem zu lösen -> https://gist.github.com/GhazanfarMir/03bd1f1f770a3834d47274586d46ea62 Ich bekam immer 502 Bad Gateway, Grund war ein nicht korrekt gestarteter php-pfm Service. rock64@rockpro64v2_0:/usr/local/bin$ sudo service php7.2-fpm start rock64@rockpro64v2_0:/usr/local/bin$ sudo service php7.2-fpm status ● php7.2-fpm.service - The PHP 7.2 FastCGI Process Manager Loaded: loaded (/lib/systemd/system/php7.2-fpm.service; enabled; vendor preset: enabled) Active: active (running) since Thu 2018-08-16 20:15:20 CEST; 21s ago Docs: man:php-fpm7.2(8) Main PID: 3206 (php-fpm7.2) Status: "Processes active: 0, idle: 2, Requests: 3, slow: 0, Traffic: 0.2req/sec" Tasks: 3 (limit: 4622) CGroup: /system.slice/php7.2-fpm.service ├─3206 php-fpm: master process (/etc/php/7.2/fpm/php-fpm.conf) ├─3207 php-fpm: pool www └─3208 php-fpm: pool www Aug 16 20:15:19 rockpro64v2_0 systemd[1]: Starting The PHP 7.2 FastCGI Process Manager... Aug 16 20:15:20 rockpro64v2_0 systemd[1]: Started The PHP 7.2 FastCGI Process Manager.