Skip to content

Bitwarden_RS auf einem Debian Buster 10 Server installieren!

Angeheftet Linux
  • @hase567 Da ich ja gerade einige Server von Debian Buster nach Debian Bullseye migriere, ist mir das auch schon aufgefallen 😉
    @Nico ist über das Problem informiert und arbeitet an einer Lösung.

  • @frankm sagte in Bitwarden_RS auf einem Debian Buster 10 Server installieren!:

    @Nico ist über das Problem informiert und arbeitet an einer Lösung.

    Das hört sich gut an 👍 🤓

  • @hase567 Ich habe die Anleitung auf https://bitwarden-deb.tech-network.de/ überarbeitet.
    Jetzt funktioniert es auch mit Debian 11 und neueren Ubuntu Versionen.

    Konkret hat sich Schritt 1 geändert. Das Hinzufügen des Keys erfolgt jetzt über:

    wget -O /etc/apt/trusted.gpg.d/bananian-keyring.gpg https://bitwarden-deb.tech-network.de/bananian-keyring.gpg
    
  • @nico
    vielen Dank für die schnelle Antwort 👍

  • @nico Danke schön! 🙂

    Ich habe den Eingangsbeitrag entsprechend angepasst.

  • Da ich ja drauf gewartet habe, kurz mal den Debian Buster Server umgezogen auf einen Debian Bullseye. Hat alles wunderbar geklappt . läuft 🤓 DANKE @Nico

  • Hallo, Super Anleitung!

    Haben das Vaultwarden auch im Einsatz, hab das Debian Paket aber bisher mit https://github.com/greizgh/vaultwarden-debian gebaut... ging auch ok, würde aber gern das Repository verwenden..

    Nur hab ich bei mir schon alles auf den neuen Namen Vaultwarden geändert, und will das natürlich ungern zurückbauen... - gibts da einen Plan wann das umgestellt wird in dem Repository? Oder vielleicht zwischenzeitlich beides im Repo anbieten?

    Und neue Version vom Vaultwarden is raus, 1.23 .. hab die mal mit dem Vaultwarden-Debian gebaut, da scheint es jedoch ein Problem zu geben, wenn ich es installier komm ich nicht mehr auf die Weboberfläche, Service rennt aber... da müsste ich schauen was da ist, würde mir das aber gerne ersparen wenns eh ein Repository gibt -

    hoffe also auf eine 1.23 im Repo und auch bald auf eine direkte bullseye Repo Option 😉

    Lg, Flo

  • @flotschi Willkommen 😉

    Ähm ja, da muss @Nico mal was zu sagen. Nur als Ergänzung, das aktuelle Repo vom @Nico läuft auf Debian 11 Bullseye ohne Probleme, falls Du (oder ich) da was falsch verstanden hast. Aber, noch mit dem alten Namen.

    Und 1.23 ist ja auch noch ganz frisch 😉

  • Hallo,
    ich habe nun die Bitwarden Installation auf einem Apache Server unter Debian10 installiert.
    Soweit funktioniert auch alles bestens, außer der Adminbereich 😞
    Wenn ich die Hauptseite vom Adminbereich aufrufe sind die Auswahlpunkte für die Einstellungen
    nicht anklickbar bzw. lassen sich diese nicht öffnen! Weiss jemand woran das liegen kann??
    Auf dem Nginx Server hat das alles geklappt.

  • @hase567 Seltsam. Die hier empfohlene Apache2 Konfiguration passt. Sicher das da bei dir alles stimmt?

  • @Frank,
    ich habe die Apache Config wie hier im Beitrag entsprechend angepasst und nochmals überprüft. Ist alles OK, ansonsten würde ja alles andere auch nicht funktionieren.

    Ist nur merkwürdig, warum ich im Adminbereich die Auswahlpunkte nicht ausklappen kann!?! 😧

    Kann es vielleicht an einer wichtigen Einstellung in der config.env liegen?
    Habe eigentlich nichts weiter verändert...
    Wie gesagt, ansonsten läuft alles.

  • @hase567 Ich glaube, das jetzt ein Beitrag von Dir leider verschwunden ist. Ich hatte ein kleines Problem und habe leider ein paar wenige Daten verloren. Sorry!!

    Zum Thema Version 1.23.0

    Ist jetzt im Repo, man kann einfach wie gewohnt updaten

    root@bitwarden:/var/log# bitwarden_rs -h
    vaultwarden 1.23.0
    Alternative implementation of the Bitwarden server API written in Rust
    
            USAGE:
                vaultwarden
    
            FLAGS:
                -h, --help       Prints help information
                -v, --version    Prints the app version
    

    Die komplette Änderung auf den Namen vaultwarden hat @Nico noch nicht implementiert.

  • @frankm sagte in Bitwarden_RS auf einem Debian Buster 10 Server installieren!:

    @hase567 Ich glaube, das jetzt ein Beitrag von Dir leider verschwunden ist. Ich hatte ein kleines Problem und habe leider ein paar wenige Daten verloren. Sorry!!

    Moin,
    kein Problem. Habe das Problem ja beheben können, lag an einem Firefox AddOn.

  • Neues Update da, was die Version 1.23.1 und Web vault 2.25.0 installiert.

    Die folgenden Pakete werden aktualisiert (Upgrade):
      bitwarden-rs
    1 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
    Es müssen 12,9 MB an Archiven heruntergeladen werden.
    Nach dieser Operation werden 0 B Plattenplatz zusätzlich benutzt.
    Möchten Sie fortfahren? [J/n] 
    Holen:1 http://bitwarden-deb.tech-network.de buster/main amd64 bitwarden-rs amd64 1.23.1-1 [12,9 MB]
    Es wurden 12,9 MB in 0 s geholt (57,7 MB/s).
    Changelogs werden gelesen... Fertig
    (Lese Datenbank ... 36232 Dateien und Verzeichnisse sind derzeit installiert.)
    Vorbereitung zum Entpacken von .../bitwarden-rs_1.23.1-1_amd64.deb ...
    Entpacken von bitwarden-rs (1.23.1-1) über (1.23.0-1) ...
    bitwarden-rs (1.23.1-1) wird eingerichtet ...
    
    Konfigurationsdatei »/etc/bitwarden_rs/config.env«
     ==> Geändert (von Ihnen oder von einem Skript) seit der Installation.
     ==> Paketverteiler hat eine aktualisierte Version herausgegeben.
       Wie möchten Sie vorgehen? Ihre Wahlmöglichkeiten sind:
        Y oder I : Die Version des Paket-Betreuers installieren
        N oder O : Die momentan installierte Version beibehalten
           D     : Die Unterschiede zwischen den Versionen anzeigen
           Z     : Eine Shell starten, um die Situation zu begutachten
     Der Standardweg ist das Beibehalten der momentanen Version.
    *** config.env (Y/I/N/O/D/Z) [Vorgabe=N] ? N
    Warnung: Das von Ihnen angegebene Home-Verzeichnis /var/lib/bitwarden_rs existie
    rt bereits.
    Der Systembenutzer »bitwarden« existiert bereits. Programmende.
    

    Danach

    bitwarden:~# systemctl restart bitwarden_rs.service
    Warning: The unit file, source configuration file or drop-ins of bitwarden_rs.service changed on disk. Run 'systemctl daemon-reload' to reload units.
    bitwarden:~# systemctl daemon-reload
    bitwarden:~# systemctl restart bitwarden_rs.service
    
  • Guten Morgen,

    Version 1.24.0 ist da!
    Update sollte problemlos funktioneren, wie immer.

    Ich wünsche euch ein schönes Wochenende!

  • Achtung: Die vorliegende Version funktioniert aktuell nicht unter Ubuntu 22.04!

  • Moin,
    wird auch ein aktualisiertes Update auf die Version 2.28.0 bereitgestellt?

  • @hase567 Ich glaube Du verwechselst da was. Die Bitwarden_RS (vaultwarden) Version 1.24.0 ist aktuell und dani-garcia hat noch keine neue Version veröffentlicht. https://github.com/dani-garcia/vaultwarden/releases

    Du meinst mit Version 2.28.0 das Original. Das wird dann vermutlich die Vorlage für das nächste Release vom dani-garcia.

    Ich denke, da müssen wir uns noch etwas in Geduld üben.

  • @FrankM
    ich meinte "Update web vault to 2.28.0"
    Habe mich falsch ausgedrückt 🙄

  • Es gibt mal wieder ein Update - aber keine neue Version!
    Was hat es damit auf sich?

    Das Paket "bitwarden-rs" ist jetzt nur noch ein Metapaket mit einer Abhängigkeit auf das neue Paket "vaultwarden". Beim nächsten Update ("apt update && apt upgrade") wird also Bitwarden_rs durch Vaultwarden ersetzt.

    Die Konfiguration und das Datenverzeichnis werden dabei vollständig migriert.
    Übrig bleiben lediglich die Verzeichnisse /etc/bitwarden_rs und /var/lib/bitwarden_rs, die nach erfolgreichem Test manuell gelöscht werden können.

    Neue Installationen (auch über das Paket "bitwarden-rs") installieren ab sofort immer Vaultwarden.

    Die Ubuntu 22.04 Kompatibilität ist nicht gelöst und damit meine nächste Baustelle...

  • checkmk - Rest-Server überwachen

    Verschoben checkmk
    1
    0 Stimmen
    1 Beiträge
    442 Aufrufe
    Niemand hat geantwortet
  • Restic v0.12.0 released

    Restic
    1
    0 Stimmen
    1 Beiträge
    217 Aufrufe
    Niemand hat geantwortet
  • Kopia - HTTP/S Server

    Verschoben Kopia
    3
    0 Stimmen
    3 Beiträge
    1k Aufrufe
    FrankMF

    Ich hatte ein paar Probleme, die ich mir teilweise nicht erklären kann 🤔

    Ich möchte den Kopia Server gerne über systemd steuern.

    SystemD [Unit] Description=Kopia Server After=syslog.target After=network.target [Service] Type=simple User=kopia Group=kopia ExecStart=/usr/bin/kopia server --tls-cert-file /home/kopia-server/fullchain.pem --tls-key-file /home/kopia-server/privkey.pem --htpasswd-file /home/kopia-server/.htpasswd --address <IPv4>:51515 Restart=always RestartSec=5 [Install] WantedBy=multi-user.target

    Danach

    systemctl daemon-reload systemctl start kopia-server

    Mit

    systemctl status kopia-server

    kann man sich den Status anzeigen lassen.

    Client Rechner

    Auf dem Client, der das Backup zum Server schicken soll, machen wir dann folgendes.

    USER@HOSTNAME:~$ kopia repo connect server --url=https://<DOMAIN>:51515 --override-username=USER --override-hostname=HOSTNAME Enter password to open repository: Connected to repository API Server. NOTICE: Kopia will check for updates on GitHub every 7 days, starting 24 hours after first use. To disable this behavior, set environment variable KOPIA_CHECK_FOR_UPDATES=false Alternatively you can remove the file "/home/frank/.config/kopia/repository.config.update-info.json".

    Danach steht die Verbindung und wir können Backups hochschieben.

    kopia snapshot create $HOME

    Damit wird das Homeverzeichnis gesichert. Das initiale Backup, hat 30 Minuten gebraucht.

    created snapshot with root kb9e50ff5xxxxxxxxxx265d40a5d0861 and ID cda5c0ffxxxxxxxxxxxxxxa4cb4a367b in 30m28s

    Ein späteres Backup, sieht so aus.

    USER@HOSTNAME:~$ kopia snapshot create $HOME Snapshotting USER@HOSTNAME:/home/frank ... * 0 hashing, 51 hashed (324.8 MB), 8524 cached (6.6 GB), 0 uploaded (0 B), 0 errors 100.0% Created snapshot with root kc20a4xxxxxxxxxxxx745c6c7b37c and ID d7a96eaxxxxxxxxxxx0961018eacffa in 3m12s

    Nach 3 Minuten durch. Zu diesem Zeitpunkt hat sich aber auch nicht wirklich was geändert!

    Fazit

    Das Tool macht immer noch einen sehr guten Eindruck. Die Geschwindigkeit ist sehr gut. Die Anleitung ist leider unzureichend. Da gibt es so viele Möglichkeiten, da braucht es sehr lange, bis man da mal durchsteigt. Zum Glück, ist das was man normalerweise braucht, recht überschaubar. Bis zum produktiven Einsatz braucht das aber bei mir noch eine Menge mehr Tests.

    Was ich noch testen möchte

    Verzeichnis mounten Backup testweise wieder herstellen (zumindestens teilweise)

    Der Test läuft mit Standard Einstellungen, also z.B. ohne Kompression. Das sollte man dann auch mal testen..

    Bitte achtet auf gleiche Versionen auf dem Clienten, wie auf dem Server. Ich meine da ein paar Probleme festgestellt zu haben...

  • ROCKPro64 - Debian Bullseye Teil 2

    Verschoben ROCKPro64
    3
    0 Stimmen
    3 Beiträge
    433 Aufrufe
    FrankMF

    Gestern mal das Ganze mit einem Cinnamon Desktop ausprobiert. Eine verschlüsselte Installation auf eine PCIe NVMe SSD. So weit lief das alles reibungslos. Der Cinnamon Desktop hat dann leider keine 3D Unterstützung. Sieht so aus, als wenn keine vernünftigen Grafiktreiber genutzt würden. Da ich auf diesem Gebiet aber eine Null bin, lassen wir das mal so. Außerdem mag ich sowieso keine Desktops auf diesen kleinen SBC. Da fehlt mir einfach der Dampf 😉

    Gut, was ist mir so aufgefallen?

    Unbedingt die Daten des Daily Images erneuern, keine alten Images nutzen. Ich hatte da jetzt ein paar Mal Schwierigkeiten mit. Da das ja nun keine Arbeit ist, vorher einfach neu runterladen und Image bauen.

    Warum zum Henker bootet eigentlich. außer meiner Samsung T5, nichts vom USB3 oder USB-C Port?? 👿

  • Restic - forget --keep-last 3 --prune

    Restic
    2
    0 Stimmen
    2 Beiträge
    600 Aufrufe
    FrankMF

    Ich habe mich damit noch ein wenig beschäftigt, die letzten drei zu behalten, ist nicht so optimal. Da es viele Optionen bei dem Befehl gibt, hier ein Ausschnitt

    Flags: -l, --keep-last n keep the last n snapshots -H, --keep-hourly n keep the last n hourly snapshots -d, --keep-daily n keep the last n daily snapshots -w, --keep-weekly n keep the last n weekly snapshots -m, --keep-monthly n keep the last n monthly snapshots -y, --keep-yearly n keep the last n yearly snapshots

    habe ich das ein wenig so angepasst, das ich denke es passt für mich.

    restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune

    Damit behalte ich auch die jeweils eines pro Monat. Und die letzten drei. Das sieht dann so aus.

    root@debian:~# ./backup2.sh repository 2f3f6147 opened successfully, password is correct Files: 38 new, 100 changed, 13268 unmodified Dirs: 0 new, 1 changed, 0 unmodified Added to the repo: 10.166 GiB processed 13406 files, 50.324 GiB in 3:24 snapshot 849f614c saved repository 2f3f6147 opened successfully, password is correct Applying Policy: keep the last 3 snapshots, 3 monthly snapshots snapshots for (host [debian], paths [/home/frank]): keep 5 snapshots: ID Time Host Tags Reasons Paths ------------------------------------------------------------------------------------ a7251cfd 2019-11-28 17:00:01 debian monthly snapshot /home/frank 283d4027 2019-12-31 17:00:01 debian monthly snapshot /home/frank ae2b96ec 2020-01-01 21:47:46 debian last snapshot /home/frank 079e00a6 2020-01-02 17:00:01 debian last snapshot /home/frank 849f614c 2020-01-03 21:08:45 debian last snapshot /home/frank monthly snapshot ------------------------------------------------------------------------------------ 5 snapshots remove 26 snapshots: ID Time Host Tags Paths ------------------------------------------------------------------ 896f16c2 2019-11-07 22:23:40 debian /home/frank b21bcf6d 2019-11-11 17:00:01 debian /home/frank f89248fb 2019-11-12 17:00:01 debian /home/frank 123ab546 2019-11-13 17:00:01 debian /home/frank b82d87d0 2019-11-18 17:00:01 debian /home/frank 040b0ab7 2019-11-19 17:00:01 debian /home/frank 7221d8ef 2019-11-20 17:00:01 debian /home/frank 84132a25 2019-11-21 17:00:01 debian /home/frank b558a52c 2019-11-25 17:00:01 debian /home/frank e5cc0c3e 2019-12-02 17:00:01 debian /home/frank 22423fa5 2019-12-03 17:00:01 debian /home/frank 39df1ab9 2019-12-04 17:00:01 debian /home/frank 98843457 2019-12-05 17:00:01 debian /home/frank b0cdd4b6 2019-12-09 17:00:01 debian /home/frank 828414f9 2019-12-10 17:00:01 debian /home/frank e34a27c3 2019-12-11 17:00:01 debian /home/frank 6e488c3b 2019-12-12 17:00:01 debian /home/frank 17898403 2019-12-16 17:00:01 debian /home/frank 1973305a 2019-12-17 17:00:01 debian /home/frank 9553bedd 2019-12-18 17:00:01 debian /home/frank fedf749d 2019-12-19 17:00:01 debian /home/frank 8e7cb876 2019-12-23 17:00:01 debian /home/frank 0bd0d102 2019-12-25 17:00:01 debian /home/frank 13d348b0 2019-12-26 17:00:01 debian /home/frank c7d960aa 2019-12-30 17:00:01 debian /home/frank f6ea9118 2020-01-01 17:00:01 debian /home/frank ------------------------------------------------------------------ 26 snapshots 26 snapshots have been removed, running prune counting files in repo building new index for repo [0:35] 100.00% 7806 / 7806 packs repository contains 7806 packs (46537 blobs) with 41.110 GiB processed 46537 blobs: 0 duplicate blobs, 0 B duplicate load all snapshots find data that is still in use for 5 snapshots [0:01] 100.00% 5 / 5 snapshots found 32654 of 46537 data blobs still in use, removing 13883 blobs will remove 0 invalid files will delete 715 packs and rewrite 752 packs, this frees 5.027 GiB [2:28] 100.00% 752 / 752 packs rewritten counting files in repo [0:01] 100.00% 6571 / 6571 packs finding old index files saved new indexes as [d137b425 f7caee99 a6e9711a] remove 35 old index files [1:13] 100.00% 1467 / 1467 packs deleted done using temporary cache in /tmp/restic-check-cache-916655151 repository 2f3f6147 opened successfully, password is correct created new cache in /tmp/restic-check-cache-916655151 create exclusive lock for repository load indexes check all packs check snapshots, trees and blobs read all data [7:47] 100.00% 6571 / 6571 items duration: 7:47 no errors were found root@debian:~#

    Am Ende seht ihr noch, wie Restic alle Files testet. Mein Script sieht jetzt so aus.

    #!/bin/bash # Script um mit Restic Daten automatisiert zu sichern! # Dient zum Sichern der Homepartition auf dem ROCKPro64 NAS! # Was soll gesichert werden? backup_pfad=/home/frank # Programm Start restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ backup $backup_pfad --exclude-file=excludes.txt restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ forget --keep-last 3 --keep-monthly 3 --prune # Testen restic --password-file /root/passwd -r /media/NAS_neu/Restic/Home/ check --read-data

    Das dann schön mit einem Cronjob laufen lassen und die Datensicherung ist erledigt 😉

  • SCP mit IPv6 nutzen

    Linux
    1
    0 Stimmen
    1 Beiträge
    223 Aufrufe
    Niemand hat geantwortet
  • Liste von Linuxbefehlen

    Angeheftet Linux
    3
    0 Stimmen
    3 Beiträge
    681 Aufrufe
    FrankMF
    systemd Anzeige der geladenen Dienste root@host:/etc/systemd/system# systemctl --type=service UNIT LOAD ACTIVE SUB DESCRIPTION atd.service loaded active running Deferred execution scheduler blk-availability.service loaded active exited Availability of block devices cloud-config.service loaded active exited Apply the settings specified in cloud-config cloud-final.service loaded active exited Execute cloud user/final scripts cloud-init-local.service loaded active exited Initial cloud-init job (pre-networking) cloud-init.service loaded active exited Initial cloud-init job (metadata service crawler) console-setup.service loaded active exited Set console font and keymap cron.service loaded active running Regular background program processing daemon crowdsec-firewall-bouncer.service loaded active running The firewall bouncer for CrowdSec crowdsec.service loaded active running Crowdsec agent dbus.service loaded active running D-Bus System Message Bus getty@tty1.service loaded active running Getty on tty1 ifupdown-pre.service loaded active exited Helper to synchronize boot up for ifupdown keyboard-setup.service loaded active exited Set the console keyboard layout kmod-static-nodes.service loaded active exited Create List of Static Device Nodes lvm2-monitor.service loaded active exited Monitoring of LVM2 mirrors, snapshots etc. using dmeventd or progress polling mariadb.service loaded active running MariaDB 10.11.3 database server networking.service loaded active exited Raise network interfaces nginx.service loaded active running A high performance web server and a reverse proxy server qemu-guest-agent.service loaded active running QEMU Guest Agent resolvconf.service loaded active exited Nameserver information manager semaphore.service loaded active running Ansible Semaphore serial-getty@ttyS0.service loaded active running Serial Getty on ttyS0 ssh.service loaded active running OpenBSD Secure Shell server systemd-binfmt.service loaded active exited Set Up Additional Binary Formats systemd-fsck@dev-disk-by\x2duuid-1E22\x2dDC00.service loaded active exited File System Check on /dev/disk/by-uuid/1E22-DC00 systemd-journal-flush.service loaded active exited Flush Journal to Persistent Storage systemd-journald.service loaded active running Journal Service systemd-logind.service loaded active running User Login Management systemd-modules-load.service loaded active exited Load Kernel Modules systemd-random-seed.service loaded active exited Load/Save Random Seed systemd-remount-fs.service loaded active exited Remount Root and Kernel File Systems systemd-sysctl.service loaded active exited Apply Kernel Variables systemd-sysusers.service loaded active exited Create System Users systemd-timesyncd.service loaded active running Network Time Synchronization systemd-tmpfiles-setup-dev.service loaded active exited Create Static Device Nodes in /dev systemd-tmpfiles-setup.service loaded active exited Create Volatile Files and Directories systemd-udev-trigger.service loaded active exited Coldplug All udev Devices systemd-udevd.service loaded active running Rule-based Manager for Device Events and Files systemd-update-utmp.service loaded active exited Record System Boot/Shutdown in UTMP systemd-user-sessions.service loaded active exited Permit User Sessions ufw.service loaded active exited Uncomplicated firewall user-runtime-dir@0.service loaded active exited User Runtime Directory /run/user/0 user@0.service loaded active running User Manager for UID 0 LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type. 44 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'.
  • Youtube in Grav

    Grav
    1
    0 Stimmen
    1 Beiträge
    515 Aufrufe
    Niemand hat geantwortet