Skip to content

Bitwarden_RS auf einem Debian Buster 10 Server installieren!

Angeheftet Linux
  • Ich hatte heute im Admininterface mal reingeschaut. Da stand die Version noch auf 1.27 und nicht auf 1.28. Ok, kein Problem, einmal neustarten und gut.

    systemctl restart vaultwarden
    

    Ok, danach startete er nicht mehr! Gar nicht! 🤔

    Der Fehler

    Mar 31 22:31:35 bitwarden vaultwarden[1614]: Error loading config:
    Mar 31 22:31:35 bitwarden vaultwarden[1614]: Unable to write to log file. /var/log/vaultwarden/vaultwarden.log
    

    Es hat erst etwas gedauert, bis mich @Nico auf die Idee brachte das Logging, welches ich umgebogen hatte, wieder auf syslog zu stellen.

    Ich nutze normalerweise folgendes

    LOG_FILE=/var/log/vaultwarden/vaultwarden.log
    USE_SYSLOG=false
    

    Ok, dann mal geändert. Danach startete Vaultwarden wieder. Das sieht nach einem Bug aus, weil egal was man an Benutzerrechten einstellt er schreibt nicht in das Logfile. Aktuell denke ich, es ist ein 🐛

    Update: Lösung -> https://linux-nerds.org/topic/1373/vaultwarden-systemd

  • Es haben sich ein paar Dinge geändert.

    Admin Login

    Das steht normalerweise in der config.env und aktiviert den Admin-Zugang.

    ADMIN_TOKEN=PASSWORD
    

    Er meckert jetzt, das PW wäre als Plaintext gespeichert. Das kann man ändern . Dazu in der Konsole folgendes eingeben

    vaultwarden hash
    

    Ausgabe

    root@:~# vaultwarden hash
    Generate an Argon2id PHC string using the 'bitwarden' preset:
    
    Password: 
    Confirm Password: 
    
    ADMIN_TOKEN='$argon2id$v....................................'
    

    Die Zeile mit ADMIN_TOKEN kopieren und in die config.env einfügen. Danach meckerte er immer noch.

    In der config.json muss der Admin Token entfernt werden! Danach funktionierte es, wie erwartet.

  • Unter Account Settings / Security / Keys findet man folgendes.

    adea18a8-9f88-49c4-b1cf-fcfca89d0c94-grafik.png

    Setzt mal bitte den PW Hash von PBKDF2 auf Argon2id um. Das soll den Brute Force des Passwortes extrem erschweren.

    Links zum Thema

    Danke @Nico für die Tipps.

  • @Nico war schnell heute 😊

  • Vielen Dank für das Update!!

  • Hi,
    ich wollte auf einem neuen Server Vaultwarden installieren, leider erhalte ich folgende Fehlermeldung:
    Das Laden der konfigurierten Datei »main/binary-arm64/Packages« wird übersprungen, da das Depot »http://bitwarden-deb.tech-network.de buster InRelease« die Architektur »arm64« nicht unterstützt.

    Gibt es dafür eine Lösung?

  • Hallo @hase567

    du hast einen Server auf ARM Basis (eine der neuen Hetzner Ampere Altra Instanzen?) und das Paket ist aktuell ausschließlich für x86/amd64 gebaut.
    Aktuell gibt es dafür keine Lösung. Ich kann mir bei Gelegenheit gerne mal anschauen, was es an Aufwand bedeutet, ein arm64 Paket zu bauen. Ich bitte dafür allerdings noch um etwas Geduld.

  • Hallo @hase567

    du hast einen Server auf ARM Basis (eine der neuen Hetzner Ampere Altra Instanzen?) und das Paket ist aktuell ausschließlich für x86/amd64 gebaut.
    Aktuell gibt es dafür keine Lösung. Ich kann mir bei Gelegenheit gerne mal anschauen, was es an Aufwand bedeutet, ein arm64 Paket zu bauen. Ich bitte dafür allerdings noch um etwas Geduld.

    @Nico
    ja genau so ist es. Es ist der neue Hetzner Ampere Server.

    Dachte mir schon das es daran liegt 🙄
    So ein mist...

  • Immerhin habe ich es jetzt endlich geschafft Support für neuere Distributionen einzubauen.
    Debian 12 (bookworm) und Ubuntu 22.04 werden nun ebenfalls unterstützt!

    Es muss lediglich die Distribution in der vaultwarden.list/sources.list von "buster" auf "bookworm" geändert werden, wenn man Debian 12 oder Ubuntu 22.04 einsetzt.

    Wie das funktioniert, steht in der aktualisierten Anleitung auf der Webseite des Repositories:
    bitwarden-deb.tech-network.de

    Bei Fragen oder Problemen gerne melden!

  • Immerhin habe ich es jetzt endlich geschafft Support für neuere Distributionen einzubauen.
    Debian 12 (bookworm) und Ubuntu 22.04 werden nun ebenfalls unterstützt!

    Es muss lediglich die Distribution in der vaultwarden.list/sources.list von "buster" auf "bookworm" geändert werden, wenn man Debian 12 oder Ubuntu 22.04 einsetzt.

    Wie das funktioniert, steht in der aktualisierten Anleitung auf der Webseite des Repositories:
    bitwarden-deb.tech-network.de

    Bei Fragen oder Problemen gerne melden!

    @Nico
    Suuuper, und vielen Dank für deine Updates...

    Jetzt fehlt nur noch das ARM-Update 😉 dann ist es Perfekt.

  • Hier findest du ein Testpaket der aktuellen Vaultwarden Version für arm64:
    https://bitwarden-deb.tech-network.de/testing/arm64/

    Einfach herunterladen und mittels dpkg -i <Dateiname> installieren.
    Ich freue mich wie immer über Feedback.

    Achtung: Es handelt sich um eine Testversion.
    Wenn die Version wie erwartert funktioniert, kann ich diese gerne regelmäßig bauen.

  • Hier findest du ein Testpaket der aktuellen Vaultwarden Version für arm64:
    https://bitwarden-deb.tech-network.de/testing/arm64/

    Einfach herunterladen und mittels dpkg -i <Dateiname> installieren.
    Ich freue mich wie immer über Feedback.

    Achtung: Es handelt sich um eine Testversion.
    Wenn die Version wie erwartert funktioniert, kann ich diese gerne regelmäßig bauen.

    @Nico
    Wie Geil ist das denn ...

    Habe es eben installiert und grob eingerichtet. Funzt bisher ohne Probleme 👍
    Werde natürlich noch weiter probieren.

    Ist das Paket denn Safe?

  • "Safe" im Sinne von sicher? Ja, ich habe es aus dem gleichen Sourcecode gebaut wie die anderen Versionen.

    "Safe" im Sinne von fehlerfrei? Vermutlich. Da ich das gerade zwischendurch "mal so" gebastelt habe, teste ich aber selbst noch einmal ausgiebig, bevor ich es offiziell mit ins Repository aufnehme.

    Freut mich zu hören, dass es bei dir funktioniert!

  • Sollte ich noch warten bis du das offiziell ins Repository aufnimmst oder kann ich das jetzige Paket nutzen?

  • Du kannst das bereits nutzen.

  • Hi,
    der vaultwarden-Status des ARM-Paket zeigt mir folgende Meldung:
    [rocket::server::_][WARN] Responding with registered (not_found) 404 catcher

  • Hi,
    der vaultwarden-Status des ARM-Paket zeigt mir folgende Meldung:
    [rocket::server::_][WARN] Responding with registered (not_found) 404 catcher

    @hase567 Ich steige voraussichtlich am Wochenende ins Testen mit ein. Server bei Hetzner läuft schon. Bist Du auf Deb 11 oder 12?

  • @hase567 Ich steige voraussichtlich am Wochenende ins Testen mit ein. Server bei Hetzner läuft schon. Bist Du auf Deb 11 oder 12?

    @FrankM aktuell nutze ich Debian11
    Kann die Ampere Server bisher nur empfehlen. Nutze u.a. wie hier beschrieben Vaultwarden, Uptime-Kuma sowie Wordpress. Wird alles via Cloudpanel (cloudpanel.io) gesteuert 😀

  • Habe heute schon mal den Login-Screen gesehen. Ich habe den Server aber auf Bookworm hochgezogen 😉
    Hoffe das ich am WE Zeit für das Feintuning habe, dann ziehe ich mal die DB um und schaue wie es so läuft.

  • Der Vaultwarden läuft jetzt auf einem Arm64 Server (CAX11) von Hetzner - bis jetzt ohne Probleme. Habe jetzt auch den Vault im FF umgestellt um ihn produktiv zu nutzen / testen.

    Bei der Installation des Debian Paketes kam das hier

    Adding new group `vaultwarden' (GID 113) ...
    configuration error - unknown item 'NONEXISTENT' (notify administrator)
    configuration error - unknown item 'PREVENT_NO_AUTH' (notify administrator)
    Adding new user `vaultwarden' (UID 106) with group `vaultwarden' ...
    configuration error - unknown item 'NONEXISTENT' (notify administrator)
    configuration error - unknown item 'PREVENT_NO_AUTH' (notify administrator)
    Creating home directory `/var/lib/vaultwarden' ...
    

    Das hat sich aber, zumindestens bis jetzt, nicht negativ ausgewirkt.

    Kernel Version

    root@vaultwarden:~# uname -a
    Linux vaultwarden-4gb-fsn1-1 6.1.0-7-arm64 #1 SMP Debian 6.1.20-2 (2023-04-08) aarch64 GNU/Linux
    

    Debian Version

    root@vaultwarden:/etc# cat debian_version 
    12.0
    

    Anmerkung

    NGINX ist noch aus dem Debian Repo installiert. Normalerweise installiere ich von der NGINX Seite den Stable Release. Aber für Bookworm stand noch nichts zur Verfügung. Kommt dann sicherlich im Juni, wenn der Release von Debian Bookworm 12 ist.

    Warnung

    Debian Bookworm 12 ist noch nicht für den produktiven Einsatz vorgesehen! Also, auf eigenes Risiko testen!!

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • fail2ban auf einem systemd System (Debian 12)

    Linux linux fail2ban
    2
    0 Stimmen
    2 Beiträge
    90 Aufrufe
    FrankMF
    Auf Debian 13 Trixie fehlt noch folgendes apt install python3-setuptools
  • Update 1.31.0 released

    Vaultwarden vaultwarden linux
    1
    1
    0 Stimmen
    1 Beiträge
    190 Aufrufe
    Niemand hat geantwortet
  • 0 Stimmen
    1 Beiträge
    3k Aufrufe
    Niemand hat geantwortet
  • Pycharm - Umzug auf neuen Rechner

    Linux pycharm linux python
    1
    0 Stimmen
    1 Beiträge
    125 Aufrufe
    Niemand hat geantwortet
  • Pycharm & Docker

    Verschoben Linux pycharm docker linux
    1
    4
    0 Stimmen
    1 Beiträge
    301 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux zfs linux
    2
    0 Stimmen
    2 Beiträge
    849 Aufrufe
    FrankMF
    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen Den Anfang macht die ZFS-Replication Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools. root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool Wir erzeugen ein Dataset im datapool zfs create datapool/docs -o mountpoint=/docs Wir erzeugen eine Datei mit Inhalt echo "version 1" > /docs/data.txt Wir erzeugen einen Snapshot zfs snapshot datapool/docs@today Kontrolle root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K - Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test. zfs send datapool/docs@today | zfs receive Backup_Home/test Nun befinden sich die Daten in dem anderen ZFS-Pool root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup Den Test reiche ich dann später nach. Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/ ZFS inkrementelle Replication Als, nur die geänderten Daten senden! Wir erzeugen ein paar Dateien root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt Neuer Snapshot zfs snapshot datapool/docs@17:02 Liste der Snapshots root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K - Wir senden dieinkrementelle Replication zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot. zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K Und Kontrolle ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/
  • ZFS - One Disk Pool -> Mirror Pool

    Linux linux zfs
    1
    0 Stimmen
    1 Beiträge
    202 Aufrufe
    Niemand hat geantwortet
  • mdadm

    Verschoben Linux linux
    5
    0 Stimmen
    5 Beiträge
    487 Aufrufe
    FrankMF
    Nachdem ich die SATA-Karte gewechselt habe, sind meine Probleme verschwunden. Mein NAS läuft seit Monaten einwandfrei. rock64@rp64v_2_1_NAS:~$ uptime 21:57:50 up 73 days, 4:44, 1 user, load average: 0,00, 0,00, 0,00 https://forum.frank-mankel.org/topic/299/sata-karte-marvell-88se9230-chipsatz/16