Skip to content

Bitwarden_RS auf einem Debian Buster 10 Server installieren!

Angeheftet Linux
  • @hase567 Moin,

    wie lautete denn die Fehlermeldung? Kannst du die bitte mal posten?

    Gab es dadurch auch funktionelle Einschränkungen oder bist du lediglich über das Log darauf gestoßen?

    Beste Grüße und ein schönes Wochenende!
    Nico

    @Nico
    es gab keine funktionellen Einschränkungen, bin nur über die Logfiles drauf gestoßen.
    Leider ist das Logfile nicht mehr vorhanden 😞
    Kann mich nur dran erinnern, das fast bei jedem Zugriff der Fehler aufgeführt wurde...

  • @Nico
    es gab keine funktionellen Einschränkungen, bin nur über die Logfiles drauf gestoßen.
    Leider ist das Logfile nicht mehr vorhanden 😞
    Kann mich nur dran erinnern, das fast bei jedem Zugriff der Fehler aufgeführt wurde...

    @hase567 Moin,

    ich verwende "leider" Apache und kann den Fehler daher nach reproduzieren. Vielleicht kannst du die genannte Option einmal auskommentieren, den Fehler reproduzieren und hier posten? Dann schaue ich mir das gerne mal an.

    Beste Grüße!

  • Die letzten Wochen etwas viel mit Python & PyWebIO beschäftigt, fast vergessen das hier zu erwähnen.

    Vaultwarden ist auf Version 1.26.0 aktualisiert. Danke @Nico

    :~# vaultwarden -v
    vaultwarden 1.26.0
    
  • Moin,
    danke fürs Update, werde es morgen einmal Updaten!

  • @Nico fleißig 😊 👍

    root@:~# vaultwarden -v
    vaultwarden 1.27.0
    
  • Moin!
    Update verlief ohne Probleme... Danke!

  • Danke @Nico

    root :~# vaultwarden -v
    vaultwarden 1.28.0
    
  • Ich hatte heute im Admininterface mal reingeschaut. Da stand die Version noch auf 1.27 und nicht auf 1.28. Ok, kein Problem, einmal neustarten und gut.

    systemctl restart vaultwarden
    

    Ok, danach startete er nicht mehr! Gar nicht! 🤔

    Der Fehler

    Mar 31 22:31:35 bitwarden vaultwarden[1614]: Error loading config:
    Mar 31 22:31:35 bitwarden vaultwarden[1614]: Unable to write to log file. /var/log/vaultwarden/vaultwarden.log
    

    Es hat erst etwas gedauert, bis mich @Nico auf die Idee brachte das Logging, welches ich umgebogen hatte, wieder auf syslog zu stellen.

    Ich nutze normalerweise folgendes

    LOG_FILE=/var/log/vaultwarden/vaultwarden.log
    USE_SYSLOG=false
    

    Ok, dann mal geändert. Danach startete Vaultwarden wieder. Das sieht nach einem Bug aus, weil egal was man an Benutzerrechten einstellt er schreibt nicht in das Logfile. Aktuell denke ich, es ist ein 🐛

    Update: Lösung -> https://linux-nerds.org/topic/1373/vaultwarden-systemd

  • Es haben sich ein paar Dinge geändert.

    Admin Login

    Das steht normalerweise in der config.env und aktiviert den Admin-Zugang.

    ADMIN_TOKEN=PASSWORD
    

    Er meckert jetzt, das PW wäre als Plaintext gespeichert. Das kann man ändern . Dazu in der Konsole folgendes eingeben

    vaultwarden hash
    

    Ausgabe

    root@:~# vaultwarden hash
    Generate an Argon2id PHC string using the 'bitwarden' preset:
    
    Password: 
    Confirm Password: 
    
    ADMIN_TOKEN='$argon2id$v....................................'
    

    Die Zeile mit ADMIN_TOKEN kopieren und in die config.env einfügen. Danach meckerte er immer noch.

    In der config.json muss der Admin Token entfernt werden! Danach funktionierte es, wie erwartet.

  • Unter Account Settings / Security / Keys findet man folgendes.

    adea18a8-9f88-49c4-b1cf-fcfca89d0c94-grafik.png

    Setzt mal bitte den PW Hash von PBKDF2 auf Argon2id um. Das soll den Brute Force des Passwortes extrem erschweren.

    Links zum Thema

    Danke @Nico für die Tipps.

  • @Nico war schnell heute 😊

  • Vielen Dank für das Update!!

  • Hi,
    ich wollte auf einem neuen Server Vaultwarden installieren, leider erhalte ich folgende Fehlermeldung:
    Das Laden der konfigurierten Datei »main/binary-arm64/Packages« wird übersprungen, da das Depot »http://bitwarden-deb.tech-network.de buster InRelease« die Architektur »arm64« nicht unterstützt.

    Gibt es dafür eine Lösung?

  • Hallo @hase567

    du hast einen Server auf ARM Basis (eine der neuen Hetzner Ampere Altra Instanzen?) und das Paket ist aktuell ausschließlich für x86/amd64 gebaut.
    Aktuell gibt es dafür keine Lösung. Ich kann mir bei Gelegenheit gerne mal anschauen, was es an Aufwand bedeutet, ein arm64 Paket zu bauen. Ich bitte dafür allerdings noch um etwas Geduld.

  • Hallo @hase567

    du hast einen Server auf ARM Basis (eine der neuen Hetzner Ampere Altra Instanzen?) und das Paket ist aktuell ausschließlich für x86/amd64 gebaut.
    Aktuell gibt es dafür keine Lösung. Ich kann mir bei Gelegenheit gerne mal anschauen, was es an Aufwand bedeutet, ein arm64 Paket zu bauen. Ich bitte dafür allerdings noch um etwas Geduld.

    @Nico
    ja genau so ist es. Es ist der neue Hetzner Ampere Server.

    Dachte mir schon das es daran liegt 🙄
    So ein mist...

  • Immerhin habe ich es jetzt endlich geschafft Support für neuere Distributionen einzubauen.
    Debian 12 (bookworm) und Ubuntu 22.04 werden nun ebenfalls unterstützt!

    Es muss lediglich die Distribution in der vaultwarden.list/sources.list von "buster" auf "bookworm" geändert werden, wenn man Debian 12 oder Ubuntu 22.04 einsetzt.

    Wie das funktioniert, steht in der aktualisierten Anleitung auf der Webseite des Repositories:
    bitwarden-deb.tech-network.de

    Bei Fragen oder Problemen gerne melden!

  • Immerhin habe ich es jetzt endlich geschafft Support für neuere Distributionen einzubauen.
    Debian 12 (bookworm) und Ubuntu 22.04 werden nun ebenfalls unterstützt!

    Es muss lediglich die Distribution in der vaultwarden.list/sources.list von "buster" auf "bookworm" geändert werden, wenn man Debian 12 oder Ubuntu 22.04 einsetzt.

    Wie das funktioniert, steht in der aktualisierten Anleitung auf der Webseite des Repositories:
    bitwarden-deb.tech-network.de

    Bei Fragen oder Problemen gerne melden!

    @Nico
    Suuuper, und vielen Dank für deine Updates...

    Jetzt fehlt nur noch das ARM-Update 😉 dann ist es Perfekt.

  • Hier findest du ein Testpaket der aktuellen Vaultwarden Version für arm64:
    https://bitwarden-deb.tech-network.de/testing/arm64/

    Einfach herunterladen und mittels dpkg -i <Dateiname> installieren.
    Ich freue mich wie immer über Feedback.

    Achtung: Es handelt sich um eine Testversion.
    Wenn die Version wie erwartert funktioniert, kann ich diese gerne regelmäßig bauen.

  • Hier findest du ein Testpaket der aktuellen Vaultwarden Version für arm64:
    https://bitwarden-deb.tech-network.de/testing/arm64/

    Einfach herunterladen und mittels dpkg -i <Dateiname> installieren.
    Ich freue mich wie immer über Feedback.

    Achtung: Es handelt sich um eine Testversion.
    Wenn die Version wie erwartert funktioniert, kann ich diese gerne regelmäßig bauen.

    @Nico
    Wie Geil ist das denn ...

    Habe es eben installiert und grob eingerichtet. Funzt bisher ohne Probleme 👍
    Werde natürlich noch weiter probieren.

    Ist das Paket denn Safe?

  • "Safe" im Sinne von sicher? Ja, ich habe es aus dem gleichen Sourcecode gebaut wie die anderen Versionen.

    "Safe" im Sinne von fehlerfrei? Vermutlich. Da ich das gerade zwischendurch "mal so" gebastelt habe, teste ich aber selbst noch einmal ausgiebig, bevor ich es offiziell mit ins Repository aufnehme.

    Freut mich zu hören, dass es bei dir funktioniert!

  • Forgejo Installation mit Restic nach Hetzner S3 sichern

    Restic restic linux forgejo
    2
    2
    0 Stimmen
    2 Beiträge
    241 Aufrufe
    FrankMF
    Ich habe ja im obigen Beispiel, den gesamten Ordner von der Postgres Installation gesichert. backup_pfad_postgres="/home/pguser/db-data" Ich habe dann mal ein wenig in der Dokumentation gelesen und das hier gefunden. https://www.postgresql.org/docs/current/app-pgdump.html Einfach den Ordner zu sichern, ist ja bei jeder Datenbank ein gewisses Risiko. Die Konsistenz der Daten ist nicht gesichert. Darum gibt es bei den Datenbanken auch immer Tools, mit denen man die Daten sichern kann. In der Doku steht folgendes. pg_dump — extract a PostgreSQL database into a script file or other archive file Aber wichtiger ist das hier. pg_dump is a utility for backing up a PostgreSQL database. It makes consistent backups even if the database is being used concurrently. pg_dump does not block other users accessing the database (readers or writers). Das macht also konsistente Backups. Wichtig noch zu wissen ist folgendes. pg_dump only dumps a single database. To back up an entire cluster, or to back up global objects that are common to all databases in a cluster (such as roles and tablespaces), use pg_dumpall. Ok, das scheint gut geeignet zu sein, um die Datenbank zu sichern. Aber, wie? Auf meinen Eingangsbeitrag kam es zu folgendem Dialog auf Mastodon. https://nrw.social/deck/@nebucatnetzer@social.linux.pizza/114132208440509237 Das war der Anstoß sich mit dem Thema zu beschäftigen. Und ich hatte dann folgende Lösung. podman exec -it postgres pg_dump -U postgres -f /var/lib/postgresql/data/dump.txt Ok, was mache ich hier? Wir führen einen Befehl vom Host aus gesehen, im Container aus. podman exec -it postgres Der Teil führt den folgenden Befehl im Container aus. pg_dump -U postgres -f /var/lib/postgresql/data/dump.txt pg_dump - Das Tool fürs Backup -U postgres - Der Befehl wird als User postgres ausgeführt -f /var/lib/postgresql/data/dump.txt - Das Dump File wird im Data Ordner abgelegt, den haben wir ja persistent auf dem Host. Somit kann ich das jetzt einfach in mein Backup Script einbauen und brauchen nicht mehr den ganzen Ordner zu kopieren, sondern nur noch das Dump File. Ich werde diese Änderungen in das obige Script einbauen.
  • Standby Problem mit Mediatek MT7921e

    Linux linux mediatek mt7921e
    1
    0 Stimmen
    1 Beiträge
    243 Aufrufe
    Niemand hat geantwortet
  • Fedora 40

    Linux fedora kde plasma6 linux btrfs
    2
    8
    0 Stimmen
    2 Beiträge
    331 Aufrufe
    FrankMF
    Ja, der Btrfs Assistant ist doch ein klasse Tool Heute mal weiter mit rum gespielt. Man muss natürlich auch für die Home-Partition eine Konfiguration anlegen. [image: 1724169277045-config_home.png] Danach mal getestet, ob das auch klappt. Einen neuen Ordner unter /home/frank angelegt. Davor hatte ich einen Snapshot angelegt. [image: 1724169282591-snapshots-home.png] Danach den Snapshot vor der Erstellung des Ordners wieder hergestellt. Dann wird man zu einem Reboot aufgefordert. Also neugestartet und der Ordner ist wieder weg. Irgendwie mag ich diese Funktion
  • Rest-Server Version 0.12.1 released

    Linux rest-server restic linux
    1
    0 Stimmen
    1 Beiträge
    122 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux zfs linux
    2
    0 Stimmen
    2 Beiträge
    849 Aufrufe
    FrankMF
    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen Den Anfang macht die ZFS-Replication Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools. root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool Wir erzeugen ein Dataset im datapool zfs create datapool/docs -o mountpoint=/docs Wir erzeugen eine Datei mit Inhalt echo "version 1" > /docs/data.txt Wir erzeugen einen Snapshot zfs snapshot datapool/docs@today Kontrolle root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K - Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test. zfs send datapool/docs@today | zfs receive Backup_Home/test Nun befinden sich die Daten in dem anderen ZFS-Pool root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup Den Test reiche ich dann später nach. Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/ ZFS inkrementelle Replication Als, nur die geänderten Daten senden! Wir erzeugen ein paar Dateien root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt Neuer Snapshot zfs snapshot datapool/docs@17:02 Liste der Snapshots root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K - Wir senden dieinkrementelle Replication zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot. zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K Und Kontrolle ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/
  • Nextcloud - Upgrade auf 19.0.1

    Nextcloud nextcloud linux
    1
    1
    0 Stimmen
    1 Beiträge
    258 Aufrufe
    Niemand hat geantwortet
  • Kopia - Mounten einer Sicherung

    Verschoben Kopia kopia linux
    1
    1
    0 Stimmen
    1 Beiträge
    237 Aufrufe
    Niemand hat geantwortet
  • nginx konfigurieren

    NodeBB nodebb nginx linux
    1
    0 Stimmen
    1 Beiträge
    656 Aufrufe
    Niemand hat geantwortet