Skip to content

Bitwarden_RS auf einem Debian Buster 10 Server installieren!

Angeheftet Linux
  • Achtung: Die vorliegende Version funktioniert aktuell nicht unter Ubuntu 22.04!

  • Moin,
    wird auch ein aktualisiertes Update auf die Version 2.28.0 bereitgestellt?

  • @hase567 Ich glaube Du verwechselst da was. Die Bitwarden_RS (vaultwarden) Version 1.24.0 ist aktuell und dani-garcia hat noch keine neue Version veröffentlicht. https://github.com/dani-garcia/vaultwarden/releases

    Du meinst mit Version 2.28.0 das Original. Das wird dann vermutlich die Vorlage für das nächste Release vom dani-garcia.

    Ich denke, da müssen wir uns noch etwas in Geduld üben.

  • @FrankM
    ich meinte "Update web vault to 2.28.0"
    Habe mich falsch ausgedrückt 🙄

  • Es gibt mal wieder ein Update - aber keine neue Version!
    Was hat es damit auf sich?

    Das Paket "bitwarden-rs" ist jetzt nur noch ein Metapaket mit einer Abhängigkeit auf das neue Paket "vaultwarden". Beim nächsten Update ("apt update && apt upgrade") wird also Bitwarden_rs durch Vaultwarden ersetzt.

    Die Konfiguration und das Datenverzeichnis werden dabei vollständig migriert.
    Übrig bleiben lediglich die Verzeichnisse /etc/bitwarden_rs und /var/lib/bitwarden_rs, die nach erfolgreichem Test manuell gelöscht werden können.

    Neue Installationen (auch über das Paket "bitwarden-rs") installieren ab sofort immer Vaultwarden.

    Die Ubuntu 22.04 Kompatibilität ist nicht gelöst und damit meine nächste Baustelle...

  • @Nico sagte in Bitwarden_RS auf einem Debian Buster 10 Server installieren!:

    Es gibt mal wieder ein Update - aber keine neue Version!
    Was hat es damit auf sich?

    Das Paket "bitwarden-rs" ist jetzt nur noch ein Metapaket mit einer Abhängigkeit auf das neue Paket "vaultwarden". Beim nächsten Update ("apt update && apt upgrade") wird also Bitwarden_rs durch Vaultwarden ersetzt.

    Die Konfiguration und das Datenverzeichnis werden dabei vollständig migriert.
    Übrig bleiben lediglich die Verzeichnisse /etc/bitwarden_rs und /var/lib/bitwarden_rs, die nach erfolgreichem Test manuell gelöscht werden können.

    Neue Installationen (auch über das Paket "bitwarden-rs") installieren ab sofort immer Vaultwarden.

    Die Ubuntu 22.04 Kompatibilität ist nicht gelöst und damit meine nächste Baustelle...

    Ich habe es dann eben mal ausprobiert und es lief einwandfrei. Danke dafür. Außerdem habe ich den Eingangsthread an Vaultwarden angepasst. Den Titel lass ich mal so, evt. bau ich da am WE was zu.

  • Die Version 1.25.0 ist ab sofort im Repository verfügbar!

    Wurde die Migration von Bitwarden_rs zu Vaultwarden noch nicht mit Version 1.24 durchgeführt, kann es passieren, dass Vaultwarden 1.25 nicht startet.
    Dieser Fehler kann durch Löschen der Datei "/etc/vaultwarden/Rocket.toml" behoben werden:

    rm /etc/vaultwarden/Rocket.toml
    

    Die Rocket.toml wird nicht länger benötigt und kann gefahrlos entfernt werden.

    Schönes Wochenende!

  • @Nico ,
    Update erfolgreich durchgeführt 👍

    Vielen Dank für das Update!
    Andreas

  • Hallo,

    ich hatte eben einmal auf die neueste Version geupdatet und erhalte von meinem Reverseproxy den Fehler 500 und vom Vaultwarden Debian Server einen Server ist nicht erreichbar zurück.

    Mein derzeitiges System ist ein Debian 11.3 mit Vaultwarden 1.24.0.

    Wie gesagt nach dem Update bekomme ich keinen Seitenaufbau hin. Hat sich irgendetwas hinsichtlich des Webservers geändert? Ich habe auf dem Vaultwardenserver kein Nginx oder Apache laufen. Bisher hatte dies auch gut funktioniert.

    Weiß langsam nicht mehr wo ich suchen soll. Vielleicht kann mir ja jemand helfen...

    Grüße
    jascha

  • @skyacer Moin Jascha,
    sorry für die späte Rückmeldung. Existiert das Problem noch?

    Wenn ja, poste doch bitte einmal den Output der folgenden Befehle:

    ls -lha /etc/vaultwarden
    ps aux | grep warden
    netstat -tulpen | grep warden
    systemctl status vaultwarden.service
    
    

    Danke und beste Grüße!

  • Vaultwarden ist auf Version 1.25.2 aktualisiert. Danke @Nico

    vaultwarden -v
    vaultwarden 1.25.2
    

  • Moin,
    seit dem letzten Update hatte ich enorm viele Fehlermeldungen in den Logs. Nach etwas Recherche habe einen Hinweis gefunden.

    In der Nginx Vhost habe ich einen Eintrag hinzugefügt und somit waren die Fehlermeldungen verschwunden.

    proxy_http_version 1.1;

    Leider bin ich nicht der große Profi, vielleicht kann Nico oder jemand anderes das ganze mal anpassen!?

  • @hase567 Moin,

    wie lautete denn die Fehlermeldung? Kannst du die bitte mal posten?

    Gab es dadurch auch funktionelle Einschränkungen oder bist du lediglich über das Log darauf gestoßen?

    Beste Grüße und ein schönes Wochenende!
    Nico

  • @Nico
    es gab keine funktionellen Einschränkungen, bin nur über die Logfiles drauf gestoßen.
    Leider ist das Logfile nicht mehr vorhanden 😞
    Kann mich nur dran erinnern, das fast bei jedem Zugriff der Fehler aufgeführt wurde...

  • @hase567 Moin,

    ich verwende "leider" Apache und kann den Fehler daher nach reproduzieren. Vielleicht kannst du die genannte Option einmal auskommentieren, den Fehler reproduzieren und hier posten? Dann schaue ich mir das gerne mal an.

    Beste Grüße!

  • Die letzten Wochen etwas viel mit Python & PyWebIO beschäftigt, fast vergessen das hier zu erwähnen.

    Vaultwarden ist auf Version 1.26.0 aktualisiert. Danke @Nico

    :~# vaultwarden -v
    vaultwarden 1.26.0
    
  • Moin,
    danke fürs Update, werde es morgen einmal Updaten!

  • @Nico fleißig 😊 👍

    root@:~# vaultwarden -v
    vaultwarden 1.27.0
    
  • Moin!
    Update verlief ohne Probleme... Danke!

  • Danke @Nico

    root :~# vaultwarden -v
    vaultwarden 1.28.0
    

  • Manjaro Stable-Update vom 20.02.23

    Linux
    2
    0 Stimmen
    2 Beiträge
    89 Aufrufe
    FrankMF

    Ich konnte es nicht lassen, ich habe es mal getestet.

       ~  docker version  ✔  1m 37s  Client: Version: 23.0.1 API version: 1.42 Go version: go1.20 Git commit: a5ee5b1dfc Built: Sat Feb 11 13:58:04 2023 OS/Arch: linux/amd64 Context: default

    In der aktuellen systemd Datei steht folgendes drin. Bei mir zu finden unter /usr/lib/systemd/system/docker.service

    LimitNOFILE=infinity LimitNPROC=infinity LimitCORE=infinity

    Die override Dateien angelegt und durchgestartet. Läuft alles einwandfrei. Aber bitte fragt mich nicht, was dieser Wert da oben macht. Ich habe keine Ahnung.

    Update: Erklärung zu ulimits https://stackoverflow.com/questions/62127643/need-understand-ulimits-nofile-setting-in-host-and-container

  • Debian 11.5 released

    Linux
    1
    0 Stimmen
    1 Beiträge
    76 Aufrufe
    Niemand hat geantwortet
  • NGINX - Neue Domain bekannt machen

    NGINX
    1
    0 Stimmen
    1 Beiträge
    94 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux
    2
    0 Stimmen
    2 Beiträge
    393 Aufrufe
    FrankMF

    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen 🙂

    Den Anfang macht die

    ZFS-Replication

    Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools.

    root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool

    Wir erzeugen ein Dataset im datapool

    zfs create datapool/docs -o mountpoint=/docs

    Wir erzeugen eine Datei mit Inhalt

    echo "version 1" > /docs/data.txt

    Wir erzeugen einen Snapshot

    zfs snapshot datapool/docs@today

    Kontrolle

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K -

    Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test.

    zfs send datapool/docs@today | zfs receive Backup_Home/test

    Nun befinden sich die Daten in dem anderen ZFS-Pool

    root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt

    Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt 😉

    zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup

    Den Test reiche ich dann später nach.

    Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/

    ZFS inkrementelle Replication

    Als, nur die geänderten Daten senden!

    Wir erzeugen ein paar Dateien

    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt

    Neuer Snapshot

    zfs snapshot datapool/docs@17:02

    Liste der Snapshots

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K -

    Wir senden dieinkrementelle Replication

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot

    Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot.

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K

    Und Kontrolle

    ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt

    Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/

  • Hetzner Cloud - Server einrichten

    Linux
    6
    0 Stimmen
    6 Beiträge
    2k Aufrufe
    FrankMF

    Heute den Proxmox gekündigt. Warum? Das erzähle ich Euch die Tage......

    Damit ist das Projekt Umzug für mich abgschlossen.

    dffa4a7c-b5d3-4363-8d8b-39961021ff09-image.png

    Vier Server in der Hetzner Cloud machen jetzt da ihre Arbeit. Bis jetzt läuft das alles sehr geil, ich bin da echt von überzeugt. Würde ich mit dem Projekt Geld verdienen, würde ich das so nicht machen! Da käme nur ein eigener Root-Server in Frage. Aber, das soll mich bei meinen paar Hobby Seiten jetzt auch nicht stören. Da liegen sowieso keine Geheimnisse und alles was wichtig ist, lege ich eh verschlüsselt im Netz ab.

    Also, wenn ihr mal was sucht, hier ein wenig Werbung 🙂

    https://www.hetzner.de/cloud

  • Redis installieren

    Angeheftet Verschoben Redis
    1
    0 Stimmen
    1 Beiträge
    359 Aufrufe
    Niemand hat geantwortet
  • IPFire installieren

    Verschoben IPFire
    2
    0 Stimmen
    2 Beiträge
    1k Aufrufe
    B

    Hallo,
    interessant wird es bei mir schon, wenn ich die Netzwerkadapter in Virtualbox anlege.
    Als erstes die netzwerkbrücke mit dem intel server T.
    Als zweites: nat, mit intel desktop.
    Als drittes nat für blau mit Amd.
    Es gibt keine Fehler bis dahin.Aber ist das so auch richtig?Verzweifele an den Möglichkeiten und finde
    selten Antwort.
    Aber sehr schön dargestellt, eine virtuelle Firewall.
    Danke schön
    Benno

  • Redis Datenbank sichern

    Verschoben Redis
    1
    0 Stimmen
    1 Beiträge
    749 Aufrufe
    Niemand hat geantwortet