Skip to content

FreeOTP+

Linux
3 2 678
  • Am Anfang hatte ich den Google Authenticator genutzt. Irgendwann wurden dann bei mir viele Google Dienste entfernt. Danach habe ich Authy benutzt. Bei einem Vortrag auf den letzten Chemnitzer Linux Tagen dann FreeOTP+ kennen gelernt.

    Warum ich Euch das erzähle? Ich habe ein neues Smartphone und damit fingen die Probleme an.

    Ich musste Authy umziehen, das erwies sich aber als nicht lösbare Aufgabe - für mich. Hintergrund ist wohl ein SIM Card Wechsel, was nun zu einer falschen Telefonnummer führte. Alle angebotenen Lösungswege von Authy führten nicht zum Erfolg.

    Ok, Authy funktionierte noch auf dem alten Smartphone, so das ich alles umziehen konnte. Ein relativ hoher Aufwand, wenn man viele Dienste so sichert. Und ich nutze das bei sehr vielen Diensten...

    FreeOTP+ hatte ich schon vor dem Neukauf mal ausprobiert, aber nicht wirklich genutzt. Das soll jetzt in Zukunft anders werden, hier warum...

    freeOTP.png
    Bildquelle: https://play.google.com/store/apps/details?id=org.liberty.android.freeotpplus&hl=en_US&gl=US

    Ich habe also mühsam alle meine Token umgezogen, dazu musste ich dann im entsprechenden Dienst den 2FA deaktivieren und wieder neu erstellen. Gut, so konnte man direkt testen, ob das auch alles noch klappt.

    Nachdem ich dann die wichtigsten Dienste umgezogen hatte, stellte sich die Frage

    Wie verhindere ich das beim nächsten Mal!??

    FreeOTP+ hat dazu Export Funktionen. Damit kann man sich die Daten z.B. als JSON exportieren lassen. Das habe ich dann mal ausprobiert. JSON läßt sich mit dem Tool jq übrigens prima anzeigen.

    jq - Leichtgewichtiger und flexibler JSON-Prozessor für die Kommandozeile

    apt install jq
    

    Hier mal ein kleiner Einblick.

    frank@:~$ jq . /home/frank/Schreibtisch/freeotp-backup.json
    {
      "tokenOrder": [
        "GitHub:ACCOUNT",
        ....
      ],
      "tokens": [
        {
          "algo": "SHA1",
          "counter": 0,
          "digits": 6,
          "issuerExt": "GitHub",
          "issuerInt": "GitHub",
          "label": "ACCOUNT",
          "period": 30,
          "secret": [
            99,
            99,
            99,
            99,
            99,
            99,
            99,
            99,
            99,
            82
          ],
          "type": "TOTP"
        },
    

    So, sieht das dann aus. Das kann man dann in einem anderen FreeOTP+ wieder importieren. Damit wir das auch wissen, habe ich das kurz mal auf dem alten Smartphone gegen geprüft. Funktioniert einwandfrei.

    Somit wieder ein kommerzielles cloudbasiertes Tool, wo ich keine Kontrolle habe, weniger im Einsatz 🙂

  • Alles richtig gemacht 🙂
    Das ging mir letztes Jahr ähnlich und ich bin begeistert von FreeOTP+ > weil sich Plattformübergreifend meine Tokens importieren ließen. Kein Vergleich zu dem kommerziellen Schrott, wie Google oder Authy, bei denen man, wenn nicht bereits nicht mehr funktionsfähig aus diversen Gründen, so zumindest immer in Gefahr ist, dass plötzlich aufgrund einer neuen Regelung, der Dienst oder die Software abgeschaltet ist. So ging es mir bei Authy auf meinem Linux-Rechner.
    Nun, es war Anstoss etwas wesentlich besseres zu finden! 🙂

    Grüße an Alle,
    und herzlichen Dank an alle fleißigen Entwickler, die unser Leben besser machen!

  • Falls mal jemand von FreeOTP+ zum Bitwarden Authenticator wechseln möchte, ich habe da mal was gebaut 😉

  • Every Ubuntu Linux default wallpaper

    Linux linux 29. Mai 2025, 16:21
    1
    0 Stimmen
    6 Beiträge
    128 Aufrufe
    > Ubuntu 8.10 Intrepid Ibex also had its namesake animal on the default wallpaper, but more subtle than the last release. That was an Ibex? All this time I thought it was a coffee stain.
  • Update 1.32.6

    Vaultwarden vaultwarden linux 11. Dez. 2024, 17:55
    0 Stimmen
    1 Beiträge
    165 Aufrufe
    Niemand hat geantwortet
  • Restic v0.17.3 released

    Linux restic linux 10. Nov. 2024, 14:59
    0 Stimmen
    1 Beiträge
    181 Aufrufe
    Niemand hat geantwortet
  • 0 Stimmen
    2 Beiträge
    2k Aufrufe
    Ok, ich war leider nicht in der Lage den CODE-Server hinter einem Proxy zu installieren. Das CODE-Team scheint Docker zu lieben und das andere nur am Rande zu machen. Ohne Liebe Da ich extrem lange Ladezeiten hatte und die Software insgesamt nicht den Eindruck machte, das man das gerne produktiv auf einem Server nutzen möchte, habe ich den Server eben wieder gelöscht. Jetzt fehlt mir leider, die deepl.com Anbindung, aber das kann man ja auch über die Webseite nutzen. Ich nutze jetzt wieder den eingebauten CODE-Server, der eigentlich ein App-Image ist. [image: 1694677466020-28c41010-5ce1-4f7c-89d5-1c9b253011d0-grafik.png] Der klare Vorteil, es läuft incl. Dokumenten Freigabe Nicht vergessen, unter Allow list for WOPI requests kommen die Server Adressen des Nextcloud-Webservers rein! [image: 1694677621827-c1a06c2c-86b5-4750-a062-7ba9d8dd8253-grafik.png]
  • 0 Stimmen
    9 Beiträge
    674 Aufrufe
    Ergänzt um eine automatische Übernahme der Tags aus dem Forum. Man muss den Beiträgen in Mastodon ja auch Reichweite geben
  • NodeBB - Upgrade auf v1.19.3

    NodeBB nodeb linux 16. Feb. 2022, 19:45
    0 Stimmen
    1 Beiträge
    141 Aufrufe
    Niemand hat geantwortet
  • 10G

    Linux 10g linux 27. Okt. 2021, 14:33
    0 Stimmen
    2 Beiträge
    228 Aufrufe
    Bedingt durch ein paar Probleme mit der Forensoftware, habe ich einen kleinen Datenverlust erlitten. Dazu gehören auch hier einige Beiträge. Dann versuche ich das mal zu rekonstruieren. Oben hatten wir das SFP+ Modul ja getestet. Als nächsten Schritt habe ich die ASUS XG-C100F 10G SFP+ Netzwerkkarte in meinen Hauptrechner verbaut. [image: 1635752117002-20211028_162455_ergebnis.jpg] Die Verbindung zum Zyxel Switch erfolgt mit einem DAC-Kabel. Im Video zum Zyxel Switch wurde schön erklärt, das die DAC Verbindung stromsparender als RJ45 Adapter sind. Somit fiel die Wahl auf die DAC Verbindungen. Hier nochmal das Video. https://www.youtube.com/watch?v=59I-RlliRms So sieht so ein DAC Verbindungskabel aus. Die SFP+ Adapter sind direkt daran montiert. [image: 1635752308951-20211028_170118_ergebnis.jpg] ethtool root@frank-MS-7C37:/home/frank# ethtool enp35s0 Settings for enp35s0: Supported ports: [ FIBRE ] Supported link modes: 100baseT/Full 1000baseT/Full 10000baseT/Full 2500baseT/Full 5000baseT/Full Supported pause frame use: Symmetric Receive-only Supports auto-negotiation: Yes Supported FEC modes: Not reported Advertised link modes: 100baseT/Full 1000baseT/Full 10000baseT/Full 2500baseT/Full 5000baseT/Full Advertised pause frame use: Symmetric Advertised auto-negotiation: Yes Advertised FEC modes: Not reported Speed: 10000Mb/s Duplex: Full Port: FIBRE PHYAD: 0 Transceiver: internal Auto-negotiation: on Supports Wake-on: pg Wake-on: g Current message level: 0x00000005 (5) drv link Link detected: yes iperf3 ----------------------------------------------------------- Server listening on 5201 ----------------------------------------------------------- Accepted connection from 192.168.3.207, port 44570 [ 5] local 192.168.3.213 port 5201 connected to 192.168.3.207 port 44572 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 1.10 GBytes 9.43 Gbits/sec 46 1.59 MBytes [ 5] 1.00-2.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.60 MBytes [ 5] 2.00-3.00 sec 1.10 GBytes 9.42 Gbits/sec 3 1.60 MBytes [ 5] 3.00-4.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.60 MBytes [ 5] 4.00-5.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.61 MBytes [ 5] 5.00-6.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.63 MBytes [ 5] 6.00-7.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.63 MBytes [ 5] 7.00-8.00 sec 1.09 GBytes 9.41 Gbits/sec 0 1.68 MBytes [ 5] 8.00-9.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.68 MBytes [ 5] 9.00-10.00 sec 1.10 GBytes 9.42 Gbits/sec 0 1.68 MBytes [ 5] 10.00-10.02 sec 22.5 MBytes 9.45 Gbits/sec 0 1.68 MBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.02 sec 11.0 GBytes 9.42 Gbits/sec 49 sender
  • Kopia - HTTP/S Server

    Verschoben Kopia kopia linux 31. Juli 2020, 17:06
    2
    0 Stimmen
    3 Beiträge
    2k Aufrufe
    Ich hatte ein paar Probleme, die ich mir teilweise nicht erklären kann Ich möchte den Kopia Server gerne über systemd steuern. SystemD [Unit] Description=Kopia Server After=syslog.target After=network.target [Service] Type=simple User=kopia Group=kopia ExecStart=/usr/bin/kopia server --tls-cert-file /home/kopia-server/fullchain.pem --tls-key-file /home/kopia-server/privkey.pem --htpasswd-file /home/kopia-server/.htpasswd --address <IPv4>:51515 Restart=always RestartSec=5 [Install] WantedBy=multi-user.target Danach systemctl daemon-reload systemctl start kopia-server Mit systemctl status kopia-server kann man sich den Status anzeigen lassen. Client Rechner Auf dem Client, der das Backup zum Server schicken soll, machen wir dann folgendes. USER@HOSTNAME:~$ kopia repo connect server --url=https://<DOMAIN>:51515 --override-username=USER --override-hostname=HOSTNAME Enter password to open repository: Connected to repository API Server. NOTICE: Kopia will check for updates on GitHub every 7 days, starting 24 hours after first use. To disable this behavior, set environment variable KOPIA_CHECK_FOR_UPDATES=false Alternatively you can remove the file "/home/frank/.config/kopia/repository.config.update-info.json". Danach steht die Verbindung und wir können Backups hochschieben. kopia snapshot create $HOME Damit wird das Homeverzeichnis gesichert. Das initiale Backup, hat 30 Minuten gebraucht. created snapshot with root kb9e50ff5xxxxxxxxxx265d40a5d0861 and ID cda5c0ffxxxxxxxxxxxxxxa4cb4a367b in 30m28s Ein späteres Backup, sieht so aus. USER@HOSTNAME:~$ kopia snapshot create $HOME Snapshotting USER@HOSTNAME:/home/frank ... * 0 hashing, 51 hashed (324.8 MB), 8524 cached (6.6 GB), 0 uploaded (0 B), 0 errors 100.0% Created snapshot with root kc20a4xxxxxxxxxxxx745c6c7b37c and ID d7a96eaxxxxxxxxxxx0961018eacffa in 3m12s Nach 3 Minuten durch. Zu diesem Zeitpunkt hat sich aber auch nicht wirklich was geändert! Fazit Das Tool macht immer noch einen sehr guten Eindruck. Die Geschwindigkeit ist sehr gut. Die Anleitung ist leider unzureichend. Da gibt es so viele Möglichkeiten, da braucht es sehr lange, bis man da mal durchsteigt. Zum Glück, ist das was man normalerweise braucht, recht überschaubar. Bis zum produktiven Einsatz braucht das aber bei mir noch eine Menge mehr Tests. Was ich noch testen möchte Verzeichnis mounten Backup testweise wieder herstellen (zumindestens teilweise) Der Test läuft mit Standard Einstellungen, also z.B. ohne Kompression. Das sollte man dann auch mal testen.. Bitte achtet auf gleiche Versionen auf dem Clienten, wie auf dem Server. Ich meine da ein paar Probleme festgestellt zu haben...