Skip to content

NodeBB - Upgrade auf v1.9.0

NodeBB
2 1 925
  • Datensicherung nicht vergessen!

    Praxistipp: Es hat sich jetzt bei meiner mittlerweilen sehr langen Nutzung von NodeBB herausgestellt, das es sinnvoll sein kann, den Installationsordner vorher zu kopieren, damit man problemlos zum alten Stand zurück kann! (Update: 01.11.2021)

    In das Installationsverzeichnis wechseln. Dran denken, mit dem richtigen User! (Ich habe da mal was durcheinander gewürfelt)

    ./nodebb stop
    Stopping NodeBB. Goodbye!
    

    Jetzt ist ein guter Zeitpunkt um alle seine Daten zu sichern. Ich gehe hier jetzt nicht drauf ein!

    Dann

    git fetch
    

    Danach dann folgendes

    git checkout v1.8.x 
    Already on 'v1.8.x'
    Your branch is up-to-date with 'origin/v1.8.x'.
    

    Ok, auf dieser Version sind wir. Das bringt so nichts. Also ...

    git checkout v1.9.x 
    Branch v1.9.x set up to track remote branch v1.9.x from origin.
    Switched to a new branch 'v1.9.x'
    

    Damit sind wir jetzt auf dem Zweig 1.9.x

    ./nodebb upgrade
    
    Updating NodeBB...
    
    1. Updating package.json file with defaults...  OK
    
    2. Bringing base dependencies up to date...  started
    added 20 packages and updated 4 packages in 6.407s
    
    3. Checking installed plugins for updates...  OK
    4. Updating NodeBB data store schema...
    Parsing upgrade scripts... 
    OK | 2 script(s) found, 51 skipped
      → [2018/2/28] Give registered users signature privilege... OK
      → [2018/4/16] Refresh post-upload associations... OK
    Schema update complete!
    
    
    5. Rebuilding assets...  started
    2018-05-03T14:55:01.217Z [1638] - info: [build] Building in parallel mode
    2018-05-03T14:55:01.219Z [1638] - info: [build]         plugin static dirs  build started
    .
    .
    . (gekürzt)
    
    
                            NodeBB Upgrade Complete!
    

    Danach ein

    ./nodebb start
    

    und ich bin auf v1.9.0

    Update

    Nach dem Update ist bei mir immer noch ein Rebuild & Restart im Backend nötig, sonst fehlen mir immer die Karten (Recent Cards). Danach läuft dann alles 🙂

    P.S.: Ich bin nicht so der git König, falls jemand mit Ahnung hier Fehler oder Unsinn sieht, bitte ich um einen kurzen Hinweis. Vielen Dank!

    0_1525360190866_NodeBB_v_1_9_0.png

  • Da oben fehlt ein Schritt.

    cd nodebb (or path to where nodebb is installed)
    ./nodebb stop
    git fetch
    git checkout v1.12.x
    git merge origin/v1.12.x
    ./nodebb upgrade
    

    Beim nächsten Upgrade testen.

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat dieses Thema am abgepinnt
  • AI Bots aussperren

    Linux linux block-ai nginx
    2
    0 Stimmen
    2 Beiträge
    202 Aufrufe
    FrankMF
    Wir können das noch für eine sanfte Methode erweitern, das ist die Datei robots.txt, wo man sich in alten Zeiten mal dran hielt. Einige Bots machen das, andere nicht. Praktisch, das o.g. Projekt bietet diese Datei auch an. Dann werden wir das kurz mal mit einbauen. ai-block.sh #!/bin/bash # Script um AI-Bots zu blocken # https://github.com/ai-robots-txt/ai.robots.txt/tree/main mkdir /root/AI-test cd /root/AI-test ## Daten holen curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/nginx-block-ai-bots.conf curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/robots.txt ## Daten in nginx einbauen mv nginx-block-ai-bots.conf /etc/nginx/blocklists/ mv robots.txt /var/www/html ## NGINX neustarten systemctl restart nginx.service Damit das in nginx funktioniert. Den Server Block um folgendes erweitern. # Serve robots.txt directly from Nginx location = /robots.txt { root /var/www/html; try_files $uri =404; } Kurzer Test https://<DOMAIN>/robots.txt Ergebnis User-agent: AI2Bot User-agent: Ai2Bot-Dolma User-agent: Amazonbot User-agent: anthropic-ai User-agent: Applebot User-agent: Applebot-Extended User-agent: Brightbot 1.0 User-agent: Bytespider User-agent: CCBot User-agent: ChatGPT-User User-agent: Claude-Web User-agent: ClaudeBot User-agent: cohere-ai User-agent: cohere-training-data-crawler User-agent: Crawlspace User-agent: Diffbot User-agent: DuckAssistBot User-agent: FacebookBot User-agent: FriendlyCrawler User-agent: Google-Extended User-agent: GoogleOther User-agent: GoogleOther-Image User-agent: GoogleOther-Video User-agent: GPTBot User-agent: iaskspider/2.0 User-agent: ICC-Crawler User-agent: ImagesiftBot User-agent: img2dataset User-agent: imgproxy User-agent: ISSCyberRiskCrawler User-agent: Kangaroo Bot User-agent: Meta-ExternalAgent User-agent: Meta-ExternalFetcher User-agent: OAI-SearchBot User-agent: omgili User-agent: omgilibot User-agent: PanguBot User-agent: Perplexity-User User-agent: PerplexityBot User-agent: PetalBot User-agent: Scrapy User-agent: SemrushBot-OCOB User-agent: SemrushBot-SWA User-agent: Sidetrade indexer bot User-agent: Timpibot User-agent: VelenPublicWebCrawler User-agent: Webzio-Extended User-agent: YouBot Disallow: /
  • Update 1.33.1

    Vaultwarden vaultwarden linux
    1
    0 Stimmen
    1 Beiträge
    148 Aufrufe
    Niemand hat geantwortet
  • Debian Bookworm 12.5 released

    Linux linux debian
    3
    0 Stimmen
    3 Beiträge
    254 Aufrufe
    FrankMF
    Und hier taucht es dann auf -> https://www.debian.org/News/2024/20240210
  • Ansible - Proxmox Server bearbeiten

    Ansible ansible proxmox semaphore linux
    1
    1
    0 Stimmen
    1 Beiträge
    517 Aufrufe
    Niemand hat geantwortet
  • PHP Webseite lokal einhängen mit sshfs

    PHP php linux
    1
    2
    0 Stimmen
    1 Beiträge
    94 Aufrufe
    Niemand hat geantwortet
  • OpenWRT - Zonen

    Verschoben OpenWRT & Ubiquiti ER-X openwrt linux
    2
    3
    0 Stimmen
    2 Beiträge
    699 Aufrufe
    FrankMF
    Es ist was heller geworden [image: 1610188645165-7b86e97c-31a5-44b6-809f-25d9d1c2ee4a-image.png] Die besagte Forward Regel [image: 1610188840619-zonen.png] Diese Forward Regel zieht erst dann, wenn es mehrere Interfaces in einer Zone gibt. Aus der Doku INPUT rules for a zone describe what happens to traffic trying to reach the router itself through an interface in that zone. OUTPUT rules for a zone describe what happens to traffic originating from the router itself going through an interface in that zone. FORWARD rules for a zone describe what happens to traffic passing between different interfaces belonging in the same zone. Das heisst nun, das ein Forwarding zwischen zwei Zonen immer eine spezifische Regel unter Traffic Rules benötigt. Forwarding between zones always requires a specific rule. Somit ist ein Forwarding zwischen zwei Zonen in den Standard Einstellungen nicht erlaubt. Das kann ich hier auch so bestätigen. Das ist ja auch das was ich mit meiner "DMZ"-Zone erreichen möchte. Kein Zugriff auf LAN. Unter Zone ⇒ Forwardings kann man jetzt sehen, das das Forwarding von LAN in Richtung WAN und DMZ erlaubt ist. WAN ist logisch, sonst komme ich ja nicht ins Internet. DMZ habe ich eingestellt, damit ich auch Teilnehmer im DMZ Netz erreichen kann, wenn ich da mal ran muss. [image: 1610189307657-8a548c29-8bc5-4074-8099-66460bcea9a8-image.png] Stelle ich das jetzt so ein. [image: 1610189398985-dca8b393-f613-4cab-a377-ffbc2bb8ddf5-image.png] Dann kann ich von der DMZ Zone aus das LAN erreichen. Aha, so langsam verstehe ich Quelle: https://forum.openwrt.org/t/firewall-zones-and-settings/84369
  • Redis installieren

    Angeheftet Verschoben Redis linux redis
    1
    0 Stimmen
    1 Beiträge
    425 Aufrufe
    Niemand hat geantwortet
  • Youtube in Grav

    Grav grav linux
    1
    0 Stimmen
    1 Beiträge
    549 Aufrufe
    Niemand hat geantwortet