Skip to content

OnRouteMap - Point of Interest (POI) für lange Radtouren

Allgemeine Diskussionen
1 1 30 1
  • Heute mal etwas ganz anderes, eine Vorstellung eines Tools von einem guten Freund @Nico
    Das könnte ja für den ein oder anderen sehr hilfreich sein, wo jetzt die Sommer Urlaubszeit beginnt bzw. schon im Gange ist.

    Was ist OnRouteMap?

    OnRouteMap hilft Sportler:innen, die auf langen Strecken unterwegs sind, Verpflegung und Services zu finden. Einfach GPX-Datei hochladen, alle wichtigen Anlaufstellen wie Tankstellen, Cafés, Supermärkte und mehr entdecken und perfekt vorbereitet starten.

    Egal ob du mit dem Rad fährst, wanderst oder läufst – ob Trainingsausfahrt, Bikepacking-Abenteuer, Bergtour oder die Wanderung deines Lebens, OnRouteMap macht dich startklar.

    Startseite

    df77695e-0344-4d4a-8217-d8ca681d61db-grafik.png

    Route erstellen

    Man nimmt also eine vorhandene Datei und fügt sie z.B. per Drag and Drop hinzu. Dann bekommt man direkt ein paar Infos angezeigt.

    6191cfde-4d49-45c9-a888-9a5c0f1f73bb-grafik.png

    Die Route ist 76,1 km lang und die Berechnung der Points of Interest (POI) dauert 2 Sekunden.

    Karte erstellen

    Dann drücke ich mal auf den Button Karte erstellen. Überrascht war ich, das die 2 Sekunden wirklich passen.

    39e003b2-4095-4ab3-b611-baf8905409ee-grafik.png

    Wenn man jetzt auf einen POI klickt, bekommt man mehr Infos dazu.

    fc169711-474c-4fab-b1b1-2071d7edee61-grafik.png

    Wenn man auf Details abrufen klickt, bekommt man ganz viele Details dazu angezeigt.

    f6f06b9a-ccfb-403d-9b2f-709891229ff7-grafik.png

    Oben rechts im Hamburger Menü findet man folgendes.

    29b862e4-7321-4f43-9e19-e3588ab2b364-grafik.png

    Karten

    Nachdem Du eine Route erstellt hast, werden diese im Hauptmenü auf dem Reiter Meine Karten angezeigt.

    c5bc2ae0-0e42-4799-baf9-4f98250574ff-grafik.png

    Zum Speichern wird der local storage des Webbrowsers benutzt. Der Serverbetreiber kann so deine Routen nicht sehen (datenschutzfreundlich)

    Die Technik

    Die Webanwendung benutzt im Frontend Flask und im Backend Python. Schöner Debian Server mit Podman 🤓

    Datenschutz

    Erhebung und Speicherung von personenbezogenen Daten

    Wir erheben und speichern auf dieser Website keine personenbezogenen Daten.
    Es werden keine Logdateien der Webseitenaufrufe erstellt.

    Kosten

    Das Projekt ist aktuell kostenlos. Da es, wie jedes Tool im Netz Kosten verursacht, wird dafür auch Geld benötigt. Aktuell wird das über Spenden finanziert. Der @Nico würde sich über jede kleine Spende freuen, die Benutzer des Tools ihm zukommen lassen.

    a25ff345-a6a5-45a6-9f2e-4de7d7b44bf7-grafik.png

    Fragen zum Projekt

    Solltet ihr Fragen oder Anregungen zum Projekt haben, bin ich mir sicher wird der @Nico die hier gerne beantworten.

  • NodeBB - 4.3.0

    NodeBB nodebb linux
    1
    0 Stimmen
    1 Beiträge
    156 Aufrufe
    Niemand hat geantwortet
  • AI Bots aussperren

    Linux linux block-ai nginx
    2
    0 Stimmen
    2 Beiträge
    225 Aufrufe
    FrankMF
    Wir können das noch für eine sanfte Methode erweitern, das ist die Datei robots.txt, wo man sich in alten Zeiten mal dran hielt. Einige Bots machen das, andere nicht. Praktisch, das o.g. Projekt bietet diese Datei auch an. Dann werden wir das kurz mal mit einbauen. ai-block.sh #!/bin/bash # Script um AI-Bots zu blocken # https://github.com/ai-robots-txt/ai.robots.txt/tree/main mkdir /root/AI-test cd /root/AI-test ## Daten holen curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/nginx-block-ai-bots.conf curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/robots.txt ## Daten in nginx einbauen mv nginx-block-ai-bots.conf /etc/nginx/blocklists/ mv robots.txt /var/www/html ## NGINX neustarten systemctl restart nginx.service Damit das in nginx funktioniert. Den Server Block um folgendes erweitern. # Serve robots.txt directly from Nginx location = /robots.txt { root /var/www/html; try_files $uri =404; } Kurzer Test https://<DOMAIN>/robots.txt Ergebnis User-agent: AI2Bot User-agent: Ai2Bot-Dolma User-agent: Amazonbot User-agent: anthropic-ai User-agent: Applebot User-agent: Applebot-Extended User-agent: Brightbot 1.0 User-agent: Bytespider User-agent: CCBot User-agent: ChatGPT-User User-agent: Claude-Web User-agent: ClaudeBot User-agent: cohere-ai User-agent: cohere-training-data-crawler User-agent: Crawlspace User-agent: Diffbot User-agent: DuckAssistBot User-agent: FacebookBot User-agent: FriendlyCrawler User-agent: Google-Extended User-agent: GoogleOther User-agent: GoogleOther-Image User-agent: GoogleOther-Video User-agent: GPTBot User-agent: iaskspider/2.0 User-agent: ICC-Crawler User-agent: ImagesiftBot User-agent: img2dataset User-agent: imgproxy User-agent: ISSCyberRiskCrawler User-agent: Kangaroo Bot User-agent: Meta-ExternalAgent User-agent: Meta-ExternalFetcher User-agent: OAI-SearchBot User-agent: omgili User-agent: omgilibot User-agent: PanguBot User-agent: Perplexity-User User-agent: PerplexityBot User-agent: PetalBot User-agent: Scrapy User-agent: SemrushBot-OCOB User-agent: SemrushBot-SWA User-agent: Sidetrade indexer bot User-agent: Timpibot User-agent: VelenPublicWebCrawler User-agent: Webzio-Extended User-agent: YouBot Disallow: /
  • Update 1.32.5 - Security Fixes!

    Vaultwarden vaultwarden linux
    1
    0 Stimmen
    1 Beiträge
    144 Aufrufe
    Niemand hat geantwortet
  • KDE Plasma setzt auf Wayland

    Linux kde linux
    1
    0 Stimmen
    1 Beiträge
    104 Aufrufe
    Niemand hat geantwortet
  • RISC-V

    VisionFive 2 visionfive2 star64 linux
    1
    0 Stimmen
    1 Beiträge
    127 Aufrufe
    Niemand hat geantwortet
  • Kopia - HTTP/S Server aufsetzen

    Angeheftet Kopia kopia linux
    1
    0 Stimmen
    1 Beiträge
    514 Aufrufe
    Niemand hat geantwortet
  • Debian 10 Buster 10.5 released

    Linux debian linux
    1
    0 Stimmen
    1 Beiträge
    239 Aufrufe
    Niemand hat geantwortet
  • NodeBB - Automatisch starten

    NodeBB nodebb linux
    1
    0 Stimmen
    1 Beiträge
    682 Aufrufe
    Niemand hat geantwortet