Skip to content

Proxmox - Umzug auf neue Hardware ASRock N100DC-ITX

Angeheftet Proxmox
25 7 5.2k
  • @FrankM

    Erstmal danke für das Willkommen und für die schnelle Antwort.
    Die Geräusche hört man wenn man nicht weiter als ca. 25cm über dem MB ist.
    Eventuell sind die Geräusche nicht zu hören wenn man mehr Verbraucher dran hat.
    Du hast ja wahrscheinlich noch weitere Festplatten verbaut.
    Mal sehen ob ich da mal was anschließen kann um zu hören ob sich dann noch was verändert.

    Zur Temperatur habe ich das mal im Desktop Modus beobachtet da wird die CPU maximal 65C° warm und im durchschritt läuft die bei ca. 50 C°.
    Beim abspielen eines Videos 320x240 erreicht die CPU max. 77 C° und im Durchschnitt 65 C°.
    Aber bei den Temperaturen heizt sich die SSD leider auch mit auf, ca. 64 C°.
    Wenn man die Leistungsbewertung nochmal laufen lässt " Winsat formal" kommt die CPU auf 79C°.

    Die M.2 SSD sitzt etwas zu nahe an der CPU/Kühlkörper.

    Gruß
    Bernd

  • Ich habe im BIOS noch ein Stromsparfunktion für die PCIe-Karte gefunden. Jetzt hab ich im Idle so zwischen 18 - 20W

    Screenshot_20230717_171621_Voltcraft SEM6000_ergebnis.jpg

    Bei dem anderen NAS hatte ich um die 13W im Idle. Ok, ich hoffe das sich das evtl.. noch etwas verbessert mit BIOS-Updates oder auch einem neueren Kernel. Warten wir mal ab.

    @FrankM sind die 20Watt mit HDDs?

    Mein alter HP Gen8 nimmt 22Watt im idle mit 4x3TB platten im standby.

    Wollte den eigentlich mal durch ein n100 ersetzen.

  • @FrankM sind die 20Watt mit HDDs?

    Mein alter HP Gen8 nimmt 22Watt im idle mit 4x3TB platten im standby.

    Wollte den eigentlich mal durch ein n100 ersetzen.

    @Andy Ja, mit Platten. Auslastung Proxmox sieht aktuell so aus.

    ed89f754-397c-431c-8188-fb2154804371-grafik.png

  • Das ist dann aber schon ziemlich gut mit HDD im Betrieb braucht der hp 40Watt.

  • Der Verbrauch ist im Idle, also nicht wirklich Last drauf. Also z.B. auch keine Schreibzugriffe usw. Sollte aber auch nur etwas höher unter Last werden, da ich zwei SSD als Raid1 einsetze und eine 3,5 Zoll HDD als Backup Medium.

  • Guten Morgen. Ich würde zu den SSD gern eine Frage stellen. Ich möchte von meinem RasPi auch auf das Board umsteigen. Nun habe ich mich etwas in Proxmox und ZFS eingelesen. Das soll große Schreiblasten verursachen und die SSD ordentlich stressen bzw. kaputschreiben.

    Hast Du Enterprise - SSD? Oder anders gefragt, welche Erfahrungen konntest Du bislang mit SSDs in Verbindung mit Proxmox machen?

    Danke sehr und allen einen schönen Sonntag.

  • @RaSc sagte in Proxmox - Umzug auf neue Hardware ASRock N100DC-ITX:

    Nun habe ich mich etwas in Proxmox und ZFS eingelesen. Das soll große Schreiblasten verursachen und die SSD ordentlich stressen bzw. kaputschreiben.

    Hallo @RaSc und Willkommen im Forum. Ja, das kann passieren, vor allen Dingen im Zusammenhang mit dem Proxmox Backup Server. Das ist aber für mein Setup unerheblich, warum? Eine Erklärung.

    Mein Proxmox Setup basiert auf einer verbauten NVMe SSD. Soll heißen, der Proxmox Host läuft auf dieser NVMe und beinhaltet ein normales ext4.

    /dev/mapper/pve-root: UUID="0aad6271-9162-479a-a724-cde690acfb10" BLOCK_SIZE="4096" TYPE="ext4"
    

    Ok, alles gut. Läuft also wie immer. Warum jetzt ZFS im Proxmox? Proxmox bietet über sein GUI nur eine Raid Installation mittels ZFS an. So weit ich weiß, bietet man auch nur dafür Support an.

    Man könnte das auch noch über die Konsole machen, Stichwort mdadm, aber ich erinnere mich das das nicht so wollte wie es sollte. So habe ich am Ende doch zu ZFS gegriffen.

    Noch ein kurzes Beispiel, wer noch so alles zu ZFS greift. pfSense nutzt das mittlerweile auch.

    ad67adb7-b379-468d-beea-d10a8eccb58b-grafik.png

    Zurück zu meinem NAS. Jetzt habe ich zwei SSD-Platten WD Red an den SATA-Ports angeschlossen. Diese beiden SSDs sind zu einem Raid 1 (ZFS) zusammengefasst.

    068c7276-f70d-4dae-8f0a-14c482645b60-grafik.png

    Da passiert erst mal gar nichts, weil was soll da groß drauf schreiben? Ist nur meine persönliche Datenablage.

    Was bei ZFS sehr wichtig ist, ist genug RAM. Da ZFS sehr viel RAM für die Verwaltung benötigt. (Bin da kein Experte für)

    Aber auch das sehe ich ganz entspannt.

    8bd1966f-43cc-4867-9207-94f669d2add0-grafik.png

    Es laufen aktuell 5 Debian Bookworm 12 VMs.

    Was wichtig ist, aber das ist es immer, Backups! Die lege ich auf eine angeschlossene 2,5 Zoll HDD ab. Da kommen die Backups der VMs und mein Restic Backup des NAS drauf.

    Ich fühle mich damit eigentlich ganz wohl 🙂

  • Vielen Dank. Das heißt, Du nutzt für Proxmox an sich keine Redundanz und verzichtest auf eine Sicherheitsfeatures, die ZFS bringen würde. Wie oft sicherst Du denn mit Deinem Setup Proxmox und die VMs? Wenn tatsächlich mal etwas aus dem Backup zurückgespielt werden muss, wird das gesamte Paket, also Proxmox und VMs zurückgespielt?

    Danke sehr.

  • Man muss hier sehr unterscheiden, ob ich Proxmox zu Hause laufen habe oder im Internet. Eine Installation im Internet würde vollkommen anders aussehen. Hier dreht es sich aber um eine Installation bei mir zu Hause. Und auch auf Hardware, die nur eine begrenzte Anzahl von Platten aufnehmen kann.

    Ich habe mit dem jetzigen Setup keine Probleme. Was soll passieren? Worst Case wäre, die NVMe des Proxmox würde kaputt gehen. Ja, das wäre blöd. Also frisch ran, neue Hardware rein, neu aufsetzen und dann die VMs aus dem Backup wieder herstellen.

    Die VMs sichere ich täglich, mit der Proxmox Backup Funktion. Das NAS meistens nur wöchentlich.

  • Das klingt nach einem guten Verhältnis zwischen Aufwand und Risiko. Hat mir alles sehr geholfen hier.

    Danke schön.

  • Hallo,

    ich habe mir vor ein paar Wochen ebenfalls das Asrock Board zugelegt. Allerdings das N100M anstatt die "DC" Variante.

    Als Netzteil habe ich ein altes ITS PSU mit ich glaube 120 W genommen.
    Verbaut sind 2x WD SA500 2TB SSD als ZFS Mirror und ein 500GB NVME für das Proxmox System. Als 32GB Ram Modul habe ich das gleiche verwendet und hat läuft auch ohne Probleme.
    Hab ein 2.5Gb USB PCIe Netzwerkkarte gegönnt. Damit komme ich auf irgendwo schreibend 200 Mb/s, lesend 270 Mb/s (Samba share). Hatte bisher auf meinem "großen" Nas mit drehenden Platten ein Austausch+SVN drauf. Das werde ich auf den kleinen Rechner umziehen damit ich den großen NAS öfters ausschalten kann

    Backup: Die VMs werden auf das NAS gesichert -> SMB
    -> unschön: Würde gerne jedes Backup in einem Unterordner sehen. Aber alle erscheinen unter /backupziel/dump. Geht wohl nur wenn ich in Proxmox mehrere Backup Ziele/Storages einrichte

    Bisher laufen mehrere VMs

    1. Wordpress*Nextcloud -> von außen erreichbare Anwendungen
    2. interne Anwedungen wie "Teile Manager", Wiki, Unifi Controller
    3. Smart Home: Ich nutze hier FHEM, Grafana, MariaDB,....
    4. Homeassistant läuft noch nebenher, unter Raspberry hatte ich damit Probleme und bin deshalb bei FHEM geblieben

    Alles "VMs", keine LXC Container. Hatte immer das aktuelle Ubuntu Server Image verwendet

    Die ganze Kiste läuft irgendwo zwischen 15..17 W im Idle. Wobei das Netzteil alleine schon zwischen 4 und 5 W benötigt - selbst wenn es nicht am PC eingesteckt ist. Hatte ein 150W "klassisches" Netzteil probiert - das war aber keineswegs besser.

    Tolles kleines Board, das jetzt schon 2 Raspberrys ersetzt.

    Grüße
    Malte

  • @maltejahn Freue mich den sehr positiven Erfahrungsbericht zu lesen. Viel Spaß weiterhin.

  • Ich hab mir, unter anderem auch als Folge von dem Testbeitrag, auch so ein Board gekauft, aber ich bekomme es ums Verrecken nicht stabil zum laufen.
    Egal was ich drauf boote, es crasht sobald irgendeine Form von Last drauf ist. Debian 12 wäre das eigentliche Ziel-OS, aber selbst Win10 und einfach nur memtest86 haben das gleiche Resultat - bunter Schnee auf dem Bildschirm gefolgt von einem harten Reset.
    Ich sitze jetzt vor dem dritten dieser Boards, alle das gleiche Problem.. hab extra von unterschiedlichen Händlern bestellt um Chargen-Fehler auszuschliessen.
    Einfach nur dieses Board, die gleiche Crucial P3 500GB SSD und einen Kingston ValueRAM DDR4-3200 (der auch korrekt erkannt wird), vor mir auf seinem Karton liegend. Alter Intel PWM boxed-Lüfter draufgelegt, damits nicht zu warm wird.
    Memtest86 findet, wenn es denn mal komplett durch schafft, keine Fehler.. werde aber trotzdem mal austauschen. Netzteile hab ich auch schon drei durchprobiert (Dell, Fujitsu, HP Laptopziegel mit 19V 90W).
    Ursprünglich hatte ich den Intel i915 Treiber in Verbindung mit einer doch sehr neuen CPU+iGPU in Verdacht, aber wenn ich den rausschmeisse und rein in VESA Modus boote, bleiben die Crashes, nur der bunte Schnee davor tritt nicht auf.
    Irgendwelche Ideen was das sein könnte? BIOS-Einstellungen sind alle auf defaults, nix getuned oder so.
    Sobald ich 'stress -c 2 -m 2' starte, was für eine 4-Kern CPU eigentlich keine Bedrohung sein sollte, resettet das Board in weniger als 30 Sekunden.

  • Hallo @wooshell , erst mal sehr schade das Du so einen Stress mit dem Board hast. Ich habe das jetzt schon Monate laufen, übrigens ohne einen Kühler. Ok, wird ordentlich warm aber ich hasse Lüfter 😉

    Ich kann leider nicht so richtig erkennen, wo dein Problem liegt. Wie groß ist dein Speicher? Ist der in der Liste der unterstützen RAM Riegel?

    Das habe ich verbaut.

    RAM: Corsair Vengeance SODIMM 32GB (2x16GB) DDR4 2400MHz CL16 https://www.corsair.com/de/de/Kategorien/Produkte/Arbeitsspeicher/VENGEANCE-DDR4-SODIMM/p/CMSX32GX4M2A2400C16

    Aus dem Bauch heraus, würde ich auf RAM tippen.

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • Ich könnte es vielleicht doch noch zu Lebzeiten erleben.

    Uncategorized kipppunkte linux
    1
    0 Stimmen
    1 Beiträge
    28 Aufrufe
    Niemand hat geantwortet
  • Fedora 42

    Linux fedora linux btrfs
    2
    2
    0 Stimmen
    2 Beiträge
    402 Aufrufe
    FrankMF
    Ich habe mir gestern den Cosmic Desktop angesehen. Davon abgesehen, das er noch ein sehr frühes Stadium ist, hat er mir nicht wirklich gefallen. Also heute mal die Referenz von Fedora installiert, die Workstation mit Gnome Desktop. Wer hier lange mitliest, weiß das ich kein Fanboy vom Gnome Desktop bin. Aber ich wollte unbedingt mal den Anaconda Installer sehen. Der ist richtig gut geworden und das man jetzt das Tastaturlayout für die Verschlüsselung einstellen kann, wird hoffentlich in Zukunft verhindern, das ich mit einer amerikanischen Tastatur meine Passphrase eingeben muss Da war ja vorher bei meinen Test das Problem, das ich nach Standby nicht über die Tastatur aufwecken konnte. Das war eine Einstellung im BIOS, irgendwas mit Wakeup/BIOS/USB Jetzt funktioniert das auch einwandfrei. Und zu Gnome sag ich mal nichts, ich bin da vermutlich zu alt für Ich lasse es aber mal ein paar Tage auf der Platte, vielleicht erkenne ich ja noch seinen Nutzen. Zum Schluss, das schöne an FOSS ist, wir haben die Wahl welchen Desktop wir installieren dürfen. Fedora 42 sieht gut aus und läuft rund. Jetzt mal suchen, wo ich in Gnome diese beschissene Updateverhalten ausschalten kann, was aussieht wie ein Windows. Das braucht nun wirklich niemand.
  • AI Bots aussperren

    Linux linux block-ai nginx
    2
    0 Stimmen
    2 Beiträge
    202 Aufrufe
    FrankMF
    Wir können das noch für eine sanfte Methode erweitern, das ist die Datei robots.txt, wo man sich in alten Zeiten mal dran hielt. Einige Bots machen das, andere nicht. Praktisch, das o.g. Projekt bietet diese Datei auch an. Dann werden wir das kurz mal mit einbauen. ai-block.sh #!/bin/bash # Script um AI-Bots zu blocken # https://github.com/ai-robots-txt/ai.robots.txt/tree/main mkdir /root/AI-test cd /root/AI-test ## Daten holen curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/nginx-block-ai-bots.conf curl -O https://raw.githubusercontent.com/ai-robots-txt/ai.robots.txt/master/robots.txt ## Daten in nginx einbauen mv nginx-block-ai-bots.conf /etc/nginx/blocklists/ mv robots.txt /var/www/html ## NGINX neustarten systemctl restart nginx.service Damit das in nginx funktioniert. Den Server Block um folgendes erweitern. # Serve robots.txt directly from Nginx location = /robots.txt { root /var/www/html; try_files $uri =404; } Kurzer Test https://<DOMAIN>/robots.txt Ergebnis User-agent: AI2Bot User-agent: Ai2Bot-Dolma User-agent: Amazonbot User-agent: anthropic-ai User-agent: Applebot User-agent: Applebot-Extended User-agent: Brightbot 1.0 User-agent: Bytespider User-agent: CCBot User-agent: ChatGPT-User User-agent: Claude-Web User-agent: ClaudeBot User-agent: cohere-ai User-agent: cohere-training-data-crawler User-agent: Crawlspace User-agent: Diffbot User-agent: DuckAssistBot User-agent: FacebookBot User-agent: FriendlyCrawler User-agent: Google-Extended User-agent: GoogleOther User-agent: GoogleOther-Image User-agent: GoogleOther-Video User-agent: GPTBot User-agent: iaskspider/2.0 User-agent: ICC-Crawler User-agent: ImagesiftBot User-agent: img2dataset User-agent: imgproxy User-agent: ISSCyberRiskCrawler User-agent: Kangaroo Bot User-agent: Meta-ExternalAgent User-agent: Meta-ExternalFetcher User-agent: OAI-SearchBot User-agent: omgili User-agent: omgilibot User-agent: PanguBot User-agent: Perplexity-User User-agent: PerplexityBot User-agent: PetalBot User-agent: Scrapy User-agent: SemrushBot-OCOB User-agent: SemrushBot-SWA User-agent: Sidetrade indexer bot User-agent: Timpibot User-agent: VelenPublicWebCrawler User-agent: Webzio-Extended User-agent: YouBot Disallow: /
  • Vaultwarden bekommt Aufmerksamkeit vom BSI

    Vaultwarden vaultwarden linux bsi
    1
    0 Stimmen
    1 Beiträge
    240 Aufrufe
    Niemand hat geantwortet
  • Home Assistant - Anwendungsbeispiele

    Linux homeassistant linux
    1
    3
    0 Stimmen
    1 Beiträge
    345 Aufrufe
    Niemand hat geantwortet
  • VSCodium - Meldungen trailing-whitespaces

    Linux vscodium vscode linux
    1
    3
    0 Stimmen
    1 Beiträge
    144 Aufrufe
    Niemand hat geantwortet
  • ZFS - Wichtige Befehle

    Linux zfs linux
    3
    0 Stimmen
    3 Beiträge
    1k Aufrufe
    FrankMF
    Heute mal drüber gestolpert, das es auch so was geben kann. root@pve2:~# zpool status pool: pool_NAS state: ONLINE status: Some supported and requested features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(7) for details. scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Was machen? Als erstes mal ein Backup angestoßen. Danach root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr disabled local pool_NAS feature@head_errlog disabled local pool_NAS feature@blake3 disabled local pool_NAS feature@block_cloning disabled local pool_NAS feature@vdev_zaps_v2 disabled local Das kommt von neuen Funktionen, die zu ZFS hinzugefügt wurden und bei Erstellung des Pools nicht vorhanden waren. Dann upgraden wir mal root@pve2:~# zpool upgrade pool_NAS This system supports ZFS pool feature flags. Enabled the following features on 'pool_NAS': zilsaxattr head_errlog blake3 block_cloning vdev_zaps_v2 Kontrolle root@pve2:~# zpool status pool: pool_NAS state: ONLINE scan: scrub repaired 0B in 00:20:50 with 0 errors on Sun Apr 13 00:44:51 2025 config: NAME STATE READ WRITE CKSUM pool_NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520800733 ONLINE 0 0 0 ata-WDC_WDS100T1R0A-68A4W0_230520801376 ONLINE 0 0 0 errors: No known data errors Features kontrollieren root@pve2:~# zpool get all pool_NAS | grep feature pool_NAS feature@async_destroy enabled local pool_NAS feature@empty_bpobj active local pool_NAS feature@lz4_compress active local pool_NAS feature@multi_vdev_crash_dump enabled local pool_NAS feature@spacemap_histogram active local pool_NAS feature@enabled_txg active local pool_NAS feature@hole_birth active local pool_NAS feature@extensible_dataset active local pool_NAS feature@embedded_data active local pool_NAS feature@bookmarks enabled local pool_NAS feature@filesystem_limits enabled local pool_NAS feature@large_blocks enabled local pool_NAS feature@large_dnode enabled local pool_NAS feature@sha512 enabled local pool_NAS feature@skein enabled local pool_NAS feature@edonr enabled local pool_NAS feature@userobj_accounting active local pool_NAS feature@encryption enabled local pool_NAS feature@project_quota active local pool_NAS feature@device_removal enabled local pool_NAS feature@obsolete_counts enabled local pool_NAS feature@zpool_checkpoint enabled local pool_NAS feature@spacemap_v2 active local pool_NAS feature@allocation_classes enabled local pool_NAS feature@resilver_defer enabled local pool_NAS feature@bookmark_v2 enabled local pool_NAS feature@redaction_bookmarks enabled local pool_NAS feature@redacted_datasets enabled local pool_NAS feature@bookmark_written enabled local pool_NAS feature@log_spacemap active local pool_NAS feature@livelist enabled local pool_NAS feature@device_rebuild enabled local pool_NAS feature@zstd_compress enabled local pool_NAS feature@draid enabled local pool_NAS feature@zilsaxattr enabled local pool_NAS feature@head_errlog active local pool_NAS feature@blake3 enabled local pool_NAS feature@block_cloning enabled local pool_NAS feature@vdev_zaps_v2 enabled local So, alle neuen Features aktiviert. Jetzt kann der Pool weiterhin seine Arbeit machen.
  • Nach Kernel Update werden die Module nicht automatisch gebaut!?

    Linux linux
    1
    0 Stimmen
    1 Beiträge
    208 Aufrufe
    Niemand hat geantwortet