Skip to content

Proxmox - Umzug auf neue Hardware ASRock N100DC-ITX

Angeheftet Proxmox
  • Hallo,

    ich möchte mir ebenfalls ein N100 (DC oder nicht DC.....?) Mainboard von Asrock zulegen und hätte da ein paar Fragen.
    Eigentlich will ich mehrere Raspberrys ersetzen und unter Proxmox zusammenführen. Ich will mein SmartHome Raspberry und meinen Webserver und ggf. noch einen extra Raspberry im VMs unter Proxmox sammeln. Ab 3 Raspberry habe ich das locker bzgl. der Leistungsaufnahme wieder drinnen)

    Das ganze mit ZFS (mirror) - bisher haben die Raspberrys keinen Schutz gegen Ausfall eines Datenspeichers

    Frage 1:
    Reichen die maximal 16 Gb Ram aus für (gefühlswert):
    ZFS, 2TB. 24/7
    Wordpress, Nextcloud, Backup Smartphone - eine überschaubbare Anzahl User
    SmartHome (FHEM/NodeRed/Zigbee/Mqtt) -> ständige Datenbankzugriffe
    Vermutlich noch ein Windows VM, aber das würde nur selten genutzt

    Frage 2:
    Eigentlich würde ich gerne WD Red NVMEs nehmen -> schneller und kosten quasi das gleiche wie SSDs
    Nun hat der Asrock "nur" ein NVME
    Idee:
    -> NVME onboard + NVME per PCIE Slot für ZFS
    -> Onboard: M.2 (PCIe Gen3x2)
    -> Zusatz: PCIe 3.0 x16 (x2 mode)
    -> Proxmox auf ne kleine SSD

    Es ist schwer etwas in Foren zu finden, da die meisten sich mit N100 für Firewallanwendungen beschäftigen (servethehome.com z.B.)
    Deswegen finde ich es toll das ich was "deutschsprachiges" gefunden habe

    Grüße
    Malte

  • @maltejahn Ich versuche mal etwas Licht ins Dunke zu bringen.

    bf4f132e-b0c2-455b-b1a0-fdc2a4ab4ff2-grafik.png

    Meine aktuelle Konfiguration. Der RAM dürfte zuerst ausgehen, denke ich. Aber, für das was ich hier mache, reicht das alle Male. Aber, ich habe auch so gut wie keinen Traffic, keine User usw. Ab und zu laufen mal ein paar Backups usw. Eher, ein Datengrab. Die pfSense schaufelt meinen gesamten Traffic, das wars.

    Ja, mit Platten Anschlüssen ist das Board nicht sehr üppig ausgestattet. Man könnte noch einen SATA-Adapter in den PCIe Slot bauen, dann kann man locker noch mehr Platten dran hängen, vorausgesetzt das Gehäuse ist groß genug. Ich brauchte den PCIe Slot für Netzwerkkarten, wegen der pfSense. Mir reicht das aber so.

    Sys ist auf dem M.2 Slot, würde ich auch unbedingt so empfehlen. Man will ja etwas Spaß haben. Dann habe ich zwei SSD Platten an den SATA-Ports. Und eine externe USB-Platte intern am USB3 Anschluss mit Adapter (für Backups).

    Die beiden SSD-Platten dienen mir als NAS (ZFS).

    Das läuft jetzt schon eine ganze Weile, fast störungsfrei. Nach Upgrade auf V8 des Proxmos hatte ich mal Probleme mit dem Netzwerk, habe ich das hier dokumentiert? Dazu gab es aber eine Lösung, seit dem läuft alles rund.

    DC oder nicht, hattest Du noch gefragt? Geschmackssache. Ich wollte das mal ausprobieren um von dem PICO PSU Netzteil wegzukommen (die problemlos funktionieren 😉 ) Günstiger ist das Board ohne DC - logisch.

    Also wie immer, kommt drauf an, was man machen will.

  • Guten Morgen Frank,

    danke für die Antwort.

    RAM: Ich war irgendwie auf 16GB fixiert (Intel Angabe). Dann hier gesehen das Du 32GB verwendest. Google benutzt -> Reddit: "wäre instabil". Aber Asrock selbst gib ja 32 GB Module als kompatibel an. Hattest Du mal irgendwie ein Memtest oder so gemacht?
    Weil, dann ist RAM gar kein Problem:

    • Proxmox min. 2 GB
    • ZFS 2GB (gehe zur Zeit von 1GB/TB)
    • ich habe meine 3 RPis angesehen die ich ersetzen will. Zusammen kommen die mit 8 GB Ram aus. Hätte also noch Luft bis 32GB

    DC Variante oder nicht. Die "nicht" DC Variante hat einen zusätzlichen PCIE 3.0x1 (angeblich irgendwo 1 GByte/s). PfSense habe ich mich noch nicht beschäftigt... aber alle scheinen das zu tun. Wäre vielleicht auch ein Bastelprojekt
    -> vielleicht eine Netzwerkkarte in den 3x1 Slot. Wird zwar kein GByte erreichen, aber als Karte Richtung Außenwelt sollte es reichen. Richtung internes Netzwerk den internen Netzwerkchip nutzen (ja, habe das mit dem Realtek Chip Problem hier im Forum gelesen)
    -> ich tendiere zur nicht DC Variante

    NVME oder nicht als Datengrab:

    • "ich" vermute: Da ich eher viele kleine Datenhäppchen habe (Datenbankzugriffe) würde mit eine Festplatte mit hoher IOPS helfen. Ob das die CPU nutzen kann steht auf einem anderen Blatt
    • Proxmox, wenn es läuft, ja nicht mehr viel zu tun hat -> deswegen das auf eine "langsame" SSD

    Ich versuche mir nach dem Urlaub so ein Teil anzuschaffen. Das Teil ist auf alle Fälle eine Verbesserung gegenüber meinem Pi-Zoo. Vor allem in Richtung Datensicherheit. Und das ich VMs einfach Backupen kann.

    Grüße
    Malte

  • Hallo,

    ich hoffe das ich hier mal zwei Frage zu dem MB stellen darf.
    Vor ein paar Tagen habe ich auch das MB bekommen und es mit einer M.2 von Samsung 970 EVO Plus 1TB, 16GB Samsung RAM und einer Wlan M.2 AX201 Karte bestückt.
    Zum testen habe ich erstmal Win 11 installiert (Später soll aber Linux drauf).
    Nun das Problem:
    Wenn der Rechner nur im Desktop ist (also wenig Leistung) kann man ein seltsames spratzeln hören.
    Sobald der Rechner belastet wird z.B. mit Stress My PC von Software OK ist das Geräusch verschwunden.
    Stoppt der Test ist es wieder da.
    Könnte das jemand mal bei seinem MB überprüfen?

    Dann die zweite Frage:
    Das soll ja ein Fanless MB sein aber nach kurzer Zeit unter Belastung ca 10-15 Minuten fängt die CPU an zu trotteln.
    Sie fällt dann auf 2294MHz herunter Temperatur ist dann 97C° mit einem Gehäuselüfter 120mm der bei Belastung mit ca. 800rpm dreht bleibt die CPU stabil bei 2693MHz und einer Temperatur von ca. 52C°.
    Wie habt ihr das, mit oder ohne extra Lüfter?

    Ich wäre dankbar wenn das mal einer an seinem System überprüfen könnte.

    Danke und Gruß
    Bernd

  • @bernd Willkommen im Forum 👏

    Ja, Du darfst hier gerne Fragen zu dem Board stellen.

    Zu deinen Geräuschen kann ich eigentlich nicht viel sagen, ich hatte es lange direkt neben mir auf dem Schreibtisch liegen, eingeschaltet und in Betrieb. Mir ist da nichts aufgefallen, obwohl ich auf solche Geräusche sehr allergisch reagiere.

    Zu den Temperaturen.

    c7185827-5baf-43c4-9b09-905534818d7c-grafik.png

    Mein Proxmox sagt dazu folgendes. Ob das wirklich aussagekräftig ist, weiß ich nicht. Bin da bei sehr neuen Boards immer skeptisch. Ja, der Prozessor wurde schon ordentlich warm. Aber direkt über meinem Gehäuse, habe ich eben noch mal mit der Hand geprüft, leicht warme Luft. Ich mache mir da wenig Sorgen drüber. Ich habe keinen Gehäuselüfter verbaut, ich hasse Lüfter. Sind nur im Haupt-PC erlaubt 🙂

    Ich habe selten große Lasten auf der CPU, wenn das für Dich ein normaler Anwendungsfall ist, würde ich den Gehäuselüfter verbaut lassen.

  • @FrankM

    Erstmal danke für das Willkommen und für die schnelle Antwort.
    Die Geräusche hört man wenn man nicht weiter als ca. 25cm über dem MB ist.
    Eventuell sind die Geräusche nicht zu hören wenn man mehr Verbraucher dran hat.
    Du hast ja wahrscheinlich noch weitere Festplatten verbaut.
    Mal sehen ob ich da mal was anschließen kann um zu hören ob sich dann noch was verändert.

    Zur Temperatur habe ich das mal im Desktop Modus beobachtet da wird die CPU maximal 65C° warm und im durchschritt läuft die bei ca. 50 C°.
    Beim abspielen eines Videos 320x240 erreicht die CPU max. 77 C° und im Durchschnitt 65 C°.
    Aber bei den Temperaturen heizt sich die SSD leider auch mit auf, ca. 64 C°.
    Wenn man die Leistungsbewertung nochmal laufen lässt " Winsat formal" kommt die CPU auf 79C°.

    Die M.2 SSD sitzt etwas zu nahe an der CPU/Kühlkörper.

    Gruß
    Bernd

  • @FrankM sind die 20Watt mit HDDs?

    Mein alter HP Gen8 nimmt 22Watt im idle mit 4x3TB platten im standby.

    Wollte den eigentlich mal durch ein n100 ersetzen.

  • @Andy Ja, mit Platten. Auslastung Proxmox sieht aktuell so aus.

    ed89f754-397c-431c-8188-fb2154804371-grafik.png

  • Das ist dann aber schon ziemlich gut mit HDD im Betrieb braucht der hp 40Watt.

  • Der Verbrauch ist im Idle, also nicht wirklich Last drauf. Also z.B. auch keine Schreibzugriffe usw. Sollte aber auch nur etwas höher unter Last werden, da ich zwei SSD als Raid1 einsetze und eine 3,5 Zoll HDD als Backup Medium.

  • Guten Morgen. Ich würde zu den SSD gern eine Frage stellen. Ich möchte von meinem RasPi auch auf das Board umsteigen. Nun habe ich mich etwas in Proxmox und ZFS eingelesen. Das soll große Schreiblasten verursachen und die SSD ordentlich stressen bzw. kaputschreiben.

    Hast Du Enterprise - SSD? Oder anders gefragt, welche Erfahrungen konntest Du bislang mit SSDs in Verbindung mit Proxmox machen?

    Danke sehr und allen einen schönen Sonntag.

  • @RaSc sagte in Proxmox - Umzug auf neue Hardware ASRock N100DC-ITX:

    Nun habe ich mich etwas in Proxmox und ZFS eingelesen. Das soll große Schreiblasten verursachen und die SSD ordentlich stressen bzw. kaputschreiben.

    Hallo @RaSc und Willkommen im Forum. Ja, das kann passieren, vor allen Dingen im Zusammenhang mit dem Proxmox Backup Server. Das ist aber für mein Setup unerheblich, warum? Eine Erklärung.

    Mein Proxmox Setup basiert auf einer verbauten NVMe SSD. Soll heißen, der Proxmox Host läuft auf dieser NVMe und beinhaltet ein normales ext4.

    /dev/mapper/pve-root: UUID="0aad6271-9162-479a-a724-cde690acfb10" BLOCK_SIZE="4096" TYPE="ext4"
    

    Ok, alles gut. Läuft also wie immer. Warum jetzt ZFS im Proxmox? Proxmox bietet über sein GUI nur eine Raid Installation mittels ZFS an. So weit ich weiß, bietet man auch nur dafür Support an.

    Man könnte das auch noch über die Konsole machen, Stichwort mdadm, aber ich erinnere mich das das nicht so wollte wie es sollte. So habe ich am Ende doch zu ZFS gegriffen.

    Noch ein kurzes Beispiel, wer noch so alles zu ZFS greift. pfSense nutzt das mittlerweile auch.

    ad67adb7-b379-468d-beea-d10a8eccb58b-grafik.png

    Zurück zu meinem NAS. Jetzt habe ich zwei SSD-Platten WD Red an den SATA-Ports angeschlossen. Diese beiden SSDs sind zu einem Raid 1 (ZFS) zusammengefasst.

    068c7276-f70d-4dae-8f0a-14c482645b60-grafik.png

    Da passiert erst mal gar nichts, weil was soll da groß drauf schreiben? Ist nur meine persönliche Datenablage.

    Was bei ZFS sehr wichtig ist, ist genug RAM. Da ZFS sehr viel RAM für die Verwaltung benötigt. (Bin da kein Experte für)

    Aber auch das sehe ich ganz entspannt.

    8bd1966f-43cc-4867-9207-94f669d2add0-grafik.png

    Es laufen aktuell 5 Debian Bookworm 12 VMs.

    Was wichtig ist, aber das ist es immer, Backups! Die lege ich auf eine angeschlossene 2,5 Zoll HDD ab. Da kommen die Backups der VMs und mein Restic Backup des NAS drauf.

    Ich fühle mich damit eigentlich ganz wohl 🙂

  • Vielen Dank. Das heißt, Du nutzt für Proxmox an sich keine Redundanz und verzichtest auf eine Sicherheitsfeatures, die ZFS bringen würde. Wie oft sicherst Du denn mit Deinem Setup Proxmox und die VMs? Wenn tatsächlich mal etwas aus dem Backup zurückgespielt werden muss, wird das gesamte Paket, also Proxmox und VMs zurückgespielt?

    Danke sehr.

  • Man muss hier sehr unterscheiden, ob ich Proxmox zu Hause laufen habe oder im Internet. Eine Installation im Internet würde vollkommen anders aussehen. Hier dreht es sich aber um eine Installation bei mir zu Hause. Und auch auf Hardware, die nur eine begrenzte Anzahl von Platten aufnehmen kann.

    Ich habe mit dem jetzigen Setup keine Probleme. Was soll passieren? Worst Case wäre, die NVMe des Proxmox würde kaputt gehen. Ja, das wäre blöd. Also frisch ran, neue Hardware rein, neu aufsetzen und dann die VMs aus dem Backup wieder herstellen.

    Die VMs sichere ich täglich, mit der Proxmox Backup Funktion. Das NAS meistens nur wöchentlich.

  • Das klingt nach einem guten Verhältnis zwischen Aufwand und Risiko. Hat mir alles sehr geholfen hier.

    Danke schön.

  • Hallo,

    ich habe mir vor ein paar Wochen ebenfalls das Asrock Board zugelegt. Allerdings das N100M anstatt die "DC" Variante.

    Als Netzteil habe ich ein altes ITS PSU mit ich glaube 120 W genommen.
    Verbaut sind 2x WD SA500 2TB SSD als ZFS Mirror und ein 500GB NVME für das Proxmox System. Als 32GB Ram Modul habe ich das gleiche verwendet und hat läuft auch ohne Probleme.
    Hab ein 2.5Gb USB PCIe Netzwerkkarte gegönnt. Damit komme ich auf irgendwo schreibend 200 Mb/s, lesend 270 Mb/s (Samba share). Hatte bisher auf meinem "großen" Nas mit drehenden Platten ein Austausch+SVN drauf. Das werde ich auf den kleinen Rechner umziehen damit ich den großen NAS öfters ausschalten kann

    Backup: Die VMs werden auf das NAS gesichert -> SMB
    -> unschön: Würde gerne jedes Backup in einem Unterordner sehen. Aber alle erscheinen unter /backupziel/dump. Geht wohl nur wenn ich in Proxmox mehrere Backup Ziele/Storages einrichte

    Bisher laufen mehrere VMs

    1. Wordpress*Nextcloud -> von außen erreichbare Anwendungen
    2. interne Anwedungen wie "Teile Manager", Wiki, Unifi Controller
    3. Smart Home: Ich nutze hier FHEM, Grafana, MariaDB,....
    4. Homeassistant läuft noch nebenher, unter Raspberry hatte ich damit Probleme und bin deshalb bei FHEM geblieben

    Alles "VMs", keine LXC Container. Hatte immer das aktuelle Ubuntu Server Image verwendet

    Die ganze Kiste läuft irgendwo zwischen 15..17 W im Idle. Wobei das Netzteil alleine schon zwischen 4 und 5 W benötigt - selbst wenn es nicht am PC eingesteckt ist. Hatte ein 150W "klassisches" Netzteil probiert - das war aber keineswegs besser.

    Tolles kleines Board, das jetzt schon 2 Raspberrys ersetzt.

    Grüße
    Malte

  • @maltejahn Freue mich den sehr positiven Erfahrungsbericht zu lesen. Viel Spaß weiterhin.

  • Ich hab mir, unter anderem auch als Folge von dem Testbeitrag, auch so ein Board gekauft, aber ich bekomme es ums Verrecken nicht stabil zum laufen.
    Egal was ich drauf boote, es crasht sobald irgendeine Form von Last drauf ist. Debian 12 wäre das eigentliche Ziel-OS, aber selbst Win10 und einfach nur memtest86 haben das gleiche Resultat - bunter Schnee auf dem Bildschirm gefolgt von einem harten Reset.
    Ich sitze jetzt vor dem dritten dieser Boards, alle das gleiche Problem.. hab extra von unterschiedlichen Händlern bestellt um Chargen-Fehler auszuschliessen.
    Einfach nur dieses Board, die gleiche Crucial P3 500GB SSD und einen Kingston ValueRAM DDR4-3200 (der auch korrekt erkannt wird), vor mir auf seinem Karton liegend. Alter Intel PWM boxed-Lüfter draufgelegt, damits nicht zu warm wird.
    Memtest86 findet, wenn es denn mal komplett durch schafft, keine Fehler.. werde aber trotzdem mal austauschen. Netzteile hab ich auch schon drei durchprobiert (Dell, Fujitsu, HP Laptopziegel mit 19V 90W).
    Ursprünglich hatte ich den Intel i915 Treiber in Verbindung mit einer doch sehr neuen CPU+iGPU in Verdacht, aber wenn ich den rausschmeisse und rein in VESA Modus boote, bleiben die Crashes, nur der bunte Schnee davor tritt nicht auf.
    Irgendwelche Ideen was das sein könnte? BIOS-Einstellungen sind alle auf defaults, nix getuned oder so.
    Sobald ich 'stress -c 2 -m 2' starte, was für eine 4-Kern CPU eigentlich keine Bedrohung sein sollte, resettet das Board in weniger als 30 Sekunden.

  • Hallo @wooshell , erst mal sehr schade das Du so einen Stress mit dem Board hast. Ich habe das jetzt schon Monate laufen, übrigens ohne einen Kühler. Ok, wird ordentlich warm aber ich hasse Lüfter 😉

    Ich kann leider nicht so richtig erkennen, wo dein Problem liegt. Wie groß ist dein Speicher? Ist der in der Liste der unterstützen RAM Riegel?

    Das habe ich verbaut.

    RAM: Corsair Vengeance SODIMM 32GB (2x16GB) DDR4 2400MHz CL16 https://www.corsair.com/de/de/Kategorien/Produkte/Arbeitsspeicher/VENGEANCE-DDR4-SODIMM/p/CMSX32GX4M2A2400C16

    Aus dem Bauch heraus, würde ich auf RAM tippen.

  • RockPro64 - Mainline Kernel 6.8.0-rc3

    ROCKPro64
    1
    0 Stimmen
    1 Beiträge
    259 Aufrufe
    Niemand hat geantwortet
  • Raspberry Pi5 - First Boot

    RaspberryPi
    1
    0 Stimmen
    1 Beiträge
    221 Aufrufe
    Niemand hat geantwortet
  • Give back to open source 2023

    Allgemeine Diskussionen
    1
    0 Stimmen
    1 Beiträge
    110 Aufrufe
    Niemand hat geantwortet
  • Proxmox - Backup Server WakeOnLan

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    704 Aufrufe
    Niemand hat geantwortet
  • VSCodium

    Linux
    1
    0 Stimmen
    1 Beiträge
    240 Aufrufe
    Niemand hat geantwortet
  • ROCKPro64 - Debian Bullseye Teil 1

    ROCKPro64
    17
    0 Stimmen
    17 Beiträge
    2k Aufrufe
    FrankMF

    Durch diesen Beitrag ist mir mal wieder eingefallen, das wir das erneut testen könnten 😉

    Also die aktuellen Daten von Debian gezogen. Das Image gebaut, könnt ihr alles hier im ersten Beitrag nachlesen. Da die eingebaute Netzwerkschnittstelle nicht erkannt wurde, habe ich mal wieder den USB-to-LAN Adapter eingesetzt.

    Bus 005 Device 002: ID 0b95:1790 ASIX Electronics Corp. AX88179 Gigabit Ethernet

    Die Installation wollte ich auf einem NVMe Riegel installieren.

    Die Debian Installation durchgezogen und nach erfolgreicher Installation neugestartet. Und siehe da, ohne das man alles möglich ändern musste, bootete die NVMe SSD 🤓

    Eingesetzter uboot -> 2020.01-ayufan-2013......

    Die nicht erkannte LAN-Schnittstelle müsste an nicht freien Treibern liegen, hatte ich da irgendwo kurz gelesen. Beim Schreiben dieses Satzes kam die Nacht und ich konnte noch mal drüber schlafen. Heute Morgen, beim ersten Kaffee, dann noch mal logischer an die Sache ran gegangen.

    Wir schauen uns mal die wichtigsten Dinge an.

    root@debian:~# ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 62:03:b0:d6:dc:b3 brd ff:ff:ff:ff:ff:ff 3: enx000acd26e2c8: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether 00:0a:cd:26:e2:c8 brd ff:ff:ff:ff:ff:ff inet 192.168.3.208/24 brd 192.168.3.255 scope global dynamic enx000acd26e2c8 valid_lft 42567sec preferred_lft 42567sec inet6 fd8a:6ff:2880:0:20a:cdff:fe26:e2c8/64 scope global dynamic mngtmpaddr valid_lft forever preferred_lft forever inet6 2a02:908:1260:13bc:20a:xxxx:xxxx:xxxx/64 scope global dynamic mngtmpaddr valid_lft 5426sec preferred_lft 1826sec inet6 fe80::20a:cdff:fe26:e2c8/64 scope link valid_lft forever preferred_lft forever

    Ok, er zeigt mir die Schnittstelle eth0 ja an, dann kann es an fehlenden Treibern ja nicht liegen. Lässt dann auf eine fehlerhafte Konfiguration schließen. Nächster Halt wäre dann /etc/network/interfaces

    Das trägt Debian ein

    # This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). source /etc/network/interfaces.d/* # The loopback network interface auto lo iface lo inet loopback # The primary network interface allow-hotplug enx000acd26e2c8 iface enx000acd26e2c8 inet dhcp # This is an autoconfigured IPv6 interface iface enx000acd26e2c8 inet6 auto

    Gut, bei der Installation hat Debian ja nur die zusätzliche Netzwerkschnittstelle erkannt, folgerichtig ist die auch als primäre Schnittstelle eingetragen. Dann ändern wir das mal...

    # This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). source /etc/network/interfaces.d/* # The loopback network interface auto lo iface lo inet loopback # The primary network interface #allow-hotplug enx000acd26e2c8 allow-hotplug eth0 #iface enx000acd26e2c8 inet dhcp iface eth0 inet dhcp # This is an autoconfigured IPv6 interface #iface enx000acd26e2c8 inet6 auto iface eth0 inet6 auto

    Danach einmal alles neu starten bitte 😉

    systemctl status networking

    Da fehlte mir aber jetzt die IPv4 Adresse, so das ich einmal komplett neugestartet habe. Der Ordnung halber, so hätte man die IPv4 Adresse bekommen.

    dhclient eth0

    Nachdem Neustart kam dann das

    root@debian:/etc/network# ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 62:03:b0:d6:dc:b3 brd ff:ff:ff:ff:ff:ff inet 192.168.3.172/24 brd 192.168.3.255 scope global dynamic eth0 valid_lft 42452sec preferred_lft 42452sec inet6 fd8a:6ff:2880:0:6003:b0ff:fed6:dcb3/64 scope global dynamic mngtmpaddr valid_lft forever preferred_lft forever inet6 2a02:908:1260:13bc:6003:xxxx:xxxx:xxxx/64 scope global dynamic mngtmpaddr valid_lft 5667sec preferred_lft 2067sec inet6 fe80::6003:b0ff:fed6:dcb3/64 scope link valid_lft forever preferred_lft forever 3: enx000acd26e2c8: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 00:0a:cd:26:e2:c8 brd ff:ff:ff:ff:ff:ff

    Fertig, eth0 läuft. Nun kann man den zusätzlichen Adapter entfernen oder halt konfigurieren, wenn man ihn braucht.

    Warum der Debian Installer die eth0 nicht erkennt verstehe ich nicht, aber vielleicht wird das irgendwann auch noch gefixt. Jetzt habe ich erst mal einen Workaround um eine Installation auf den ROCKPro64 zu bekommen.

  • ClusterSSH

    Angeheftet Linux
    4
    0 Stimmen
    4 Beiträge
    868 Aufrufe
    FrankMF

    Mal wieder lange dran rumgefummelt, bis es passte.

    I have figured out how to use any font in xterm. So for the case of the mentioned Inconsolata font size 14, the following works:

    Add these 2 lines into ~/.Xresources (create it if it does not exist)

    XTermfaceName: Inconsolata
    XTermfaceSize: 14

    Then, tell xterm to use this file:

    export XENVIRONMENT="${HOME}/.Xresources"

    Preferably add this export into .bashrc, so that it is persistent.

    comment out the font settings in ~/.clusterssh/config, if it exists: # terminal_font=6x13

    Quelle: https://unix.stackexchange.com/questions/230106/cluster-ssh-specify-terminal-font

  • Redis Replication

    Angeheftet Verschoben Redis
    4
    1 Stimmen
    4 Beiträge
    460 Aufrufe
    FrankMF

    Um die Verbindung zu testen, kann man folgende Befehle nutzen.

    redis-cli -h 10.1.1.0 -p 6379 -a <PASSWORD>

    und

    telnet 10.1.1.0 6379