Jump to content
XPEnology Community

DSM 7.1 - NVME Storage und 10 Gbe Nic


Freez

Recommended Posts

Hi Leute,

mein Xpendology-Pc läuft bereits Testweise mit dem DSM 7.1

Nun will ich aber die im Betreff stehenden Themen noch angehen.

Mit der SuFu bin ich hier im Forum leider nicht so fündig geworden :-(


1.Frage: Kann man auf nem Intel Chipsatz auch ein Synology DS423+ installieren ?
              Dieses hätte nämlich den NVME-Storage-Pool als Funktion bereits inkludiert.

2.Frage: Welche 10 GbeNIC ist für ein Xpendology-System zu empfehlen ?


Hardware:

Motherboard         Asus    Z390-A    1151 v2
            
Prozessor                  Intel    9400F    1151 v2
            
Prozessorkühler    BeQuiet    Pure Rock 2    
            
Arbeitsspeicher     16 GB G.Skill    RipJaws IV 2400    
            
System NVME        Patriot 128 GB    

Danke schon mal vorab für jeden Tipp & Hilfe

DS920+ | Ram: 20 GB | 4 x 8 TB WD Red | Raid 5 
DS720+ | Ram: 16 GB |  2 x 6 TB WD Red | Raid 1
DS920+ | Asus Z390-A | Intel I5 9400F | Ram: 16 GB | 4 x 2 TB WD Red | Raid 5 | System-NVME: 128 Gb Patriot

Edited by Freez
Link to comment
Share on other sites

  • 3 weeks later...
On 9/5/2023 at 1:38 PM, Freez said:

1.Frage: Kann man auf nem Intel Chipsatz auch ein Synology DS423+ installieren ?
              Dieses hätte nämlich den NVME-Storage-Pool als Funktion bereits inkludiert.

ja, du könntest das auch mit einem ryzen laufen lassen, einziger nachteil wäre nur das VMM dann nicht geht aber sol lange die intel dsm mit intel cpu kombinierst startet/läuft es

das "limit" sind in dem fall die im (orginal synology) kernel einkompilierten optionen, u.a. kann man manche kernel module nicht "einfach" (aka insmod) nachladen wenn dafür der grundlegende support im kernel fehlt und der hauptpunkt sind die cpu cores, wenn du mehr cpu cores hast werden die nicht benutzt und bei HT wird unter umständen auch ein HT "virtueller core" (aka thread) benutzt der nur 20-25% eines echten core hat

man kann leicht bei synology online nachsehen wo das cpu limit liegt

https://kb.synology.com/en-global/DSM/tutorial/What_kind_of_CPU_does_my_NAS_have

in deinem fall dann 6 kerne ohne HT so das 2 kernel unbenutzt blieben würden, ist bei reinem daten silo betrieb unwichtig aber wenn man docker und andere sachen am laufen hat kann es hier und da sein das man die 2 cores vermusst - aber da man den dsm typ einfach im loader wechseln kann und dann eine (cross) update machen kann (bei dem alle eistellungen in dsm erhalten bleiben sollten) kann man auch später auf etwas anderes wechseln das mehr cpu cores hat

wenn es dir um den nativen m.2 nvme als data volume geht dann sind das die theoretischen optionen

https://kb.synology.com/en-ph/DSM/tutorial/Which_models_support_M_2_SSD_storage_pool

die einzige mit mehr als 4 threads wäre ds1823xs+, die würde z.b. vom arc loader unterstützt

https://github.com/AuxXxilium/arc-configs

aber ist amd, so das vermutlich kein VMM nutzbar ist

 

On 9/5/2023 at 1:38 PM, Freez said:

2.Frage: Welche 10 GbeNIC ist für ein Xpendology-System zu empfehlen ?

kommt darauf an was du hast und einbinden willst, wenn es 10G mit RJ45 sein muss dann ist das was anderes als wenn auch sfp+ mit DAC kabel geht

ist also auch vom switch abhängig den man nutzen will (falls man das will, man kann auch 2 karten direkt ohne switch verbinden und parallel zu einer 1G verbindung betreiben, also z.a. eine 2. karte in PC und NAS die man direkt verbindet)

günstig und in den busienss units mit nativem treiber vertreten ist mellanox connectx-3, sfp+, also dann mit dac kabel

"preiswerte" switche mit 3-4 verbindungen 10G wären von qnap (~200€) oder MikroTik (150-200€)

die mellanox treiber sollen auch bei allen gängigen loadern auch für die consumer modelle mit "nachgerüstet" werden, intel ist nicht grundlegend eine gute wahl bei 10G, thehuti basiert würde ich meiden, da sind die treiber nicht in jedem loader zu finden und es kann wegen fehlender firmware im treiber (ist einkompiliert) auch sein das nur bstimmte modelle laufen

wenn man sich auf ein bestimmtes dsm modell festgelegt hat kann man auch schauen was da an nativen treiber drin steckt und eine karte wählen die dazu passt - aber spätestens wenn man dann doch das dsm modell wechselt steht man wieder da und hat eine nicht nativ unterstützet karte

über den daumen gibt es in den consumer modellen fast keinen 10G support und in den busienss modellen ist die mellanox eigentlich immer möglich da synology die auch selbst als nachrüst option verkauft

man muss bei dsm nativen treibern auch ein wenig aufpassen welche version einer karte man kauft, wenn die in dsm einen veralteten treiber haben weil synology keinen besseren bneötigt (keine neuere nic hardware verbauen/verkaufen) kann es sein das neuere versionen eines netzwerkkarten typs nicht mit dem nativen treiber laufen

ist aber alles durch die neuen gut gepflegten loader seit 7.1/7.2 weit weniger ein problem, kann in eizelfällen vorkommen das man einen laoder dann wechselt muss weil dieser neuere oder mehr treiber hat, ist aber am ende für die laufende dsm installtion nicht so wichtig sol lange man beim anderen laoder alles wieder so einstellt wir beim vorherigen (dsm typ, netzwerk karten mac, SN, ...)

 

On 9/5/2023 at 1:38 PM, Freez said:

System NVME        Patriot 128 GB  

vergiss das wenn es um dsm geht, dein system (partition mit DSM) kommt immer als raid1 von allen verbauten platten (cache platten sind davon asugenommen) und von welcher grade geladen wird kann wechseln bzw. werden ja beim schreiben alle platte synchron gehalten (so das langsamere HDD's bremsen), wenn du also normale hdd's mit ssd's im system hast wird das mit dem extra schnellen system platte zum laden und für system zugriffe nichts, da spielt spielt das raid1 die geige und das ist dann nur so schnell wie die langsamen HDD's

(ich habe mir nicht den nativen nvme support für data voluems angesehen und ob synology da neue sachen eingebaut hat z.b. um das laden des systems bevorzugt von nvme zu haben, bei sata ssd's die es in dsm schon lange gibt gab es da keine bevorzugung)

 

Link to comment
Share on other sites

  • 6 months later...

falls noch relevant oder auch für spätere Mitleser:

 

für mich ist SFP+ der beste Standard, weil da geht Lichtwellenleiter, Kupfer, RJ45 Ethernetkabel eben alles und spart auch am meisten Strom und senkt somit Verlustleistung = Abwärme

Ich bin mit den kleinen roten ASUS SPF+ PCIe Karten sehr zufrieden, wobei sie keine 16 Kanäle benötigt, nur 8 (erkennt man aber in der Produktbeschreibung und optisch an der Länge der Kontakte), also auf CPU und mechanische UND elektrische Gegebenheit seitens Motherboard achten.

 

 

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...