Jump to content
XPEnology Community

XPEnology Projekt Planung Server Hardware


LyriC

Recommended Posts

Hallo zusammen,

 

wir planen gerade einen Server mit 24 Laufwerken mit XPEnology zu installieren.

Wir dachten das wir hier erstmal fragen ob das mit der Hardware überhaupt möglich ist.

Ich hoffe Ihr könnt uns dabei helfen und beraten.

Folgende Hardware ist im Server Vorhanden.

Gehäuse: Supermicro CSE-216 2U Link

Mainboard: X10DRH-iT Link

CPU: 1x Intel Xeon E5-2630 v3 Link

Ram: 64GB DDR4 oder 128GB DDR4

Controller HBA: 2x LSI SAS 9400-16i Link

zusätzliche Netzwerkkarten: 2x Qlogic QLE8152-SR-T-N Link oder 2x Intel X520-DA2 Link

und noch 1x Intel I350-T4 Link

 

Ich denke das war es alles.

Ach so es soll ein SHR Raid erstellt werden mit 8x 2tb SATA SSD's und 8x 500gb SATA SSD's.

 

Seht Ihr bei der Konstellation Probleme mit der Hardware und wenn ja, was sollte geändert werden?

Danke für Eure Hilfe.

 

Gruß

 

Edited by LyriC
Link to comment
Share on other sites

Wer ist "wir"?
Und was soll mit so einer Monster-Maschine erreicht werden?
XPENology ist ja für einen produktiven (im Sinne von gewerblichen) Einsatz nicht wirklich gedacht.
Und für privat ist das Teil doch um Potenzen zu fett, meine ich.

Aber klar, grundsätzlich kann man das machen.
Man müsste nur die Anzahl der möglichen Platten im Bootloader hochsetzen, weil der per default bei 16 liegt.

 

Mich würde später mal interessieren, wie der Energieverbrauch von dem Trumm ist.


 

Link to comment
Share on other sites

Machbar ja, aber im Produktiveinsatz von abzuraten (kritische oder geschäftliche Daten). Die maximale Anzahl der HDDs lässt sich über die Modifizierung der synoinfo.conf realisieren bzw. ändern. Allerdings ist das risikoreich, da bei einem release Update die conf wieder zurückgesetzt werden kann.

 

Soll das ein Datengrab werden für SMB/(S)FTP etc.? Dann würden Distros wie OMV5 oder FreeNas reichen und sicherer sein. Oder einen freien Hypervisor installieren und QuTSCloud von Qnap nehmen (kostenpflichtig).

Link to comment
Share on other sites

Hi,

erstmal danke für deine Rückmeldung.

Joar soll schon Produktive sein ist als storage host gedacht für ein paar XCP-ng Server.

Die host sollen Ihren Storage per iSCSI präsentiert bekommen und dementsprechend die VMs dann auf dem Storage (XPEnology System liegen)

Ok ich verstehe das Problem mit dem Update das wäre dann äußerst schlecht. wie wäre es wenn man keine Updates zu lässt oder macht.

Und dieses System eine abgekapseltes System wird Ohne Internet Anbindung.

Das System soll wie gesagt die Hauptaufgabe haben LUN'S per iSCSI zu präsentieren und ein Backup der daten auf eine andere Synology rausschieben.

Für mehr Funktionen wäre das System nicht.

Wie Riskant wäre dies? oder anders gefragt ist XPEnology zu instabile? 

 

Danke für die Hilfe.

 

 

 

Link to comment
Share on other sites

Nein, instabil ist es nicht (wenn es denn einmal läuft). Ich würde allerdings kein SHR verwenden, sondern klassisches RAID, was via mdam realisiert wird. SHR performt etwas schlechter. Zudem ist es im worst case Szenario einfacher, die RAID systeme unter einer live Distro zu mounten. Es sei denn, Du willst alle Laufwerke in ein Volume zusammenfassen ohne Kapazitätsverlust. Dann bleibt nur SHR. Wobei SSDs und HDDs im RAID mischen ziemlich bananig wäre.

Link to comment
Share on other sites

Ok, verstehe also lieber 2 klassisches Raid's bauen eins mit 8x 2tb SSD's und eins mit 8x 500GB SSD's.

Würde dennoch was gegen die Konfiguration sprechen oder vielleicht auch andere show stopper vor liegen?

Wie sieht es mit den Netzwerkkarten aus wird das so unterstützt oder kann man Treiber noch laden?

 

Link to comment
Share on other sites

58 minutes ago, jensmander said:

Wobei SSDs und HDDs im RAID mischen ziemlich bananig wäre.

Er/Sie hat keine HDDs vorgesehen, nur 16 SSDs (obwohl eingangs 24 Laufwerke erwähnt sind).
Wobei sich mir nicht wirklich erschließt, warum es so eine Mischung aus 2TB und 500GB SSDs  sein soll.
Vielleicht gab es die als Bundle im Abverkauf....

Edited by Chili
Link to comment
Share on other sites

Es ist richtig es handelt sich hier um SATA SSD's und ja die Rede ist am Anfang von 24 gewesen ist auch noch so gedacht, ich denke schon ein wenig weiter.

Wenn man es so sieht gab es das leider nicht so im Abverkauf nur die 500GB SSD's liegen in einer Ecke und warum soll man diese nicht mehr benutzen.

Zumindest ist dies der Gedanke dahinter.

 

Link to comment
Share on other sites

8 hours ago, Chili said:

Man müsste nur die Anzahl der möglichen Platten im Bootloader hochsetzen, weil der per default bei 16 liegt.

so einfach ist das nicht, man müsste dann auch variablen anpassen die es so in dem patch noch nicht gibt z.b. für die usb anschlüsse oder da wir hier von 3617 reden (8 cores mit HT = 16), in dem patch der 3615/17 gibt es nicht mal die maxdisk and internal texte die man ändern könnte, da wird schon immer mit dem 12er default gelebt

man müsste den bzw. die patches (es geht um mehrere files die in der patch datei verändert werden) mit "diff" neu erstellen - wenn es soo einfach wäre hätte ich das schon vor längerem gemacht

wenn man sich den patch ansieht gibt es im unteren teil noch einen patch im patch - wenn  man da dran rumspielt solte man wissen wie der patch funktioniert und wissen wie man "diff" benutzt

 

ich bin grade am überlegen, ich habe corona bedingt kommende woche etwas zeit übrig die ich zum einen in aktualisierte treiber und eine kvm/proxmox variante stecken wollte aber die pathes der loader auf 24 disks bringen wäre auch auf der liste was ich machen will wenn ich mal zeit übrig habe (und bei 918+ 4 oder 8 nic's statt der 2 reinbringen)

 

3617 - ein teil vom patch im patch

+#$1 pattern, $2 path
+_del()
+{
+	if grep -q "$1" "$2";then
+		/tmpRoot/usr/bin/sed -i "$2" -e "/$1/ d"
+	fi
+}
+
+_del 'supportadt7490="yes"' /tmpRoot/etc.defaults/synoinfo.conf
+
+#$1 pattern, $2 replace, $3 path
+_replace()
+{
+	if grep -q "$1" "$3";then
+		/tmpRoot/usr/bin/sed -i "$3" -e "s/$1/$2/"
+	fi
+}
+

und der gleiche part im 918+ patch

 

+#$1 pattern, $2 path
+_del()
+{
+	if grep -q "$1" "$2";then
+		/tmpRoot/usr/bin/sed -i "$2" -e "/$1/ d"
+	fi
+}
+
+_del 'support_led_brightness_adjustment="yes"' /tmpRoot/etc.defaults/synoinfo.conf
+_del 'support_leds_lp3943="yes"' /tmpRoot/etc.defaults/synoinfo.conf
+_del 'HddHotplug="yes"' /tmpRoot/etc.defaults/synoinfo.conf
+
+#$1 pattern, $2 replace, $3 path
+_replace()
+{
+	if grep -q "$1" "$3";then
+		/tmpRoot/usr/bin/sed -i "$3" -e "s/$1/$2/"
+	fi
+}
+
+_replace 'esataportcfg="0x10"' 'esataportcfg="0x0"' /tmpRoot/etc.defaults/synoinfo.conf
+_replace 'internalportcfg="0xf"' 'internalportcfg="0xffff"' /tmpRoot/etc.defaults/synoinfo.conf
+_replace 'maxdisks="4"' 'maxdisks="16"' /tmpRoot/etc.defaults/synoinfo.conf
+

zum einen gibt es einen part der die synoinfo.conf direkt patcht und dieser part hier wird in die "/usr/sbin/init.post" eingepatcht damit die dann wiederum die synoinfo.conf patcht/verändert

und wenn man >16 geht kommt auf jeden fall die usbportcfg dazu diese ports muss man dann zwangsläufig hinter die 24 internal drives setzen oder auf 0 sonst werden die internl drives plötzlich zu externen und ich bin mir nicht sicher was passiert wenn man ein usb laufwerk zusätzlich anschließt, eigentlich sollen die "positionen" (die 4 bit die ein hex "f" meint) nicht doppelt vergeben werden

 

Link to comment
Share on other sites

btw. ich würde das mit dem systemboard noch mal überdenken

2 x 10G nic und nicht benutzt um dann 4 x 10G ports einzubeuen

das gleiche bei den sata ports 10 vorhanden die man ignoriert um dann 2 x 16 port controller einzubauen

 

außerdem vorsicht beim 9400, bin mir nicht sicher das der überhaupt unterstützt wird, 93xx, das müsste man im treiber (mpt3sas) über die pci vid/pid prüfen

 

ich weiß ja nicht wie das mit dem 4 x 10G nic gedacht ist (redundante anschlüsse an switches oder andere geräte?) aber rein von der performace her würde man mit QSFP+ oder 50/100Gbit nic mehr leistung ziehen können, das mit dem "summieren" von nic geschwindigkeit ist nur realistisch wenn man viele "clients" an den 2-4 nic's hat

 

ich würde dann eher ein board mit sfp+ onboard nehmen und evtl. lohnt es sich dann auch nach einen onboard sas zu schauen der hätte dann in der regel die option auf 8 sata laufwerke mit 2 sas anschlüssen, was zusammen mit einem 16 port sas die 24 ergibt - aber evtl. spielt das auch keine rolle da es darauf ankommt wie viele sas anschlüsse die backplane hat, eine einzelner sas controller kann über die backplanes sehr viele laufwerke ansprechen, wenn die backplane nur 2 x sas hat barucht man auch nur einen controller, das mit  8 oder 16 drives it eigentlich nur wenn man aus einen sas anschluss 4 x sata macht, wenn man in der sas welt bleibt gelten andere regeln

 

edit: btw. ssd und "klassisches" raid? synology empfielt da das eine spezial (das man dann natürlich nicht mal aben auf eine anderen normalen linux wieder hochfahren oder recovern kann)

https://xpenology.com/forum/topic/9394-installation-faq/?do=findComment&comment=131458

 

edit2: wenn man die lsi sas controller benutzt kann man der zuordung von slots in der dsm gui schon mal tschüss sagen, die ändert sich wenn laufwerke ausfallen oder entfernt werden und neue laufwerk tauchen immer am "ende" auf, werden also angehängt

wirklich feste zuordung gibts im momen nur mit richtigem sata/ahci

 

Edited by IG-88
Link to comment
Share on other sites

4 hours ago, LyriC said:

Wie sieht es mit den Netzwerkkarten aus wird das so unterstützt oder kann man Treiber noch laden?

 

intel sollte gehen da baue ich immer wieder mal neue treiber aus aktuellen source den es von intel gibt

bei den qlogic müsste man genau hinsehen welchen treiber der verbaute chip nutzt und ob es nativ von dem alten kernel 3.10.105 unterstützt wird bzw. ob es treiber gibt die man compilieren kann (und die dann auch funktionieren , nicht alles ist unbedingt nach hinten zu alten kernels kompatibel)

 

Link to comment
Share on other sites

Wow,

erstmal Danke für deine Antworten.

Das klingt erstmal nicht nach "ich mach mal schnell" ;-) ich hatte mir schon gedacht das dies so einfach nicht wird.

@IG-88 Ich werde mir deine Posts mal in ruhe paar mal durchlesen und wahrscheinlich ein wenig (vieleicht auch viel :-D ) umplanen.

Ich schreibe dann nochmal wie die konstelation dann aussieht.

Danke nochmal. :-)

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...