LyriC Posted September 15, 2020 Share #1 Posted September 15, 2020 (edited) Hallo zusammen, wir planen gerade einen Server mit 24 Laufwerken mit XPEnology zu installieren. Wir dachten das wir hier erstmal fragen ob das mit der Hardware überhaupt möglich ist. Ich hoffe Ihr könnt uns dabei helfen und beraten. Folgende Hardware ist im Server Vorhanden. Gehäuse: Supermicro CSE-216 2U Link Mainboard: X10DRH-iT Link CPU: 1x Intel Xeon E5-2630 v3 Link Ram: 64GB DDR4 oder 128GB DDR4 Controller HBA: 2x LSI SAS 9400-16i Link zusätzliche Netzwerkkarten: 2x Qlogic QLE8152-SR-T-N Link oder 2x Intel X520-DA2 Link und noch 1x Intel I350-T4 Link Ich denke das war es alles. Ach so es soll ein SHR Raid erstellt werden mit 8x 2tb SATA SSD's und 8x 500gb SATA SSD's. Seht Ihr bei der Konstellation Probleme mit der Hardware und wenn ja, was sollte geändert werden? Danke für Eure Hilfe. Gruß Edited September 15, 2020 by LyriC Quote Link to comment Share on other sites More sharing options...
Chili Posted September 16, 2020 Share #2 Posted September 16, 2020 Wer ist "wir"? Und was soll mit so einer Monster-Maschine erreicht werden? XPENology ist ja für einen produktiven (im Sinne von gewerblichen) Einsatz nicht wirklich gedacht. Und für privat ist das Teil doch um Potenzen zu fett, meine ich. Aber klar, grundsätzlich kann man das machen. Man müsste nur die Anzahl der möglichen Platten im Bootloader hochsetzen, weil der per default bei 16 liegt. Mich würde später mal interessieren, wie der Energieverbrauch von dem Trumm ist. Quote Link to comment Share on other sites More sharing options...
jensmander Posted September 16, 2020 Share #3 Posted September 16, 2020 Machbar ja, aber im Produktiveinsatz von abzuraten (kritische oder geschäftliche Daten). Die maximale Anzahl der HDDs lässt sich über die Modifizierung der synoinfo.conf realisieren bzw. ändern. Allerdings ist das risikoreich, da bei einem release Update die conf wieder zurückgesetzt werden kann. Soll das ein Datengrab werden für SMB/(S)FTP etc.? Dann würden Distros wie OMV5 oder FreeNas reichen und sicherer sein. Oder einen freien Hypervisor installieren und QuTSCloud von Qnap nehmen (kostenpflichtig). Quote Link to comment Share on other sites More sharing options...
LyriC Posted September 16, 2020 Author Share #4 Posted September 16, 2020 Hi, erstmal danke für deine Rückmeldung. Joar soll schon Produktive sein ist als storage host gedacht für ein paar XCP-ng Server. Die host sollen Ihren Storage per iSCSI präsentiert bekommen und dementsprechend die VMs dann auf dem Storage (XPEnology System liegen) Ok ich verstehe das Problem mit dem Update das wäre dann äußerst schlecht. wie wäre es wenn man keine Updates zu lässt oder macht. Und dieses System eine abgekapseltes System wird Ohne Internet Anbindung. Das System soll wie gesagt die Hauptaufgabe haben LUN'S per iSCSI zu präsentieren und ein Backup der daten auf eine andere Synology rausschieben. Für mehr Funktionen wäre das System nicht. Wie Riskant wäre dies? oder anders gefragt ist XPEnology zu instabile? Danke für die Hilfe. Quote Link to comment Share on other sites More sharing options...
jensmander Posted September 16, 2020 Share #5 Posted September 16, 2020 Nein, instabil ist es nicht (wenn es denn einmal läuft). Ich würde allerdings kein SHR verwenden, sondern klassisches RAID, was via mdam realisiert wird. SHR performt etwas schlechter. Zudem ist es im worst case Szenario einfacher, die RAID systeme unter einer live Distro zu mounten. Es sei denn, Du willst alle Laufwerke in ein Volume zusammenfassen ohne Kapazitätsverlust. Dann bleibt nur SHR. Wobei SSDs und HDDs im RAID mischen ziemlich bananig wäre. Quote Link to comment Share on other sites More sharing options...
LyriC Posted September 16, 2020 Author Share #6 Posted September 16, 2020 Ok, verstehe also lieber 2 klassisches Raid's bauen eins mit 8x 2tb SSD's und eins mit 8x 500GB SSD's. Würde dennoch was gegen die Konfiguration sprechen oder vielleicht auch andere show stopper vor liegen? Wie sieht es mit den Netzwerkkarten aus wird das so unterstützt oder kann man Treiber noch laden? Quote Link to comment Share on other sites More sharing options...
Chili Posted September 16, 2020 Share #7 Posted September 16, 2020 (edited) 58 minutes ago, jensmander said: Wobei SSDs und HDDs im RAID mischen ziemlich bananig wäre. Er/Sie hat keine HDDs vorgesehen, nur 16 SSDs (obwohl eingangs 24 Laufwerke erwähnt sind). Wobei sich mir nicht wirklich erschließt, warum es so eine Mischung aus 2TB und 500GB SSDs sein soll. Vielleicht gab es die als Bundle im Abverkauf.... Edited September 16, 2020 by Chili Quote Link to comment Share on other sites More sharing options...
LyriC Posted September 16, 2020 Author Share #8 Posted September 16, 2020 Es ist richtig es handelt sich hier um SATA SSD's und ja die Rede ist am Anfang von 24 gewesen ist auch noch so gedacht, ich denke schon ein wenig weiter. Wenn man es so sieht gab es das leider nicht so im Abverkauf nur die 500GB SSD's liegen in einer Ecke und warum soll man diese nicht mehr benutzen. Zumindest ist dies der Gedanke dahinter. Quote Link to comment Share on other sites More sharing options...
IG-88 Posted September 16, 2020 Share #9 Posted September 16, 2020 8 hours ago, Chili said: Man müsste nur die Anzahl der möglichen Platten im Bootloader hochsetzen, weil der per default bei 16 liegt. so einfach ist das nicht, man müsste dann auch variablen anpassen die es so in dem patch noch nicht gibt z.b. für die usb anschlüsse oder da wir hier von 3617 reden (8 cores mit HT = 16), in dem patch der 3615/17 gibt es nicht mal die maxdisk and internal texte die man ändern könnte, da wird schon immer mit dem 12er default gelebt man müsste den bzw. die patches (es geht um mehrere files die in der patch datei verändert werden) mit "diff" neu erstellen - wenn es soo einfach wäre hätte ich das schon vor längerem gemacht wenn man sich den patch ansieht gibt es im unteren teil noch einen patch im patch - wenn man da dran rumspielt solte man wissen wie der patch funktioniert und wissen wie man "diff" benutzt ich bin grade am überlegen, ich habe corona bedingt kommende woche etwas zeit übrig die ich zum einen in aktualisierte treiber und eine kvm/proxmox variante stecken wollte aber die pathes der loader auf 24 disks bringen wäre auch auf der liste was ich machen will wenn ich mal zeit übrig habe (und bei 918+ 4 oder 8 nic's statt der 2 reinbringen) 3617 - ein teil vom patch im patch +#$1 pattern, $2 path +_del() +{ + if grep -q "$1" "$2";then + /tmpRoot/usr/bin/sed -i "$2" -e "/$1/ d" + fi +} + +_del 'supportadt7490="yes"' /tmpRoot/etc.defaults/synoinfo.conf + +#$1 pattern, $2 replace, $3 path +_replace() +{ + if grep -q "$1" "$3";then + /tmpRoot/usr/bin/sed -i "$3" -e "s/$1/$2/" + fi +} + und der gleiche part im 918+ patch +#$1 pattern, $2 path +_del() +{ + if grep -q "$1" "$2";then + /tmpRoot/usr/bin/sed -i "$2" -e "/$1/ d" + fi +} + +_del 'support_led_brightness_adjustment="yes"' /tmpRoot/etc.defaults/synoinfo.conf +_del 'support_leds_lp3943="yes"' /tmpRoot/etc.defaults/synoinfo.conf +_del 'HddHotplug="yes"' /tmpRoot/etc.defaults/synoinfo.conf + +#$1 pattern, $2 replace, $3 path +_replace() +{ + if grep -q "$1" "$3";then + /tmpRoot/usr/bin/sed -i "$3" -e "s/$1/$2/" + fi +} + +_replace 'esataportcfg="0x10"' 'esataportcfg="0x0"' /tmpRoot/etc.defaults/synoinfo.conf +_replace 'internalportcfg="0xf"' 'internalportcfg="0xffff"' /tmpRoot/etc.defaults/synoinfo.conf +_replace 'maxdisks="4"' 'maxdisks="16"' /tmpRoot/etc.defaults/synoinfo.conf + zum einen gibt es einen part der die synoinfo.conf direkt patcht und dieser part hier wird in die "/usr/sbin/init.post" eingepatcht damit die dann wiederum die synoinfo.conf patcht/verändert und wenn man >16 geht kommt auf jeden fall die usbportcfg dazu diese ports muss man dann zwangsläufig hinter die 24 internal drives setzen oder auf 0 sonst werden die internl drives plötzlich zu externen und ich bin mir nicht sicher was passiert wenn man ein usb laufwerk zusätzlich anschließt, eigentlich sollen die "positionen" (die 4 bit die ein hex "f" meint) nicht doppelt vergeben werden Quote Link to comment Share on other sites More sharing options...
IG-88 Posted September 16, 2020 Share #10 Posted September 16, 2020 (edited) btw. ich würde das mit dem systemboard noch mal überdenken 2 x 10G nic und nicht benutzt um dann 4 x 10G ports einzubeuen das gleiche bei den sata ports 10 vorhanden die man ignoriert um dann 2 x 16 port controller einzubauen außerdem vorsicht beim 9400, bin mir nicht sicher das der überhaupt unterstützt wird, 93xx, das müsste man im treiber (mpt3sas) über die pci vid/pid prüfen ich weiß ja nicht wie das mit dem 4 x 10G nic gedacht ist (redundante anschlüsse an switches oder andere geräte?) aber rein von der performace her würde man mit QSFP+ oder 50/100Gbit nic mehr leistung ziehen können, das mit dem "summieren" von nic geschwindigkeit ist nur realistisch wenn man viele "clients" an den 2-4 nic's hat ich würde dann eher ein board mit sfp+ onboard nehmen und evtl. lohnt es sich dann auch nach einen onboard sas zu schauen der hätte dann in der regel die option auf 8 sata laufwerke mit 2 sas anschlüssen, was zusammen mit einem 16 port sas die 24 ergibt - aber evtl. spielt das auch keine rolle da es darauf ankommt wie viele sas anschlüsse die backplane hat, eine einzelner sas controller kann über die backplanes sehr viele laufwerke ansprechen, wenn die backplane nur 2 x sas hat barucht man auch nur einen controller, das mit 8 oder 16 drives it eigentlich nur wenn man aus einen sas anschluss 4 x sata macht, wenn man in der sas welt bleibt gelten andere regeln edit: btw. ssd und "klassisches" raid? synology empfielt da das eine spezial (das man dann natürlich nicht mal aben auf eine anderen normalen linux wieder hochfahren oder recovern kann) https://xpenology.com/forum/topic/9394-installation-faq/?do=findComment&comment=131458 edit2: wenn man die lsi sas controller benutzt kann man der zuordung von slots in der dsm gui schon mal tschüss sagen, die ändert sich wenn laufwerke ausfallen oder entfernt werden und neue laufwerk tauchen immer am "ende" auf, werden also angehängt wirklich feste zuordung gibts im momen nur mit richtigem sata/ahci Edited September 16, 2020 by IG-88 Quote Link to comment Share on other sites More sharing options...
IG-88 Posted September 16, 2020 Share #11 Posted September 16, 2020 4 hours ago, LyriC said: Wie sieht es mit den Netzwerkkarten aus wird das so unterstützt oder kann man Treiber noch laden? intel sollte gehen da baue ich immer wieder mal neue treiber aus aktuellen source den es von intel gibt bei den qlogic müsste man genau hinsehen welchen treiber der verbaute chip nutzt und ob es nativ von dem alten kernel 3.10.105 unterstützt wird bzw. ob es treiber gibt die man compilieren kann (und die dann auch funktionieren , nicht alles ist unbedingt nach hinten zu alten kernels kompatibel) Quote Link to comment Share on other sites More sharing options...
LyriC Posted September 16, 2020 Author Share #12 Posted September 16, 2020 Wow, erstmal Danke für deine Antworten. Das klingt erstmal nicht nach "ich mach mal schnell" ;-) ich hatte mir schon gedacht das dies so einfach nicht wird. @IG-88 Ich werde mir deine Posts mal in ruhe paar mal durchlesen und wahrscheinlich ein wenig (vieleicht auch viel :-D ) umplanen. Ich schreibe dann nochmal wie die konstelation dann aussieht. Danke nochmal. :-) Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.