chipmaster21 Posted April 11, 2022 Share #1 Posted April 11, 2022 Hallo ich habe erfolgreich XPenology installiert (DSM6.2-23739, DS3615xs). Folgende Konfig: - 4 x 14 TB Enterprise Toshiba HDD als Raid 10 - Festplatten werden durchgereicht - OS auf SSD als Raid 10 Das ganze läuft als VM unter Proxmox. Nun habe ich folgenden Test durchgeführt - was passiert bei Ausfall einer Platte. Ergebnis: Die VM bleibt stehen mit einem IO Error. Versuch des Neustarts scheiterte ebenfalls - die VM ließ sich einfach nicht starten und brachte kvm: -drive file=/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG,if=none,id=drive-sata4,format=raw,cache=none,aio=io_uring,detect-zeroes=on: Could not open '/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG': No such file or directory TASK ERROR: start failed: QEMU exited with code 1 Ist das System somit nicht eigentlich schwer im Nachteil? Bei einem echten Ausfall würde ich an meine Daten nicht mehr kommen und der Austausch der Platte würde in der Konfig auch nicht klappen, da eine neue Platte eine andere UUID bzw. SN hätte und somit nicht als das passende Drive erkannt werden würde. Ich nutze auch eine echte Synology (die hat leider kein 10Gbit-Port) die das völlig normal abarbeitet, Plattenausfall meldet und weitermacht. Hat jemand schonmal sowas getestet kann hier einen hilfreichen Tipp geben? Danke euch schonmal vielmals Quote Link to comment Share on other sites More sharing options...
IG-88 Posted April 11, 2022 Share #2 Posted April 11, 2022 1 hour ago, chipmaster21 said: Folgende Konfig: - 4 x 14 TB Enterprise Toshiba HDD als Raid 10 man würde da eher raid5 nehmen, weniger verlust und ein den meisten fällen ist die performance eher von iops abhängig so das man io intensive sachen auf ein extra ssd volume legt, konventionelle hdd's sind ja eher die für datengräber 1 hour ago, chipmaster21 said: - Festplatten werden durchgereicht - OS auf SSD als Raid 10 bei os meinst du das proxmox? denn bei dsm wird das system über alle platten als raid1 verteilt, ALLE außer ssd cache platen 1 hour ago, chipmaster21 said: kvm: -drive file=/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG,if=none,id=drive-sata4,format=raw,cache=none,aio=io_uring,detect-zeroes=on: Could not open '/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG': No such file or directory TASK ERROR: start failed: QEMU exited with code 1 klingt eher nach einem hypervisor problem da das dsm system auf jeder platte ist sollte es immer hochkommen so lange noch wenigstens eine platte übrig ist such also mal eher beim proxmox nach dem problem mit baremetal xpenology liegst du in der regel wesenlich näher an der convenience einer original unit, hypervisor ist eher interessant wenn man viele andere vm's hat und dsm nur eine davon ist Quote Link to comment Share on other sites More sharing options...
chipmaster21 Posted April 11, 2022 Author Share #3 Posted April 11, 2022 (edited) Hi IG-88 Vielen Dank für dein Feedback. Ich würde Dir mit Raid5 Recht geben, aber ich wollte möglichst viel Performance aus den Drehscheiben holen (10 GBit Netzwerk vorhanden). Aber wenn ich noch SSD-Cache nachrüste, wäre das dann vermutlich egal ob Raid 5 oder Raid10 (natürlich mehr Platz bei Raid 5 ) Ich muss nochmal etwas detaillierterer werden. Im Ursprungstext hab ich einen Fehler - die SSDs laufen im Raid1. Also - Proxmox mit 2 x 512 GB SSD im Raid 1. Darauf laufen 6 VMs. Eine VM davon ist Xpenology. Die 14TB Platten wurden nachträglich eingebunden und damit das Raid10 in XPenology gebildet - also Xpenology lief schon ohne die 14TB Platten, müsste daher also nur auf den SSDs (bzw. auf dem VM-Datencontainer) laufen. Oder verteilt sich das automatisch zur Absicherung auf weitere hinzugefügte Platten? Wäre ja auch cool. Achja - die 14TB Platten laufen an einem extra SATA6G-HBA-Controller. Eine reine Baremetal-Einrichtung wäre vermutlich besser, aber auf Grund der vielfältigen Nutzung wollt ich das wirklich vermeiden. Ich fürchte Du liegst richtig - es ist wohl ein Hypervisor-Problem. Bin schon am überlegen, ob ich das Raid in Proxmox erstelle und danach erst in Xpenology einbinde. Leider fehlen dann einige Features wie Benchmark und Integritätsstatus. Naja allerdings geht das aktuell ohnehin noch nicht, da XPenology die QEMU Datenträger wohl nicht direkt ansprechen kann. Am schönsten wäre ja, wenn der HBA-Controller nur für die Xpenology laufen würde, aber das hab ich bis jetzt nicht hinbekommen. PCIe Passtrough funktioniert immerhin schon (so wird übrigens auch die 10 GBIt-Karte voll durchgereicht und ich schaffe fast volle Bandbreite im Speedtest). Edited April 11, 2022 by chipmaster21 Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.