Ausfalltest negativ oder falsche Konfig?


Recommended Posts

Hallo

 

ich habe erfolgreich XPenology installiert (DSM6.2-23739, DS3615xs).

 

Folgende Konfig:

- 4 x 14 TB Enterprise Toshiba HDD als Raid 10

- Festplatten werden durchgereicht

- OS auf SSD als Raid 10

 

Das ganze läuft als VM unter Proxmox.

 

Nun habe ich folgenden Test durchgeführt - was passiert bei Ausfall einer Platte.

 

Ergebnis:

Die VM bleibt stehen mit einem IO Error.

Versuch des Neustarts scheiterte ebenfalls - die VM ließ sich einfach nicht starten und brachte 

 

kvm: -drive file=/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG,if=none,id=drive-sata4,format=raw,cache=none,aio=io_uring,detect-zeroes=on: Could not open '/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG': No such file or directory
TASK ERROR: start failed: QEMU exited with code 1

 

Ist das System somit nicht eigentlich schwer im Nachteil? Bei einem echten Ausfall würde ich an meine Daten nicht mehr kommen und der Austausch der Platte würde in der Konfig auch nicht klappen, da eine neue Platte eine andere UUID bzw. SN hätte und somit nicht als das passende Drive erkannt werden würde.

 

Ich nutze auch eine echte Synology (die hat leider kein 10Gbit-Port) die das völlig normal abarbeitet, Plattenausfall meldet und weitermacht.

 

Hat jemand schonmal sowas getestet kann hier einen hilfreichen Tipp geben?

 

Danke euch schonmal vielmals

 

 

Link to post
Share on other sites
1 hour ago, chipmaster21 said:

Folgende Konfig:

- 4 x 14 TB Enterprise Toshiba HDD als Raid 10

man würde da eher raid5 nehmen, weniger verlust und ein den meisten fällen ist die performance eher von iops abhängig so das man io intensive sachen auf ein extra ssd volume legt, konventionelle hdd's sind ja eher die für datengräber

 

1 hour ago, chipmaster21 said:

- Festplatten werden durchgereicht

- OS auf SSD als Raid 10

bei os meinst du das proxmox? denn bei dsm wird das system über alle platten als raid1 verteilt, ALLE außer ssd cache platen

 

1 hour ago, chipmaster21 said:

kvm: -drive file=/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG,if=none,id=drive-sata4,format=raw,cache=none,aio=io_uring,detect-zeroes=on: Could not open '/dev/disk/by-id/ata-TOSHIBA_MG08ACA14TE_61G0A0DLFVJG': No such file or directory
TASK ERROR: start failed: QEMU exited with code 1

klingt eher nach einem hypervisor problem

da das dsm system auf jeder platte ist sollte es immer hochkommen so lange noch wenigstens eine platte übrig ist

such also mal eher beim proxmox nach dem problem

mit baremetal xpenology liegst du in der regel wesenlich näher an der convenience einer original unit, hypervisor ist eher interessant wenn man viele andere vm's hat und dsm nur eine davon ist

Link to post
Share on other sites
Posted (edited)

Hi IG-88

 

Vielen Dank für dein Feedback. Ich würde Dir mit Raid5 Recht geben, aber ich wollte möglichst viel Performance aus den Drehscheiben holen (10 GBit Netzwerk vorhanden). Aber wenn ich noch SSD-Cache nachrüste, wäre das dann vermutlich egal ob Raid 5 oder Raid10 (natürlich mehr Platz bei Raid 5 :) )

 

Ich muss nochmal etwas detaillierterer werden. Im Ursprungstext hab ich einen Fehler - die SSDs laufen im Raid1.

Also - Proxmox mit 2 x 512 GB SSD im Raid 1. Darauf laufen 6 VMs. Eine VM davon ist Xpenology.

Die 14TB Platten wurden nachträglich eingebunden und damit das Raid10 in XPenology gebildet - also Xpenology lief schon ohne die 14TB Platten, müsste daher also nur auf den SSDs (bzw. auf dem VM-Datencontainer) laufen. Oder verteilt sich das automatisch zur Absicherung auf weitere hinzugefügte Platten? Wäre ja auch cool. Achja - die 14TB Platten laufen an einem extra SATA6G-HBA-Controller.

 

Eine reine Baremetal-Einrichtung wäre vermutlich besser, aber auf Grund der vielfältigen Nutzung wollt ich das wirklich vermeiden.

 

Ich fürchte Du liegst richtig - es ist wohl ein Hypervisor-Problem. Bin schon am überlegen, ob ich das Raid in Proxmox erstelle und danach erst in Xpenology einbinde. Leider fehlen dann einige Features wie Benchmark und Integritätsstatus. Naja allerdings geht das aktuell ohnehin noch nicht, da XPenology die QEMU Datenträger wohl nicht direkt ansprechen kann.

 

Am schönsten wäre ja, wenn der HBA-Controller nur für die Xpenology laufen würde, aber das hab ich bis jetzt nicht hinbekommen. PCIe Passtrough funktioniert immerhin schon (so wird übrigens auch die 10 GBIt-Karte voll durchgereicht und ich schaffe fast volle Bandbreite im Speedtest).

 

Edited by chipmaster21
Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.