haydibe

Members
  • Content Count

    423
  • Joined

  • Last visited

  • Days Won

    8

haydibe last won the day on November 21

haydibe had the most liked content!

Community Reputation

23 Excellent

About haydibe

  • Rank
    Super Member

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Da Fallen mir zwei mögliche Ursachen ein: Unterversorgung der Platten mit Strom oder defekte Kabel Im Storage Manager im Bereich HDD/SSD, lohnt es sich bei jeder Platte mal "Health Info" anzusehen und dort den "Drive Reconnection Count". Sobald da bei auch nur einem Laufwerk die Zahl > 0 ist (und sich evtl. auch noch weiter erhöht) würde ich dringend die Verkabelung wechseln und/oder ein größerees Netzteil einbauen. Achte darauf das die Sata-Stromkabel von unterschiedlichen "Hauptsträngen" vom Netzteil abgehen. Minderwertige Verlängerungskabel können zu Problemen führen. Defekt
  2. Jein. Es gibt einen Bootloader, mit dem man die NAS-Konfiguration an die eigene anpassen kann... Der ist hier im Thread auch in unterschiedlichen Ausprägungen zu finden. Leider ist es alles andere als einfach oder klar eine funktionierende Konfiguration zu erstellen. Ich hab es genau ein Mal geschafft eine ESXi VM lauffähig zu konfigurieren. Leider konnte ich es danach nicht wieder reproduzieren. Wenn man den Luxus hat beide vmdk's zu importieren (die zweite braucht 1tb) bekommt man es einfach hin. Ich hab damals irgendwie die zweite Platte auf 16GB geschrumpft (oder neu angelegt? Ich w
  3. Kommt darauf an was man unter "besser" versteht... Bei einer VM egalisiert sich das darunter eingesetzte Blech. Die Wahrscheinlichkeit eine VM-Plattform richtig unterstützt zu bekommen verheisst mehr Erfolg, als unterschiedliche Netzwerkkarten und Storage-Kontroller Konstellationen zu unterstützen oder gar gezwungen zu sein bestimmte Produkte erwerben zu müssen... Damit aus einem vermeintlichen Vorteil des direkten Betriebs auf Blech ein echter Vorteil werden kann ... muss es auf diesem erstmal laufen...
  4. Not sure about the performance statement. We are speaking about the controller beeing managed from ESXi vs. directly managed in DSM.. When I move files from one volume to another (each volume on a different set of wd red drives), I get arround 400-500mb/s with direct-io. The Flexibility aspect is true, if you partioned your raid and assigned raid volumes as RDM partitions to the DSM vm. Though, If you would've used the drives in IT mode and added each drive as RDM individualy, you would've been able to switch the VM to use direct-io and DSM would not even notice the difference.. With a dire
  5. I am afraid I won't be able to help. I use an unbranded LSI9211-8i (IT mode) in passthrough mode. The build-in mpt2sas driver in DSM6.x recognizes the controller and makes all the attached drives available to DSM. I have no idea if branded LSI9211-8i controllers or even controllers in IR mode would be supported by the mpt2sas driver if passed into the vm in passthrough mode... I have zero experience with RDM drives. There is no need to attache the synoboot.img at all. From what I remember the "vmdk" is just a declaration that points to synoboot.img. Though, what I do
  6. Richtig gelesen. Hier zwar für die 6360 beschrieben, gilt für die anderen Modelle aber genauso: https://avm.de/service/fritzbox/fritzbox-6360-cable/wissensdatenbank/publication/show/1306_Sind-VPN-Verbindungen-mit-FRITZ-Box-am-DS-Lite-Internetzugang-moglich/
  7. Bisher zeigt hokaido eine vehemente Resistenz gegen alle Ratschläge... Ihm sind die Daten auf dem Volume scheinbar nicht wichtig genug um "so komplizierte Sachen" zu machen oder ordentlich nachzusehen. Man kann niemanden zwingen sich helfen zu lassen
  8. Der Befehl ist DIREKT auf der SSH-Shell der XPE-Kiste auszuführen.
  9. Ohja, steht im Heise Artikel auch so drin. Da war ich unaufmerksam. Meint ihr nicht das man erstmal versuchen sollte das Volume zu retten? Ich halte es nicht für ausgeschlossen, dass man die Platte mit mdadm wieder in das md "reinzwingen" kann. Im Worst-Case hat man Zeit verloren. Im Best-Case sein Volume wiederbelebt....
  10. Ah, da ist nicht nur die Systempartition kaputt, sondern das Volume is "gekippt". Mit einem Austausch des Laufwerks bekommt man zwar die Systempartitionen wieder auf die neue gespielt, aber die Daten vom Volume bekomme man so nicht wieder. Wie Chili schon geschrieben hat: am besten die Daten auslesen und kopieren. Die Modellbezeichnung deutet auf eine Platte mit Shingled Magnetic Recording (SMR) hin. Die sind nicht sonderlich gut für NAS Systeme ausgelegt, siehe: https://www.heise.de/news/NAS-Festplatten-Western-Digital-fuehrt-WD-Red-Plus-fuer-CMR-Garantie-ein-4794455.html
  11. Ich hatte auch schon einige Male das die Systempartition als korrupt angezeigt wird. Die Systempartionen werden auf ALLEN Platten gespielt, unabhängig vom Speicherpool und Volume. Solange eine von denen heil ist kann DSM starten und man kann Korrupte ggf. reparieren lassen. Falls es wirklich nur die Systempartitionen sind, kann man das direkt aus dem Speicher-Manager reparieren.
  12. Die Marvel Controller habe ich in meiner VM auch. mit `lspci -qk` kann man sehen das dafür nicht mal Treiber geladen werden. Da tatsächlich nur ein aktiver Controller da ist, würde ich wohl dieselben Parameter verwenden. (cry) Beim LSI Controller steht bei mir (rev2). Vielleicht hat IG-88 ja noch ne rettende Idee.
  13. Wenn nichts gesetzt ist, dann wird er wahrscheinlich alle auf 0 setzen, was a) entweder zu einer Kolison führt oder b) er die Platten nach Reihe und anzahl der Controller verwendet. Von dem sata_remap Parameter halte ich nicht viel: am Controller liegen 8 Platten bei mir an; warum sollte ich da die Reihenfolge tauschen wollen. Wäre sinnvoll mal Dein Ausgabe von lspci (siehe oben) und deinen aktuellen Parametern zu sehen. Aktuell kommt nur die Rückmeldung "geht nicht", aber nicht was die Rahmenbedinungen dazu sind.
  14. Ich hoffe Du hast Dir ist Aufgefallen, dass ich Da hat mich meine Erinnerung wohl im Stich gelassen. Die Links von IG-88 zeigen das es je zwei Stellen den Index für das erste Drive eines Controllers sind. DiskIdxMap=0C (=12, da 0 indiziert = 13. Laufwerk) ist eigentlich für den Bootloader gedacht, so dass dessen Laufwerk ausserhalb des sichtbaren Bereichs liegt. Den Bootloader musst Du bei der Konfiguration der Variable natürlich mit berücksichtigen (zumindest muss ich das bei meinem ESXi-Installationen).
  15. Eigentlich müsste es reichen mit SataPortMap zu bestimmen wieviele Ports welche Controller hat und mit DiskidxMap zu definieren, bei welcher Laufwerkweksnummer das erste Laufwerk sein soll. Ich nehme an der Typo nach sata_pcislot ist nur hier beim pasten vorhanden? Der Wert für DiskIdxMap besteht aus einem Hexadezimal-Wert von 0-F je Controller. wobei jede Stelle einen neuen Controller darstellt. Bei SataPortMap kann ich mich nicht mehr erinnern, ob die Werte hier auch Hexadezimal oder nur Dezimal sind. Ansonsten gilt auch hier: je Stelle wird ein Controller definiert.