Jump to content
XPEnology Community

awunschik

Member
  • Posts

    14
  • Joined

  • Last visited

Posts posted by awunschik

  1. Hi!

    Ich fürchte das bringt Dich nicht weiter.
    Ich habe tatsächlich einen defekten Controller auf dem Mainboard.
    Keine Festlappte wird von 2/4 Anschlüssen erkannt.
    Durch den Einbau einer PCI-E Karte und Hilfe hier aus dem Board habe ich das Raid dann wieder ans Laufen bekommen.
    Mein Server läuft 24/7 und wenn Du dringend Bilder/Einstellungen benötigst, häng ich meinen Monitor bei Gelegenheit mal dran und poste die Dinge hier,
    aber ich vermute nicht, das wir nicht das selbe Problem haben/hatten...

    LG
    André

  2. 10 hours ago, IG-88 said:

    ist es denn aktiviert bei deinem system?

    beim erzeugen eines shares kann/sollte man das aktivieren

    3. tab bei einem share (advanced)

     

    Ja ich habe es aktiviert.
    Also wenn damit der Datenintegritätsschutz der gemeinsamen Ordner gemeint ist (siehe Bild 1)

     

    10 hours ago, IG-88 said:

    soweit ich das nachlesen konnte würde man das in dem paket "Log Center" nachher finden

    Ich habe das Paket "Protokoll-Center" nachinstalliert.

    Der Inhalt zeigt mir jedoch lediglich, dass das Scrubbing statt gefunden hat.
    Ein Ergebnis lässt sich aber nicht auslesen...

    Bild zwei zeigt einen HTML-Export.

    1.jpg

    2.jpg

  3. 20 minutes ago, IG-88 said:

    du merkst ih nur nicht, du solltest noch scrubing laufen lassen um evtuelle fehler durch die verluste zu finden, theoretisch findest du so raus welche dateien betroffen sind

     

    Ist das Scrubbing dann hier zu finden?
    Dann mache ich das wohl nach der Konsistenzprüfung?
    Oder besser über die Console?

     

    Bild.jpg

  4. Ein ganz ganz dickes fettes Danke für deine Geduld, investierte Zeit und deine kompetenten, schnellen Antworten! 

     

    Es hat genau so funktioniert, wie du es beschrieben hast.
    Dank Dir habe ich wieder ein funktionierendes System praktisch ohne Datenverlust. 😁

     

    Ich werde mir für die Zukunft vornehmen, mich da mal ein bisschen rein zu lesen. 

     

    Herzliche Grüße
    André

  5. sudo mdadm --stop /dev/md2

    mdadm: stopped /dev/md2

     

    sudo mdadm --assemble --force /dev/md2 /dev/sd[abc]5

    mdadm: forcing event count in /dev/sdc5(2) from 2746 upto 2797
    mdadm: /dev/md2 has been started with 3 drives (out of 4).

     

    cat /proc/mdstat

    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
    md2 : active raid5 sda5[0] sdc5[2] sdb5[1]
          23427586368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

    md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3]
          2097088 blocks [16/4] [UUUU____________]

    md0 : active raid1 sda1[0] sdb1[1]
          2490176 blocks [16/2] [UU______________]

    unused devices: <none>

     

    sudo mdadm --detail /dev/md2

    /dev/md2:
            Version : 1.2
      Creation Time : Sun Jun  2 22:53:00 2019
         Raid Level : raid5
         Array Size : 23427586368 (22342.29 GiB 23989.85 GB)
      Used Dev Size : 7809195456 (7447.43 GiB 7996.62 GB)
       Raid Devices : 4
      Total Devices : 3
        Persistence : Superblock is persistent

        Update Time : Mon Jan 27 11:20:04 2020
              State : clean, degraded
     Active Devices : 3
    Working Devices : 3
     Failed Devices : 0
      Spare Devices : 0

             Layout : left-symmetric
         Chunk Size : 64K

               Name : NAS_DS918plus:2  (local to host NAS_DS918plus)
               UUID : 96879d75:bd06edee:8c1bd43a:3702eb17
             Events : 2798

        Number   Major   Minor   RaidDevice State
           0       8        5        0      active sync   /dev/sda5
           1       8       21        1      active sync   /dev/sdb5
           2       8       37        2      active sync   /dev/sdc5
           -       0        0        3      removed

     

    ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

    sudo mdadm --detail /dev/md2

    /dev/md2:
            Version : 1.2
      Creation Time : Sun Jun  2 22:53:00 2019
         Raid Level : raid5
         Array Size : 23427586368 (22342.29 GiB 23989.85 GB)
      Used Dev Size : 7809195456 (7447.43 GiB 7996.62 GB)
       Raid Devices : 4
      Total Devices : 3
        Persistence : Superblock is persistent

        Update Time : Mon Jan 27 11:20:04 2020
              State : clean, degraded
     Active Devices : 3
    Working Devices : 3
     Failed Devices : 0
      Spare Devices : 0

             Layout : left-symmetric
         Chunk Size : 64K

               Name : NAS_DS918plus:2  (local to host NAS_DS918plus)
               UUID : 96879d75:bd06edee:8c1bd43a:3702eb17
             Events : 2798

        Number   Major   Minor   RaidDevice State
           0       8        5        0      active sync   /dev/sda5
           1       8       21        1      active sync   /dev/sdb5
           2       8       37        2      active sync   /dev/sdc5
           -       0        0        3      removed

     

    Soll ich das Ding jetzt neustarten?

     

  6. Danke Dir erstmal das du Geduld mit mir hast und dran bleibst!
    So sieht das ganze aus nach Eingabe der vier Befehle.
    Wie "zwinge" ich denn die Platten wieder in das RAID?

     sudo fdisk -l

    Disk /dev/ram0: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram1: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram2: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram3: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram4: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram5: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram6: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram7: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram8: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram9: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram10: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram11: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram12: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram13: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram14: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/ram15: 640 MiB, 671088640 bytes, 1310720 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: 588A26DF-FB20-4482-B28A-43DA8F2F8A90

    Device       Start         End     Sectors  Size Type
    /dev/sda1     2048     4982527     4980480  2.4G Linux RAID
    /dev/sda2  4982528     9176831     4194304    2G Linux RAID
    /dev/sda5  9453280 15627846239 15618392960  7.3T Linux RAID


    Disk /dev/sdb: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: 37888397-2EFF-4A0B-968B-E0ABCB2E4FB0

    Device       Start         End     Sectors  Size Type
    /dev/sdb1     2048     4982527     4980480  2.4G Linux RAID
    /dev/sdb2  4982528     9176831     4194304    2G Linux RAID
    /dev/sdb5  9453280 15627846239 15618392960  7.3T Linux RAID


    Disk /dev/sdc: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: 36512BBE-A2AA-4999-B0D5-FB290FA7D8B5

    Device       Start         End     Sectors  Size Type
    /dev/sdc1     2048     4982527     4980480  2.4G Linux RAID
    /dev/sdc2  4982528     9176831     4194304    2G Linux RAID
    /dev/sdc5  9453280 15627846239 15618392960  7.3T Linux RAID


    Disk /dev/sdd: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: E2E136EE-927C-4859-B486-F1C10983B92A

    Device       Start         End     Sectors  Size Type
    /dev/sdd1     2048     4982527     4980480  2.4G Linux RAID
    /dev/sdd2  4982528     9176831     4194304    2G Linux RAID
    /dev/sdd5  9453280 15627846239 15618392960  7.3T Linux RAID


    Disk /dev/md0: 2.4 GiB, 2549940224 bytes, 4980352 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/md1: 2 GiB, 2147418112 bytes, 4194176 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    GPT PMBR size mismatch (102399 != 15257599) will be corrected by w(rite).
    Disk /dev/synoboot: 7.3 GiB, 7811891200 bytes, 15257600 sectors
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 512 bytes
    I/O size (minimum/optimal): 512 bytes / 512 bytes
    Disklabel type: gpt
    Disk identifier: 52173969-41B8-4EDB-9190-B1CE75FCFA11

    Device         Start    End Sectors Size Type
    /dev/synoboot1  2048  32767   30720  15M EFI System
    /dev/synoboot2 32768  94207   61440  30M Linux filesystem
    /dev/synoboot3 94208 102366    8159   4M BIOS boot


    Disk /dev/zram0: 1.1 GiB, 1199570944 bytes, 292864 sectors
    Units: sectors of 1 * 4096 = 4096 bytes
    Sector size (logical/physical): 4096 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/zram1: 1.1 GiB, 1199570944 bytes, 292864 sectors
    Units: sectors of 1 * 4096 = 4096 bytes
    Sector size (logical/physical): 4096 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/zram2: 1.1 GiB, 1199570944 bytes, 292864 sectors
    Units: sectors of 1 * 4096 = 4096 bytes
    Sector size (logical/physical): 4096 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes


    Disk /dev/zram3: 1.1 GiB, 1199570944 bytes, 292864 sectors
    Units: sectors of 1 * 4096 = 4096 bytes
    Sector size (logical/physical): 4096 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes

     

    ls /dev/sd*

    /dev/sda   /dev/sda5  /dev/sdb2  /dev/sdc1  /dev/sdd   /dev/sdd5
    /dev/sda1  /dev/sdb   /dev/sdb5  /dev/sdc2  /dev/sdd1
    /dev/sda2  /dev/sdb1  /dev/sdc   /dev/sdc5  /dev/sdd2

     

    sudo mdadm --detail /dev/md2

     Version : 1.2
      Creation Time : Sun Jun  2 22:53:00 2019
         Raid Level : raid5
         Array Size : 23427586368 (22342.29 GiB 23989.85 GB)
      Used Dev Size : 7809195456 (7447.43 GiB 7996.62 GB)
       Raid Devices : 4
      Total Devices : 2
        Persistence : Superblock is persistent

        Update Time : Sat Jan 25 15:27:15 2020
              State : clean, FAILED
     Active Devices : 2
    Working Devices : 2
     Failed Devices : 0
      Spare Devices : 0

             Layout : left-symmetric
         Chunk Size : 64K

               Name : NAS_DS918plus:2  (local to host NAS_DS918plus)
               UUID : 96879d75:bd06edee:8c1bd43a:3702eb17
             Events : 2790

        Number   Major   Minor   RaidDevice State
           0       8        5        0      active sync   /dev/sda5
           1       8       21        1      active sync   /dev/sdb5
           -       0        0        2      removed
           -       0        0        3      removed

     

    sudo mdadm --examine /dev/sd[abcd]5 | egrep 'Event|/dev/sd'

    /dev/sda5:
             Events : 2790
    /dev/sdb5:
             Events : 2790
    /dev/sdc5:
             Events : 2746
    /dev/sdd5:
             Events : 2746

     

  7. 9 hours ago, IG-88 said:

    ich dachte da eher an die mdstat und mdadm sachen um sich über den zustand des raids zu verschaffen, ...

     

    mdstat spuckt das aus:

    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
    md2 : active raid5 sda5[0] sdb5[1]
          23427586368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/2] [UU__]

    md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3]
          2097088 blocks [16/4] [UUUU____________]

    md0 : active raid1 sda1[0] sdb1[1]
          2490176 blocks [16/2] [UU______________]

    unused devices: <none>

     

    Und bei mdadm kommt Folgendes:

    mdadm: Found some drive for an array that is already active: /dev/md2
    mdadm: giving up.
    mdadm: No arrays found in config file or automatically

     

    Ich habe keine Ahnung was ich hier tue 😜

  8. 11 hours ago, IG-88 said:

    lies doch mal diesen noch laufenden fall, ist sehr lehrreich (nicht nur in bezug auf die frage ob man ein backup braucht)

    https://xpenology.com/forum/topic/24525-help-save-my-55tb-shr1-or-mount-it-via-ubuntu/?do=getNewComment

     

     

    Danke Dir!
    Ich will jetzt auch echt nicht auf doof machen, aber bringt mich das weiter den Beitrag zu studieren?
    Versteh mich bitte nicht falsch - ich will nicht, dass mir die gebratenen Tauben in den Mund fliegen, nur habe ich gerade ganz wenig Zeit mich weiter zu bilden.
    hab da mal kurz reingelesen und es sind bömische Dörfer für mich 😫
    Was ich für Fehler gemacht habe, das ist mir nun einigermaßen klar.
    Ich habe nicht den Ernstfall eines Hardwareausfalls in Form des Controllers gedacht und das falsche "System" in Form von "Ausfllsicherheit 1 von 4 gewählt".
    Also hilft mir der von dir verlinkte Beitrag?

    LG
    André

  9. Ich habe den Controller eingebaut und alles angeschlossen.

    Jetzt meldet mir DSM im INFO-Center, dass die Systempartitionierung der zwei oben erwähnten Festplatten fehlgeschlagen sei.

    Wenn ich nun den Speicher-Manager öffne, wird mir gesagt Speicherpool 1 sei abgestürzt.

     

    Nun schlägt DSM eine Sichererung meiner Daten und eine darauf folgende Reperatur vor.

     

    Jetzt stehe ich vor dem Problem, die Daten nicht sichern zu können, weil ich nicht ran komme 🙄

     

    Ich befürchte, dass wenn ich einfach auf Reparieren gehe, meine Daten futsch sind.

    Weiß jemand einen Rat? 

    POOL.jpg

    POOL2.jpg

  10. 3 minutes ago, jensmander said:

    Schon mal mit einem alternativen Boot Stick getestet (Live Linux o.ä.), ob an den besagten Ports wirklich keine HDDs mehr erkannt werden? Nur um XPEnology als Verursacher ausschließen zu können.

    Danke für Deine Antwort!

    Ich habe im BIOS die Anzeige für die 4 SATA-Ports.
    Port 1 und 2 erkennt alle vier Platten (nach Neustart und umstecken).
    Port 3 und 4 erkennt keine Platte mehr (laut BIOS).
    Deshalb die Vermutung des defekten Controllers.

    Nun habe ich erstmal einen 4-fach PCI-E-Controller bestellt und hoffe, dass das Ganze damit wieder funktioniert 😩

  11. Hi!

    Ich betreibe seit ca.einem halben Jahr ein Eigenbau-NAS, auf dem Xpenology installiert ist.

    Hier die Spezifikationen:

    ASRock J4105-ITX
    Inter-Tech IPC SC-4100 Wuerfel
    250 Watt Inter-Tech
    8192MB Samsung M471A5244CB0-CRCD0 DDR4-2400 SO-DIMM CL17-17-17 Single

    4x Seagate Archive HDD 8TB

     

    Installiert ist Xpenology auf einem 8 GB Platinum USB-Stick.
    Als Speicherkonfiguration habe ich diese Synology-Geschichte genommen mit der "Ausfallsicherheit" von einer HDD.

    Das System lief 24/7 ohne Probleme, bis mir letzten Freitag das Betriebssystem meldete, dass der Speicherpool ausgefallen sei, oder so.

    Ich habe dann zu Hause auch gleich gesehen, dass die LEDs der Trays 3 und 4 nicht mehr leuchteten.

    Nach einigen Test mit anderem Netzteil und dergleichen, ist mir dann aufgefallen, dass die zwei Festplatten am 2. SATA-Controller des Boards hängen.

    Laut Benutzerhandbuch handelt es sich um den ASMedia (vermute ich). 

    • 2 x SATA3 6.0 Gb/s Connectors, support NCQ, AHCI and Hot Plug
    • 2 x SATA3 6.0 Gb/s Connectors by ASMedia ASM1061, support NCQ, AHCI and Hot Plug

     

    Die Festplatten werden von anderen Rechnern und den anderen 2 Anschlüssen noch erkannt.

    Und nun zu meiner eigentlichen Frage:
    Wie komme ich wieder an meine Daten?
    Also wie kann ich das System wieder zum Laufen bringen.

    Es geht mir darum, dass der Speicherpool wieder erkannt wird.


    Hier meine Fragen im Einzelnen:

     

    1. Da auf das Board noch Garantie ist, wäre eine Reklamation möglich. Wäre das die beste Lösung?
    Ich weiß ja nicht, ob die Taiwanesen da großes Geschiss machen, und den SATA-Controller reparieren oder nicht doch das ganze Mainboard wechseln.
     

    2. Würde es auch funktionieren, einen PCI-E-Controller zu installieren, der die Platten dann anspricht?

    Ich brauch Hilfe von erfahrenen Benutzern, die sich damit auskennen.

    Vielen Dank im Voraus!

    LG
    André
     

  12. Hallo!

     

    Ich habe auch oben genanntes Mainboard.

    Mein Problem ist, dass ich keinen einzigen Loader zum Laufen bekomme.

    Die grub.cfg ist angepasst (VID,PID,MAC und Serial).

     

    Ich komme bis zu dem Punkt, wo ich die DS suchen lasse, aber anscheinend schmiert das NAS ab,

    denn es wird keine DS gefunden.

     

    Es wäre schön, wenn mir jemand helfen könnte.
    Danke im Voraus!

×
×
  • Create New...