WowaDriver

Members
  • Content Count

    33
  • Joined

  • Last visited

Community Reputation

1 Neutral

About WowaDriver

  • Rank
    Junior Member
  1. Это, конечно, вариант, который я и сам имел в виду, но, честно говоря, я предпочитаю иметь все в виртуальной машине... поскольку DSM уже работает как виртуальная машина под UNRAID... Я надеюсь, что скоро у нас будет решение для DSM 7.
  2. Как вы думаете, появится ли в ближайшем будущем вариант, который будет работать под DSM 7? SS - одна из моих основных задач, которую берет на себя DSM, так что это значительно облегчило бы мне принятие решения о том, обновлять DSM 7 или нет.
  3. So now it is possible get to work HDD which are bigger than >2TB ??
  4. Sorry and its offtopic here, but do you tested the old c****** SSS package which the guys used on 6.2.3 with you restart task on DSM7? I think it could be possible to use, because it is a manuel installed package. So you should deinstall the standard SSS on DSM7 and give a try for the c****** one... In the past i tried it up with 6.2.3 it it worked perfectly for my with 9 cams. I prefere SSS because you have the ability to use livecam, which is a kind of webcam recorder for you ios and ipados devices. So here i have to iPads in my house from which i can use the front cam for recording
  5. Yes thanks i know this issue, but i hoped that somebody have new insider informations about a possible workaround... so i still have to wait on 6.2.3
  6. @all: Any news about LSi 9211-i8 in IT-Mode compatibilities? I have to passthrough one HBA with 8 HDD's in RADI5 in Unraid
  7. Many thanks to the development to all involved! Has anyone managed to create a useful VM with DSM 7 under Unraid? In my case I would have to pass an LSI 9211-8i HBA and an intel NIC for native ethernet? Would anyone share their configuration?
  8. Da mir hier keiner antwortet habe ich die Sache selbst in den Griff genommen. Tutorials sind sicherlich alle zu gebrauchen, aber schlussendlich ist der einfachste Weg die Systemparitionen (2,4GB Linux RAID1 Member: sda1, sdb1, sdc1, ... , sdx1) aller eingebauten Festplatten zu löschen, wenn man ein Update ausgeführt hat und das System nicht mehr zu booten ist. Anschließend einfach eine unbenutzte synoboot.img verwenden und schon wird das System migriert ohne die Datenparitionen anzufassen. Nachteil ist, dass alle installierten Apps, Konfigurationen und Einstellungen na
  9. Since no one answers me here I have taken the matter into my own hands. Tutorials are certainly all useful, but finally the easiest way is to delete the system partitions (2.4GB Linux RAID1 members: sda1, sdb1, sdc1, ... , sdx1) of all installed hard disks, if you have performed an update and the system is no longer bootable. Then simply use an unused synoboot.img and the system is migrated without touching the data partitions. Disadvantage is that all installed apps, configurations and settings have to be reinstalled of course. Thanks anyway for all the in
  10. oder einfach eine NIC passthrough sprich durchreicht, dann ist es nicht nötig einen virtuellen nic (e1000e) zu betreiben
  11. I have just been able to test the following: I have unhooked the RAID5 system and started DSM on the SSD with version 6.2.3. Here I have created a volume 1 and placed test data. Then I have again forced an update to the 6.2.4. Now I mounted the bricked system in Linux and deleted the system partition. Then with a new boot image the 6.2.3 was installed again and voila the system runs and the volume 1 on the ssd is still present with the test data. Now the question is something like this then also works with my RAID5?
  12. @Polanskiman First of all I would like to thank you for the tutorial! Also I want to thank you for giving your time to solve my problems! I can not get the system partition mounted and would be happy if you could give me a tip on how to proceed. The following scenario and my system: DSM 6.2.3-25426 as a virtual machine on an unraid system 120 GB SSD passthrough for Volume 1 (Systemapps) LSI 9211-8i in IT Mode Passthrough with 6x6TB WD in RAID5 (DATA) As stupid as I am I believed a posting in another forum and tried to update to 6.2.4 -&g
  13. vorweg sorry für den Doppelpost, aber irgendwie kann ich meinen Beitrag nicht editieren... @IG-88 Ich würde mich freuen wenn du dir mal bei Problem anschauen könntest, da du der Deutschen Sprache mächtig bist und das entsprechend oben verlinkte Tutorial verfasst hast. Ich habe mir mal gestern intensiver die Beiträge hier angeschaut und versucht zu verstehen. So wie ich das verstanden habe ich bei dem misslungenden Update zu 6.2.4 die Systemparition hinüber bzw. der Kernel darin und mit der oben verlinkten Anleitung löschen wir quasi auf allen Platten in der Systempariti
  14. Hallo Leute, die selbe Dummheit wie @Thorlaf habe ich gestern auch gemacht. Hier hängt ebenfalls der Haussegen hängt hier ebenfalls sowas von schief... So doof wie ich bin habe ich versucht, meine Xpenology VM (unter Unraid) von der laufenden Version DSM 6.2.3-25426 auf die neueste DSM 6.2.4-25556 zu aktualisieren. Als Bootimage verwende ich 1.03b für eine DS3617. Das Ende der Geschichte ist, die VM war nicht mehr ansprechbar => Brick! Ich hatte unter Unraid zur VM einen DUAL Intel Nic und einen LSI SAS2008 PCI-Express Fusion-MPT SAS-2 Controller (LSI 9211-8i / Dell H310 HBA