Jump to content
XPEnology Community

IG-88

Developer
  • Posts

    4,640
  • Joined

  • Last visited

  • Days Won

    212

Everything posted by IG-88

  1. there was something aboute a Thecus lately, maybe its usefull for a start viewtopic.php?f=2&t=24630 when reading the following links there is the DOM, it has PCIe Slot, 2xMarvell 88SE6340 4-Port SAS-/SATA, Intel Celeron processor i'd expect that the 7700 is also more PC/Server like and the link above will help i would sugest to try jun loader 1.0.2a with 3615xs (fresh install with 6.1.1) http://www.tweaktown.com/reviews/2735/t ... ndex2.html http://www.tomshardware.de/N7700-Thecus ... 243-2.html
  2. instead of the second link (outdated) there is a description how to di it manualy for dsm 6 http://xpenology.com/forum/viewtopic.ph ... wer#p99213 but no need to do that, the first link with spk for 6.1 works also with 6.1.1 (tested with u1 and u2, jun 1.0.2a 3515xs) btw. also usefull for VM usage, you can select acpi power button shutdown in the vm options to shut down the xpenology vm
  3. versuchs mal hiermit, damit habe ich die 6er ans laufen gebraucht viewtopic.php?f=2&t=29582
  4. ist normal, das hat synology über eigene spezielle hardware erledigt (genauso wie z.b. lüftersteuereung) , aber man kann sich ja mail als benachrichtigung konfigureiren, dann bekommt man eben eine mail und weis das es was zu tun gibt theoretisch kann man auch auf der konsole im linux graben wie die es erkennen und das script ein wenig anpassen, die kochen auch nur mit wasser (linux) und das software raid wird mit "standard" tools wie mdadm und lvm realisiert, genauso "begrenzt" sind dann eben auch die möglichkeiten wenn es darum geht einen fehler im raid zu erkennen (z.b. /proc/mdstat auswerten?) wenn man an den syno scripten rumspielt sollte man aber dran denken das das nach updates wieder zu überprüfen ist oder ob das angepasste nacj da ist oder überschrieben wurde - ist halt eine appliance, von hand dran rum basteln ist da nicht vorgesehen (zumindest aus sicht von synology) systemsteuerung / aktualis. und wiederherstellen / updateeinstellungen, dort nur wichtige updates und keinen zeitplan für automatische aktualisierung, dann wird er nur nach updates suchen wen man rein geht und fragen ob er runterladen soll, man kann dann entweder durchführen lassen oder es manuell runterladen und über den manuell button installieren. letzeres ist der weg man man am router der syno den internetzugriff komplett verbietet und dann updates einspielen will
  5. IG-88

    Update 6.0.3

    hallo, mal so der vollständigkeit halber, wenn man die systempartition auf dem das linux liegt formatiert (ext4) dann wird danach beim installieren nur das system neu aufgespielt aber das raid mit den daten bleibt unangetastet da aber die systempartition ein raid1 über alle platten ist muss man ein recovery system von usb booten (live linnux oder spezielle recovery edition) und dann mir mdadm das raid1 "laden" (/dev/md0 mit allen platten, erste partition) und dann dieses device formatieren, wurd hier im forum im englischen bereich auch gut beschrieben, natürlich verleirt man seine einstellungen aber wenn man ein backup der syno konfigurarion hat (das beim einem backup eigentlich ummer mit angeboten wird) daann kann man nachher das alte system installiern (6.0.2) und dann das config backup mit der syno eigenen backup software zurückspeilen und hat wieder alles wie vorher, ansonsten ohne backup und neu einrichten aber man hat dann immerhin das ausgetestete 6.0.2 wieder
  6. ich vermute du bist hier irgendiwe uaf dem falschen dampfer was LVM angeht ein synology software raid ist im grunde "nur" mdadm (fürs raid) und LVM für das volume (aber nur wenn man auf einem RAID aka Raidgroup mehrere Volumes haben will - so kann man den platz auf dem RAID beleibig zwischen den volumes darauf verteilen) man bekomme durch mdadm ein "großes" devive /dev/md2 das dann als solches von LVM benutzt wird, LVM weis im grunde garnichts von den raid darunter, für den ist das nur eine große disk auf der man was anlegen kann wenn man im diskmanager ein RAID5/6 anlegt beim anlegen des volumes auf der raidgroup angibt das man nur ein Volume haben will dann wird gar kein LVM benutzt dann hat man "reines" mdadm (/dev/md2) das dann mit fdisk partitioniert wird und dann formatiert wird (btrfs oder ext4) wenn also "disks" weg gewesen sind dann ist das nicht LVM sondern hat was mit mdadm zu tun und wenn das /dev/md2 deshlab nicht zur verfügung steht dann gibts auch nichts für lvm zu tun wie hast du bei 2 fehlerhaften platten und raid5 (1 platte redudanz) wieder ein laufendes raid5 bekommen, das kann erst mal so ohne weiteres nicht gehen wenn die zwei platten defekt/weg sind hier fehlt mir irgenwie etwas, ohne das wenigstens eine der "fehlende" platten wieder voll funktionsfähig auftaucht kann man das raid nicht wieder in betireb nehmen und nach den sachen weiter unten hast du 5 funktionierende lufwerke im raid, da kommen man nicht von 3 wieder auf 5 ohne das entweder die zwei platten wieder (unbeschädigt) da sind oder man das raid komplett neu anlegt (in letzterem fall kann es natürlich keine LVM mehr geben denn das /dev/md2 ist dann ein komlett neues/leeres device) das sieht soweit nach einen funktionsfähigen raid5 aus 5 platten aus, einzige auffäligkeit ist das es kein sda und sdb gibt außerdem ist die creation time 23.04.2017 aber zeimlich dicht am "jetzt" - also doch neu angelegt? und wenn ich mir die creation time des lvm aud der archive datei ansehe - 06.03.207 dann passt das auch nicht, das lvm kann nicht vor dem raid angelgt sein, erst erzeugt man das raid und oben drauf kommt lvm ansonten sieht man auch sehr schön am dem archive zeug das das lvm nicht aus "disks" bestand sondern aus /dev/md2 (nur ein physical device pv0) du hattest da drin 4 logigal volumes, eins das von synology zur reserve angelegt wurde, das normale "volume1" (das aber aus 2 segmenten besteht - mal irgendwas um-/aufgerüstet oder SHR mit sda/sdb?) und zwei iSCSI volumes zu je 15GB und 20GB - soviel kann man da zumindest rauslesen aber wenn in dem funktionierenden /dev/md2 keine LVM mehr zu finden ist und es wirklich noch das "alte" (richtige ist - was ich je bezweifle) dann würde nur richtiges datarecovery mit low level tools helfen, man müsste mit einem sektoreditor in /dev/md2 nach spuren der LVM Volumes suchen und sie mit den ihhalten der archive datei vergleichen evtl. kann man auch mit irgendwelchen kommendos die alte lvm archive datei dem /dev/md2 "aufzwingen" aber das würde die daten auf dem volume verändern und weites recovery erschweren/verhindern (da man daten verändert) - aber wenn man sonst das ganze wegwerfen würde kann man das zumindest als letztes mittel vor dem abfalleimer machen und sehen was passiert - allerdings habe ich da nichts parat, das habe ich noch nie gemacht, ist nur rein theoretisch was man machen könnte (bzw. was ich versuchen würde) man kann auch den ihalt von /dev/md2 "sichern" mit dd aber da bräuchte man eine 6TB platte, viel zeit um sich mit data recovery zu beschäftigen, ... das wird man nur machen wenn es kein backup gibt und die daten echt wichtig sind (bzw. kann man so eine mit dd erstellte kopie vermutlich auch datenrettungsprofis geben aber sowas ist in der regel für privat zu teuer) ich bin mir zwar nicht ganz sicher aber - mein beileid zum verlust der daten
  7. hallo, zum einen können plugins durch ständige aktivität verhinder das die platten zur ruhe kommen (ich meine in dem zusammenhang plex gelsesen zu haben) - also mal zum testen im packetzentrum möglichst viele plugins deaktivieren um zu testen ob es dann geht zum anderen kommen da auch noch die dockerpackete ins spiel grundlegend muss man daran denken das die systempartition auf der auch die logs landen auf ALLEN platten als raid1 läuft (in der konsole mal "cat /proc/mdstat" eingeben, dann sieht man das auch ganz gut) und wenn er da hin schreiben will muss er eigentlich auf alle platten schreiben
  8. yes, as i already had to use virtualbox for testing, it's easy to clone, backup, re-use or to rebuild from scrath the barematel system is for real life usage, not a playground i would expect thats the part where some tinkering is needed to get around the "protections" (or traps?) synology has build in, so atm i'm not touching this, i'm not planing to dive deeper then compiling extra drivers and providing modified extra.lzma whatever works is good, as long as it is easy to setup, the chroot plugin for DSM was a easy startpoint, a "normal distribution" with the usual tools und package repositorys might be more comfy in the end and will not so easy break as DSM/Xpenology (after one or the other update, -> 6.0.3 or 6.1.1)
  9. use open media vault (runs just from usb stick or extra disk) or just plain ubuntu? if power consumption is so important you can also just take 2 bigger drives as raid1 and expect it to run most of the time, calculate it and count the money the power costs per year i dont think modding something like dsm/xpenology to heavy defeats the whole purpose, it should be easy to set up, to use, to maintain - its much of a balance act as it is without tinkering on partitions and whatever
  10. IG-88

    DSM 6.1.x Loader

    Hoooo ... thanks I work on my computer. But only for version 6.0. It is not possible for version 6.1 ???, with this system or another, in my system extra.lzma is necessary. Thank you. "This is only for v1.01 NOT v.1.02a." - it rwaly means that it is not for 1.02a aka dsm 6.1 dsm 6.1 is using a differnt kernel so kernel modules for 6.0 (loader 1.01) will not work on 6.1 i don't know what you mean or wanted to know by that
  11. IG-88

    DSM 6.1.x Loader

    we already know that it works in general on baremetal, the interesing part is what hardware is working for you?
  12. not usable as the hba will control the raid an dsm would not see much, there is a reason why it firmare is used for lsi's i wrote something about hp pxxx here viewtopic.php?f=2&t=32804
  13. every disk conains a dsm sysem partion and as they run in raid1 they should contain the system log (when looking for reasons what faield) just mout one of the 3 disks on a linux (read only in the fist attempt) and have a look in /var/log if there is something useful
  14. i downloaded it but as chege states its no good, my 3617xs vm did not like it too on updating (have'nt tryed fresh install) as synology pulled the plug on it i don't think its realy usefull to use it
  15. why not using the img file you used to create the usb stick with? you might also serch the forum for using 5.2 with esx server there is a way to use the img file "as" vmdk in creating a *.vmdk test file containing information about the *,img file (you can have a exaple in jun's loader 1.02a) thats inside the synoboot.vmdk (synoboot.img file in the same directory) # Disk DescriptorFile version=1 CID=6ccf51e5 parentCID=ffffffff isNativeSnapshot="no" createType="vmfs" # Extent description RW 102400 VMFS "synoboot.img" 0 # The Disk Data Base #DDB ddb.adapterType = "lsilogic" ddb.deletable = "true" ddb.encoding = "UTF-8" ddb.longContentID = "7e24a756b77e33e24ac940cc6ccf51e5" ddb.thinProvisioned = "1" ddb.uuid = "60 00 C2 9a ee da ca 33-df 5e 04 3f 80 55 f9 62" ddb.virtualHWVersion = "10" "102400" is the count of 512 Byte Sectors in the synoboot.img used so if you create a image from your usb stick with Win32DiskImager you might be able to use that image when alterring the vmdk file accordingly
  16. i dont think Pxxx controllers are possible, they usualy do not present disks through there drivers to the os, only configured raid arrays and afaik there is no firmware/driver that can change this there are Hxxx controllers with lsi controller chips on it that can be equipted with a "it firmware" (it = initiator target) to be used in a way dsm would need it the only thin that might work is to define a raid0 for each single disk, if a driver for those raid controllers is integrated you will see those as drive but thats no good, you dont get warnings about defective drives, no samrt data, even no serial number (not shure about that), not recommanded to do that (beside you might see bad performance)
  17. if its just about trying it out, why not format the disk under windows as usual and with vmware just plainly create a virtual drive as file on that new drive letter, if its not about performace or keeping the date it does'nt matter if you crate thin disks you also might create a number of virtual disks in the vm and try out how to migrate from a basic disk to a raid1 or how to create a raid (1 or 5)
  18. you have'nt mentioned what dsm version or bootloader i'm using virtualboy but i expect esx will be the same when installing, for boot, you use the same image with a vmdk definition file as you put on usb stick (synoboot.img) you could just the the same image as you copyed to your usb stick or even make a new image from the usb stick an use it in esx (there should be a how to for esx explainig what vrtual hardware und disk configuration to use the real problem will bei the disks, how did you plan to bring the disks into the vm? do you have vt-d and plan to give the controller to the vm or was rdm for every disk the plan? do you have your disk in a diskgroup or just a plain volume (without diskgroup the disk will have to be in the same order as befor or the raid might fail)
  19. how is synology's diskgroups translated into "normal linux" in terms like mdadm or lvm?
  20. cpio and lzma was working without installing explicitly (lzma -V was calling it XZ Utils), installed the package and now its "LZMA command line tool 9.22", does'nt hurt to have a newer one, added the package above
  21. what you write is pretty inconsistet, you start with a power failure, then its an update to 5.0-4528 update 2 and your topic is about dsm 5.2 ??? beside this its a minor problem with a older version, just don't reboot, shutdown then start and think about upgrading to 6.0.2 or 6.1?
  22. if i just take the topic an ignore the text my answer would be network (nfs) or some kind of shared folder finction between host and guest (if kvm has anything like this), but that will not give dsm some kind of disk or volume to use you text makes it different and much more complicated (if not impossible?) with giving access you mean you want to read he files alrady in that (raid based) filesystem (if not you could just create a virtual disk within that filesystem and presend this as basic disc to dsm/xpenology and create a basic disc) with vt-d you could give the controller to the vm (if kvm supports that) and the guest would see the disks but thats no option for you as you want to keep your data and dsm would have to create the array by itself (it takes ~3GB from every disk to mirror the dsm system, whats left is for raid availible) and destroying all data already on the disks maybe dsm/xpenology is not the best choice for you, i know that open media vault will be able to do that (don't know if it is running in kvm), it will recognise the raid and use it (tryed that with bare metal as i was looking for a fallback if dsm is not working any more, omv recognised the raid5 volume dsm had created and was able to use it)
  23. good luck with that, imho its about kernel patching and compiling, not just some libs https://blogs.gentoo.org/lu_zero/ the same lu_zero aka Luca Barbato as in https://github.com/lu-zero/mfx_dispatch - A machine with QSV hardware, Haswell, Skylake or better. - The ability to compile your own kernel and modules - The MediaSDK mfx_dispatch ... MediaServerStudioEssentials2017.tar.gz ... Kernel Modules The patchset resides in: opt/intel/mediasdk/opensource/patches/kmd/4.4/intel-kernel-patches.tar.bz2 The current set is 143 patches against linux 4.4, trying to apply on a more recent kernel requires patience and care. The 4.4.27 works almost fine (even btrfs does not seem to have many horrible bugs). ... i had a look into the MediaServerStudioEssentials2017R2.tar.gz there are 147 patches in that directory and you only have kernel 3.10.102 with dsm 6.1 and not 4.4 ... under that condition i'm not even think about trying
  24. Not sure to what kernel you are referring to but: Linux kernel in 6.0.2 is 3.10.77 Linux kernel in 6.1 is 3.10.102 Linux kernel in 6.1.1 is still 3.10.102 as synology used a new build/branche number 15101 and the update did not work on my test vm i thought it might be because synology used a new kernel version to build 15101 is there a way to know that just by looking at the branche number or a file in the new *.pat that can be checked?
  25. Was it accelerated? Let me know how it will work. its about Intel® Quick Sync Video aka Intel QSV its mentioned here: https://xpenology.com/forum/viewtopic.php?f=2&t=32651 for usage of ffmpeg 2.8.0 and newer it needs something that synology dsm 6.0 does'nt support the coder of the serviio plugin explained it here https://pcloadletter.co.uk/2012/01/25/s ... o-package/
×
×
  • Create New...