Jump to content
XPEnology Community

IG-88

Developer
  • Posts

    4,640
  • Joined

  • Last visited

  • Days Won

    212

Everything posted by IG-88

  1. win server 2016 = hyper-v = no go mit dsm hyper-v braucht kernel unterstützung + extra hypter-v treiber und da jun's mod den orginalen synology kernel verwendet (der das nicht eingebaut hat) gibts nur sachen zum nachladen aka kernel module, aber das reciht nicht für hyper-v, was bedeitet du bemühst dich unnötig kannst ja mal die forum suche benutzen, du bist nicht der erste der es mit hyper-v versuchen will
  2. as the systemboard has a realtek as onboard nic it might be possible that the "other" driver does work better you can try both bootloaders and find out if one does better then the other tr
  3. nein, der code ist noch da und in der keineren (soho) hardware ist das auch noch aktiv freigeschalten außerdem bsteht das "nur" aus mdadm und lvm, der grundlegende code ist also so stabil wie diese merkmale in linux
  4. beside this if i open the kernel modules in a hex editor there is the following at the and of each module "...Synology SDG kernel module signing key...~Module signature appended~" could mean the modules to load have to be signed and i dont expect the signig key to be part of a open source kernel release so this might be a additional hurdel for a using dsm with other hardware
  5. welche netzwerkakrte (chip) ist verbaut? die 11mb/s bei lesen und schreben? wenn ja dann klingt das verdächtig nach 100Mbit modus schon mal mit putty auf der console ins log geschaut was da zum start der netzwerkkarte gemeldet wird (z.b. connect speed) kabel checken, anderes kabel testen, switch kontrollieren, testweise mal pc und nas direk mit dem kabel verbinden (gigabit karten erkennen connect ohne switch automatisch)
  6. hi durchzuführen um dann wenige Sekunden Später mit einer lapidaren Fehlermeldung abzubrechen. wie geschildert du hast nur geschrieben das es nicht geht, eine fehlermeldung hast du nicht zitiert leider bist du auch nicht auf das eingegangen was ich geschrieben habe, wenn die virtuellen disks (vmdk's) statisch angelgt sind dann solltest du mit dem datastore browser nachsehen können ob die vmdk files alle die gleiche größe haben andere variante die du testen solltest wäre RDM, also virtuelle disks wieder entfernen, datastores löschen und "rohe" disks für vm verwenden https://www.thomas-krenn.com/de/wiki/Raw_Device_Mapping_(RDM)_Festplatte_in_VMware_erstellen nur mal um die begrifflichkeiten abzugleichen, datastore anlegen (komplette platte) meint bei einer leeren platte das eine partition angelegt wird und die wird dann mit vmfs (dem vmware dateisystem) formatiert und als datastore im esxi dargestellt, in einer vm eine virtuelle platte anlegen bedeutet einen in einem vmfs datastore vorhandenen platz zu nutzen (kann dynamisch, wachsend mit der datenmenge, oder statisch, sofort die angelgte größe reserviert, sein), die virtuelle platte wird dabei noch einem virtuellen controller der vm zugewiesen SHR = Synology Hybrid Raid, synology hat das irgendwann mal "ausgeblendet" indem in der standardconfig der 3615/3617 switches deaktiviert wurden, man kann es aber in der synoinfo.conf wieder aktivieren (shr laufwerke nach einen updgrade funktioneiren z.b. weiter man kann nur keine anlegen wenn man es nicht manuell aktiviert) https://xpenology.club/enable-shr-in-dsm-6/
  7. creating a shr(1) with 4 drives will result in raid5, for testing it might be easyer to create a raid0 or raid10 and test with that (and not checking the raid after creatin, its just for testing) i dont get you numbers (i tryed to be precise about writing mine) on 1Gbit/s network the theoretical max. in "byte" is about 125MByte/s, depending on protocol overhead (FTP, SMB, ..) the real number will be less it's impossible to have a number of 700 MByte/s for reading on the network, that exeeds the phisical possibilities, whatever you do to measure the speed it must be inapropriate for finding out about the network speed dsm does have a resource monitor, you might try to use this one for the network speed
  8. ich empfehle mal hier zu lesen, synology hat da recht umfangreich kokumentiert (und vmm mit erzeugtem cluster wie es bei mir war fällt da genau drunter) https://www.synology.com/en-global/knowledgebase/DSM/tutorial/General/What_stops_my_Synology_NAS_from_entering_System_Hibernation
  9. hallo, günstiger umstand, meine kiste machte heute auch kein spindown wie sie es noch vor einer weile machte (ist selbst mit platten an sehr leise) im log center hat man aber nichts gesehen davon das der spindown irgendwie verhindert wurde habe wie bereits empfohlen alle plugins deaktiviert (hatte in den letzten wochchen ein wenig rumgespielt) was es bei mir scheinbar war: Virtual Mashine Manager (den kann man aber nicht deaktivieren, nur deinstallieren) jetzt sehe ich im log center das die platten aufwachen "Internal disks woke up from hibernation", vom spindown ist nicht zu sehen ich könnte noch mit putty in /var/log/ tiefer graben wenn bedarf besteht Edit: die info findet sich in /var/log/scemd.log aber auch da gibts keine einträger zum spindown oder warum es vorher nicht ging
  10. thats only for single disks, as there is a raid set of 4 disks a better performace then one disk is to expect (or at least everyone hopes for that) beside if testing with unraid and comparing, dd will be better as there is no dsm test in other systems if something is wrong with the raid (like slower then it should be) a single disk test might show something (and looking at s.m.a.r.t.)
  11. as usual, first thing to do is make it simpler unbond, and just use one connection the simple way (on a normal unaggregated port an the switch) under good conditionwith a 1Gbit/s network you may reach ~110MByte/s read and write, if not try to measure on the dsm localy what disk speed is possible like here https://www.thomas-krenn.com/en/wiki/Linux_I/O_Performance_Tests_using_dd
  12. IG-88

    DSM 6.1.x Loader

    its not about the array creation its simply that there is no working driver for hpsa controllers availible (for dsm 6.1 we tryed the kernel build in and the open source driver both did not work so no support for this controllers), if your network or storage controller has no driver in synologys dsm itself or in the extra.lzma that you load with jun's loader - no xpenology the safest way for prolonged working system is to use hardware that is supported in the original dsm from synology (kernel modules provided by synology), that way you are not depending on drivers jun or someone else has build
  13. IG-88

    DSM 6.1.x Loader

    the method how juns loader (the only way availible for dsm 6.1) work is to use the original kernel and patch (kind of invisible for dsm) on the fly to make it work without synology hardware, so there is no known way of making/compiling a new kernel for runnig dsm at the moment at least i have not read here that anyone tryed to build a new kernel and tryed to use it with or wihtout jun's loader - with the protections synology integrated in dsm it might be impossible to replce the kernel delivered with dsm in the pat file as hyper-v and amd (specific support beside x64) support needs a new kernel with build in support for this ... there is now way i can see how this will be done in a forseeable future (atm some amd processors work, other might not, hyper-v does not work at all) if someone comes up with a methode to use a newly compiled kernel with dsm 6.1 it might be possible to build a kernel with hyper-v support but as long as the live patching and the original kernel is used it will not happen (if someone knows more dont hesitate to correct my words)
  14. hallo, also hast du 5 platten rdm = Raw Device Mapping = das was mit raw meinst, dabei wird die platte sektorweise zur vm durchgereicht, partitionierung und files system mach dann die vm "direkt" af der platte, die platten sind so quasi identisch als wären sie in einer bare metal installation und man könnte aus so einem satz von platten auch eine bare metal installtion machen, usb stick mit jun loader, davon starten und schon ist man im geschäft (vorausgesetzt netzwerkkarte und storage controller werden unterstützt) schau doch mal ob deine 4 auf vmfs angelegten platten (vmdk) wirklich identisch groß sind und alle mit dem gleichen controllertyp (bei esxi scsi afaik) eingebunden sind, wenn du alle 4 siehst und die die gleich größe (anzahl der "sektoren") haben dann sollte ein raid5 gehen egal ob aus 3 oder 4 platten, raid5 heißt nur min. 3 platten da du ja noch nichts auf den platten hast kannst du ja noch rumprobieren hast du die vmdk's mit dynamischer oder statischer größe angelegt? unabhängige platten wäre eine schlechte idee wenn du snapshots machen willst, da du die (virtuellen, als vmdk files) platten als raid zusammenfasst must du die auch zusammen bei einem snapshot erfassen und das geht nur wenn sie in der vm "drin" sind also abhängig ob du platten als rdm oder als "vmdk im vmfs" anlegst hängt auch davon ab wie du planst das zu sichern (und ob die snapshots in esxi wirklich brauchst) in wie fern das als vmdk überhaut eine gute idee ist solltest du mal über die suche hier im board rescherschieren (da ich dsm bare metal benutze ist habe ich da keine erfahrungswerte parat)
  15. that error is typical if there is a wrong vid/pid also beside this stuff in 3617 and probably other newer versions like 916+ and 918+ there is a chek about the bootloader (or serial device?) that checks for original sysnology hardware, after some time (~24h) it will disable services, it was called timebomb, that fix came (afair) with 1.2a2, same time as 916+ support
  16. hi, so wie du es beschreibst geht das nicht, du kannst keine datastore "durchreichen" wenn du auf jeder platte ein datastore angelegt hast (mit vmfs formatiert) dann kannst du bestenfalls virtuelle disks anlegen die dann so groß sind wie der maximal zur verfügung stehende platz da du nichts weiter schriebst wie du esxi installiert hast (nur 4 hdd's) gehe ich davon aus du hast esx auf einer davon istalliert, das heißt dann aber auch das der "freie" platz nach installieren von esxi und anlegen des datastores kleiner ist als bei den disks die nur eine vmfs partition haben dann wären die 3 virtuellen disks die vmdk files im vmfs der 3 maximalen disks und das 4. vmdk file (der platte die auch esxi beherbergt) ist kleiner als die anderen drei und kann deshalb nicht teil des raid5 werden (das es weniger "sektoren" hat), man kann aber nur eie gleich große oder größere platte in das raid integrieren ich meine vom lesen her das meist entweder der controller an die dsm vm durchgereicht wird (vt-d) oder rdm devices der platten benutzt werden (dann werden alle sektoren der platte 1:1 abgebildet), das ginge aber beides nur wenn die esxi auf einem anderen medium (usb stick?) installiert hast
  17. IG-88

    DSM 6.1.x Loader

    thats only for SHR mode, if its in "normal" raid mode it will not work if its shr(1, like one redundancy disk) its only morking if you have at least two disks with additional space usualy its like you have 6 x 2TB disks in shr1 (aka raid5), you replace 2 disks with 3TB, then the shr1 will be like a raid5 with 2TB from every disk and the 2 x 1TB that is unused will be a raid 1 consiting of 2x1TB so 1TB usable, shr will then "glue" it together with LVM and extend the file system (at least that what i think how shr works) so if you only have/see one 3TB drive only 1TB without redundancy is availible and so nothing to offer for extension as you have 6 + 8 = 14 ports your internalportcfg hast to be in bits: 11 1111 1111 1111 = 3FFF and usb (4xusb) 11 1100 0000 0000 0000 = 3C000 if you set sata port map the it should be as the ports are on the pcie devices so = 68, as 6 onboard and after this 8 pors fom lsi usualy you dont have to set it, i guess you problem with sataportmap came from the wrong internalportcfg
  18. IG-88

    DSM 6.1.x Loader

    the r8168.ko might be the better choice, i did two extra versions of the v3 extra.lzma for that purpose, so have a look here
  19. hi, ich hätte da eher plugins im verdacht schau mal ob du alle plugins deaktivieren kannst, den sleep für die platten solltest du natütlich auch aktiviert haben dann schau mal auf die plattenakivität (led) wichtig wäre auch ob sich die platten abschalten und gleich wieder hochfahren oder ob wie garnicht abschalten grundlegend ist das kein problem, meine 11 platten kiste (alle in einem volume) schaltet auch platten ab obwohl auf alles dsm system und swap liegt (2GB+2.4GB partition)
  20. you could describe where the installtion fails and on what systems (you talk about 4 +1 new) as for the new systemboard for storage set ahci mode in bios (not raid) LAN chip is Qualcomm Atheros AR8171 -> alx.ko, that driver ist part of the default 1.02b loader
  21. did you try to selct the first uefi partion for boot (not the device)? you can also try to search the forum for "uefi partition" and will find things like this
  22. so go to step2 and check the boot sequence in bios do you see the usb flash drive in bios? can you make it 1st in sequence?
  23. you should see a at least a message about the kernel booting, if not the booting from the usb stick does not work at all try it in a difderent computer to verify its working, verfify the boot order in bios, use a different usb stick
  24. IG-88

    DSM 6.1.x Loader

    if you have some time and like experiments, there might be a way to use the amd sata, as it is eperimental its only suggested to try with a extra usb stick and one or two empty disks (unplug anthing "productive" before testing) we need one/some guinea pig's/lab rats, so it depends if you are more like brain or pinky ... (https://en.wikipedia.org/wiki/Pinky_and_the_Brain) :-)))
  25. why would you need the highpoint rocket750 driver for a 3ware card? you can use the version i already published in my thread, there are 3ware drivers in it if that does not work and you have a link to newer drivers then i will try to compile them
×
×
  • Create New...