Jump to content
XPEnology Community

norman

Member
  • Posts

    26
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

norman's Achievements

Junior Member

Junior Member (2/7)

0

Reputation

  1. mir gehts primär um einen aktuellen treiber für LSI controller, der wird per passthrough betrieben. oder würdest du den dann besser einzeln nachladen ? ( hab da mal was gelesen )
  2. ich hab jetzt folgendes gemacht - andere hardware -neue installation esx 6.7 - neuer download synoboot.img & treiber - treiber eingebunden , grub.cfg unverändert - VM von hand angelegt. ( alles neu ) - erster boot bis zum installations assistenten ok - installation DSM soweit alles OK erster reboot >>> :: Loading module ata_piix[ 2.421026] BUG: unable to handle kernel NULL pointer dereference at 0000000000000008 [ 2.421819] IP: [<ffffffffa033938a>] piix_set_timings+0x3a/0x250 [ata_piix] [ 2.421822] PGD 37902067 PUD 3791f067 PMD 0 [ 2.421825] Oops: 0000 [#1] SMP wenn ich die treiber zurück tausche ( stand: 1.8.2018) , bootet 6.2.3.24426
  3. ich hab jetzt auf einem anderen vmware server das ganze nochmal nachgestellt. wenn ich nach der DSM installation auf extra3617_v0.11.2_test wechsle das gleiche problem. wenn ich schon vor DSM installtion die treiber tausche , geht die installation noch , beim ersten reboot ist dann ende kann es an vmware 6.0 liegen ? mir fällt sonst nichts mehr ein.
  4. nichts auffällig in der VM ( cdrom und floppy gelöscht ) , vielleicht der C602 Chipsatz morgen mal bios paar bios einstellungen testen
  5. ich hab die VM nochmal neu aufgesetzt mit einem eigenen H220 controller und das ganze läuft bis zum update der extra.lzma auf extra3617_v0.11.2_test.zip :: Loading module ata_piix[ 10.567218] BUG: unable to handle kernel NULL pointer dereference at 0000000000000008 sieht nicht gut aus. habe ich eine falsche version erwischt ? würde eigentlich schon gerne mit aktuellen treibern starten wenn ich das system neu in betrieb nehme. um die eSATA kümmere ich mich anschließend, sind im Moment ganz praktisch zum extra.lzma tauschen könnte die controller firmware P20 eine rolle bei den platten abstürzen spielen oder war das nur bei DSM 5.x ? logfile.txt
  6. die Testinstallation mit 3617xs/DSM 6.2.3-25426 unter vmware auf e5-2660v2 (HP z420) läuft soweit. hoffe nur es zerlegt mir das raid nicht, wenn ich den LSI in die neue 3617xs VM durchreiche. Einstellungen aus grub.cfg habe ich übernommen. aktuelle extra.lzma 0.11.2 ist eingebunden. log sieht ok aus. was hat es mit der jetzt sichtbaren 50mb synoboot platte auf sich, muss man sich daran stören oder einfach ignorieren ? 3617xs.txt
  7. LSI und ruhemodus ist ein guter tip. kann das ganze evtl mit dem wechsel der plattform zu tun haben ? wechsel von xeon e3-1225v3 ( HP z230 ) ---> zu xeon e5-2660v2 (HP z420) macht der wechsel von 3615 zu 3617 auf e5-2660v2 sinn ? 3617 ist ja für xeon v4
  8. Hallo, mir sind jetzt mehrfach Festplatten abgestürzt , woran kann das liegen ? die platten werden als "normal" angezeigt und SMART sieht für mich auch unauffällig aus. nach reboot des DSM kann ich die platten wieder hinzufügen und den Speicherpool reparieren. DSM: 6.2.2U4 ESXi 6.0 LSI 9217 als passthrouh mit 8 festplatten in ICY BOX, IB-2281MSK (Backplane für 8x 2,5" HDD/SSD) 1 pool mit raid6 zur anderen: die performance ist insgesamt recht wechselhaft. oft geht das volume auf 100% last obwohl die einzelnen platten geringe last haben. ich bin mir nicht sicher ob ein hardware Raid das nicht doch besser könnte.
  9. my 2nd partition was only 20MB i made a new with 30MB i will try the w10 ubuntu howto
  10. somehow the new extra.lzma does not fit on my 2nd partition. how can i delete some unused modules from the extra.lzma file ? ( from windows ) i can open the extra.lzma with 7zip but when i try to delete something it says its write protected. so far i found no way to edit rights on the extra.lzma
  11. i can confirm exact this behaveure on z230cmt
  12. qnap qsw-308 3port SFP + 10gbe + 8port 1gbe copper ( about 200€ ) or ubiquiti US-16-XG 12x 10 GB SFP+ 4x 10 GBe copper ( about 600€ )
  13. hier noch mit vaai damit legt die NFS performance nochmal deutlich zu, bzgl stabiler durchsatz
  14. jetzt wäre noch zu testen ob sich 10gbe passthrough lohnt oder ob man einfach den vmnext3 verwendet
×
×
  • Create New...