Jump to content
XPEnology Community

norman

Member
  • Posts

    26
  • Joined

  • Last visited

Posts posted by norman

  1. ich hab jetzt folgendes gemacht

    - andere hardware

    -neue installation esx 6.7

    - neuer download synoboot.img & treiber

    - treiber eingebunden , grub.cfg unverändert

    - VM von hand angelegt. ( alles neu )

    - erster boot bis zum installations assistenten ok

    - installation DSM

     

    soweit alles OK

     

    erster reboot   >>> 

    :: Loading module ata_piix[    2.421026] BUG: unable to handle kernel NULL pointer dereference at 0000000000000008
    [    2.421819] IP: [<ffffffffa033938a>] piix_set_timings+0x3a/0x250 [ata_piix]
    [    2.421822] PGD 37902067 PUD 3791f067 PMD 0 
    [    2.421825] Oops: 0000 [#1] SMP 

     

    wenn ich die treiber zurück tausche ( stand: 1.8.2018) , bootet 6.2.3.24426

     

     

  2. ich hab jetzt auf einem anderen vmware server das ganze nochmal nachgestellt.

    wenn ich nach der DSM installation auf extra3617_v0.11.2_test wechsle das gleiche problem.

    wenn ich schon vor DSM installtion die treiber tausche , geht die installation noch , beim  ersten reboot ist dann ende

    kann es an vmware 6.0 liegen ? mir fällt sonst nichts mehr ein.

  3. ich hab die VM nochmal neu aufgesetzt mit einem eigenen H220 controller und das ganze läuft bis zum update der extra.lzma auf extra3617_v0.11.2_test.zip

     

    :: Loading module ata_piix[   10.567218] BUG: unable to handle kernel NULL pointer dereference at 0000000000000008

    sieht nicht gut aus.

    habe ich eine falsche version erwischt ?

    würde eigentlich schon gerne mit aktuellen treibern starten wenn ich das system neu in betrieb nehme.

     

    um die eSATA kümmere ich mich anschließend, sind im Moment ganz praktisch zum extra.lzma tauschen

     

    könnte die controller firmware P20 eine rolle bei den platten abstürzen spielen oder war das nur bei DSM 5.x ?

     

     

    logfile.txt

  4. die Testinstallation mit 3617xs/DSM 6.2.3-25426 unter vmware auf e5-2660v2 (HP z420) läuft soweit.

    hoffe nur es zerlegt mir das raid nicht, wenn ich den LSI in die neue 3617xs VM durchreiche.

    Einstellungen aus grub.cfg habe ich übernommen.

    aktuelle extra.lzma 0.11.2 ist eingebunden. log sieht ok aus.

     

    was hat es mit der jetzt sichtbaren 50mb synoboot platte auf sich, muss man sich daran stören oder einfach ignorieren ?

     

     

    3617xs.txt

  5. Hallo,

    mir sind jetzt mehrfach Festplatten abgestürzt , woran kann das liegen ?

    die platten werden als "normal" angezeigt und SMART sieht für mich auch unauffällig aus.

    nach reboot des DSM kann ich die platten wieder hinzufügen und den Speicherpool reparieren.

     

     

    DSM: 6.2.2U4

    ESXi 6.0

    LSI 9217 als passthrouh mit 8 festplatten in ICY BOX, IB-2281MSK (Backplane für 8x 2,5" HDD/SSD)

    1 pool mit raid6

     

    zur anderen: die performance ist insgesamt recht wechselhaft.

    oft geht das volume auf 100% last obwohl die einzelnen platten geringe last haben.

    ich bin mir nicht sicher ob ein hardware Raid das nicht doch besser könnte.

  6. i can test it if i only have to swap extra.lzma and debug via serial

     

    3 hours ago, IG-88 said:

     

    if you still use jun's extra.lzma then thats kind to expect, after update you usb contains the 6.2.2 kernel and the extra.lzma for the old kernel 6.2.0

    i'm looking for someone who can test my new drivers for the native vm-hardware vmxnet3, vmw_pvscsi on 6.2.2

    atm mptspi, mptsas so lsi sas and lsi scsi from vmware will not work but hem native vm-hardware drivers should be able to replace them, that would be what you should test (added bonus that you can monitor serial to get console output)

     

  7. ne , beide tests waren mit dem degraded raid.

    der unterschied ist einzig passthrough vs. baremetal

    es wurde nichts geändert als den USB stick zu tauschen  ( vmware usb , synology usb )

     

    inzwischen hab ich den controller, damit ist die leistung etwas glatter und minimal höher.

    mit allen 8 platten ist man dann ja eh schon am maximum des 10GBe

     

    wenn ich die vm direkt auf dem gleichen host laufen lasse, geht nochmal etwas mehr.

    aber hier bremst evtl. der e1000e treiber und der vmnext3 lauft nicht

  8. 1.03b loader - 3515xs 6.2.2

     

    :: Loading module vmxnet3[    3.666370] BUG: unable to handle kernel paging request at 00000000ffffffff
    [    3.667584] IP: [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3]
    [    3.668757] PGD 136866067 PUD 0
    [    3.669328] Oops: 0000 [#1] SMP
    [    3.669928] Modules linked in: vmxnet3(F+) pcnet32(F) e1000(F) sfc(F) netxen_nic(F) qlge(F) qlcnic(F) qla3xxx(F) pch_gbe(F) ptp_pch(F) sky2(F) skge(F) ipg(F) uio(F) alx(F) atl1c(F) atl1e(F) atl1(F) libphy(F) mii(F) libcrc32c ixgbe(O) igb(O) i2c_algo_bit e1000e(O) dca vxlan ip_tunnel vfat fat mdio sg etxhci_hcd mpt3sas(F) mpt2sas(O) megaraid_sas(F) mptctl(F) mptsas(F) mptspi(F) mptscsih(F) mptbase(F) scsi_transport_spi(F) megaraid(F) megaraid_mbox(F) megaraid_mm(F) vmw_pvscsi(F) BusLogic(F) usb_storage xhci_hcd uhci_hcd ohci_hcd(F) ehci_pci ehci_hcd usbcore usb_common cepsw(OF) [last unloaded: bromolow_synobios]
    [    3.679735] CPU: 0 PID: 4605 Comm: insmod Tainted: PF          O 3.10.105 #24922
    [    3.680879] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 09/21/2015
    [    3.682532] task: ffff880139c9d800 ti: ffff8801368d8000 task.ti: ffff8801368d8000
    [    3.683688] RIP: 0010:[<ffffffffa0519232>]  [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3]
    [    3.685198] RSP: 0018:ffff8801368dbc50  EFLAGS: 00010206
    [    3.686051] RAX: ffffffff8181fb40 RBX: 0000000000000002 RCX: 00000000ffffffff
    [    3.687173] RDX: ffff88013677dc28 RSI: ffff88013677c000 RDI: ffff880139c13098
    [    3.688284] RBP: ffff880139c13098 R08: 757120785220666f R09: 32203a2073657565
    [    3.689407] R10: 757120785220666f R11: 32203a2073657565 R12: 0000000000000002
    [    3.690566] R13: ffff880139c13000 R14: 0000000000000001 R15: ffff88013677c000
    [    3.691688] FS:  00007f19b9378700(0000) GS:ffff88013fc00000(0000) knlGS:0000000000000000
    [    3.692969] CS:  0010 DS: 0000 ES: 0000 CR0: 000000008005003b
    [    3.693887] CR2: 00000000ffffffff CR3: 0000000136832000 CR4: 00000000001607f0
    [    3.695023] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
    [    3.696138] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400
    [    3.697243] Stack:
    [    3.697597]  ffffffff8116c8d4 00000000ffffffff ffff880139c14898 ffff880139c13090
    [    3.698833]  ffffffffa051d6a8 ffff880139c13000 ffffffffa051d640 0000000000000001
    [    3.700104]  ffffffffa051d900 ffffffff8129f810 ffff880139c13090 ffffffffa051d6a8
    [    3.701347] Call Trace:
    [    3.701761]  [<ffffffff8116c8d4>] ? sysfs_do_create_link_sd+0xc4/0x1f0
    [    3.702774]  [<ffffffff8129f810>] ? pci_device_probe+0x60/0xa0
    [    3.703691]  [<ffffffff8130aace>] ? driver_probe_device+0x7e/0x3e0
    [    3.704651]  [<ffffffff8130aeeb>] ? __driver_attach+0x7b/0x80
    [    3.705562]  [<ffffffff8130ae70>] ? __device_attach+0x40/0x40
    [    3.706474]  [<ffffffff81308b23>] ? bus_for_each_dev+0x53/0x90
    [    3.707389]  [<ffffffff8130a148>] ? bus_add_driver+0x1c8/0x280
    [    3.708297]  [<ffffffff8130b4d8>] ? driver_register+0x68/0x150
    [    3.709205]  [<ffffffffa0520000>] ? 0xffffffffa051ffff
    [    3.710104]  [<ffffffff8100038a>] ? do_one_initcall+0xca/0x180
    [    3.711060]  [<ffffffff8108b63c>] ? load_module+0x1d0c/0x2360
    [    3.711977]  [<ffffffff8128feb0>] ? ddebug_proc_write+0xe0/0xe0
    [    3.712920]  [<ffffffff8108bd24>] ? SYSC_init_module+0x94/0xf0
    [    3.713870]  [<ffffffff814ccdc4>] ? system_call_fastpath+0x22/0x27
    [    3.714852] Code: 0f 84 73 06 00 00 49 8b 85 c8 01 00 00 48 89 ef 48 85 c0 48 0f 44 05 8e d3 2f e1 48 8b 8f 00 01 00 00 48 85 c9 0f 84 66 05 00 00 <48> 83 39 00 0f 84 5c 05 00 00 4c 8b 10 4d 85 d2 0f 84 50 05 00
    [    3.719290] RIP  [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3]
    [    3.720482]  RSP <ffff8801368dbc50>
    [    3.721032] CR2: 00000000ffffffff
    [    3.721588] ---[ end trace a3e87f015c929b01 ]---
     ... [FAILED]

  9. tests wie folgt:

     

    Server1:  Baremetall install 6.22U3 - 6 SDD aus einen 8 platten raid6 entnommen , also degraded ( der HBA mag nicht mit dem board und das board hat nur 6 ports / davon 4 nur sata II )

     

          10GBe anbindung , zugriff auf NFS

     

    Server2: vmware 6.0 , benchmark innerhalb einer 2012R2 VM die auf dem NFS liegt  ( an server 2 wird nichts verändert , die VM wird nur angehalten )

     

    anschliessend:

     

    Server1 mit Vmware gebootet und passthrough für SATA Controller & 10GBe konfiguriert.

     

    VM auf server 2 fortgesetzt  , benchmark wiederholt. 

     

    IMG_4013.thumb.JPG.693c301b08c3f8a937d4a3fac4a04a4f.JPGIMG_4014.thumb.JPG.68269f1c9625de4da57e342b94bdbfa7.JPG
     

     

     

  10. Hallo,

     

    einige Motherboards / Bios bieten die Möglichkeit von AMT bzw. SOL

    damit kann man von remote per IP auf die serielle console zugreifen ( und mehr .. )

     

    Anleitungen zur inbetriebnahme von AMT im Bios findet ihr reichlich bei google

    ich habe diese verwendet https://insinuator.net/2014/03/how-to-use-intel-amt-and-have-some-fun-with-mainboards/

    ein stolperstein ist das komplexe passwort das im bios mit engl. tastatur vergeben wird.

    erster funktionstest ist der zugriff per browser  unter http://<IP>:16992

    wenn ihr euch hier einloggen könnt , kanns weiter gehen.

     

    nächster schritt ist der zugriff mit dem Manageability Developer Tool Kit

     

    ggf. muss man in der grub.cfg die einstellungen für die console anpassen.

     

    dmesg | grep tty   zeigt die schnittstellen an.

     

     

     

     

     

     

     

     

     

×
×
  • Create New...