norman

Members
  • Content Count

    18
  • Joined

  • Last visited

Community Reputation

0 Neutral

About norman

  • Rank
    Newbie

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. my 2nd partition was only 20MB i made a new with 30MB i will try the w10 ubuntu howto
  2. somehow the new extra.lzma does not fit on my 2nd partition. how can i delete some unused modules from the extra.lzma file ? ( from windows ) i can open the extra.lzma with 7zip but when i try to delete something it says its write protected. so far i found no way to edit rights on the extra.lzma
  3. i can confirm exact this behaveure on z230cmt
  4. qnap qsw-308 3port SFP + 10gbe + 8port 1gbe copper ( about 200€ ) or ubiquiti US-16-XG 12x 10 GB SFP+ 4x 10 GBe copper ( about 600€ )
  5. hier noch mit vaai damit legt die NFS performance nochmal deutlich zu, bzgl stabiler durchsatz
  6. jetzt wäre noch zu testen ob sich 10gbe passthrough lohnt oder ob man einfach den vmnext3 verwendet
  7. noch ein test: - alles virtuell - VM und virtual Synology auf dem gleichen vmware Host. - zugriff per NFS - einmal über e1000e einmal über vmnext3 ( synology ) der vmnext3 bietet hier deutlich mehr durchsatz
  8. ne , beide tests waren mit dem degraded raid. der unterschied ist einzig passthrough vs. baremetal es wurde nichts geändert als den USB stick zu tauschen ( vmware usb , synology usb ) inzwischen hab ich den controller, damit ist die leistung etwas glatter und minimal höher. mit allen 8 platten ist man dann ja eh schon am maximum des 10GBe wenn ich die vm direkt auf dem gleichen host laufen lasse, geht nochmal etwas mehr. aber hier bremst evtl. der e1000e treiber und der vmnext3 lauft nicht
  9. 1.03b loader - 3515xs 6.2.2 :: Loading module vmxnet3[ 3.666370] BUG: unable to handle kernel paging request at 00000000ffffffff [ 3.667584] IP: [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3] [ 3.668757] PGD 136866067 PUD 0 [ 3.669328] Oops: 0000 [#1] SMP [ 3.669928] Modules linked in: vmxnet3(F+) pcnet32(F) e1000(F) sfc(F) netxen_nic(F) qlge(F) qlcnic(F) qla3xxx(F) pch_gbe(F) ptp_pch(F) sky2(F) skge(F) ipg(F) uio(F) alx(F) atl1c(F) atl1e(F) atl1(F) libphy(F) mii(F) libcrc32c ixgbe(O) igb(O) i2c_algo_bit e1000e(O) dca vxlan ip_tunnel vfat fat mdio sg etxhci_hcd mpt3sas(F) mpt2sas(O) megaraid_sas(F) mptctl(F) mptsas(F) mptspi(F) mptscsih(F) mptbase(F) scsi_transport_spi(F) megaraid(F) megaraid_mbox(F) megaraid_mm(F) vmw_pvscsi(F) BusLogic(F) usb_storage xhci_hcd uhci_hcd ohci_hcd(F) ehci_pci ehci_hcd usbcore usb_common cepsw(OF) [last unloaded: bromolow_synobios] [ 3.679735] CPU: 0 PID: 4605 Comm: insmod Tainted: PF O 3.10.105 #24922 [ 3.680879] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 09/21/2015 [ 3.682532] task: ffff880139c9d800 ti: ffff8801368d8000 task.ti: ffff8801368d8000 [ 3.683688] RIP: 0010:[<ffffffffa0519232>] [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3] [ 3.685198] RSP: 0018:ffff8801368dbc50 EFLAGS: 00010206 [ 3.686051] RAX: ffffffff8181fb40 RBX: 0000000000000002 RCX: 00000000ffffffff [ 3.687173] RDX: ffff88013677dc28 RSI: ffff88013677c000 RDI: ffff880139c13098 [ 3.688284] RBP: ffff880139c13098 R08: 757120785220666f R09: 32203a2073657565 [ 3.689407] R10: 757120785220666f R11: 32203a2073657565 R12: 0000000000000002 [ 3.690566] R13: ffff880139c13000 R14: 0000000000000001 R15: ffff88013677c000 [ 3.691688] FS: 00007f19b9378700(0000) GS:ffff88013fc00000(0000) knlGS:0000000000000000 [ 3.692969] CS: 0010 DS: 0000 ES: 0000 CR0: 000000008005003b [ 3.693887] CR2: 00000000ffffffff CR3: 0000000136832000 CR4: 00000000001607f0 [ 3.695023] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000 [ 3.696138] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400 [ 3.697243] Stack: [ 3.697597] ffffffff8116c8d4 00000000ffffffff ffff880139c14898 ffff880139c13090 [ 3.698833] ffffffffa051d6a8 ffff880139c13000 ffffffffa051d640 0000000000000001 [ 3.700104] ffffffffa051d900 ffffffff8129f810 ffff880139c13090 ffffffffa051d6a8 [ 3.701347] Call Trace: [ 3.701761] [<ffffffff8116c8d4>] ? sysfs_do_create_link_sd+0xc4/0x1f0 [ 3.702774] [<ffffffff8129f810>] ? pci_device_probe+0x60/0xa0 [ 3.703691] [<ffffffff8130aace>] ? driver_probe_device+0x7e/0x3e0 [ 3.704651] [<ffffffff8130aeeb>] ? __driver_attach+0x7b/0x80 [ 3.705562] [<ffffffff8130ae70>] ? __device_attach+0x40/0x40 [ 3.706474] [<ffffffff81308b23>] ? bus_for_each_dev+0x53/0x90 [ 3.707389] [<ffffffff8130a148>] ? bus_add_driver+0x1c8/0x280 [ 3.708297] [<ffffffff8130b4d8>] ? driver_register+0x68/0x150 [ 3.709205] [<ffffffffa0520000>] ? 0xffffffffa051ffff [ 3.710104] [<ffffffff8100038a>] ? do_one_initcall+0xca/0x180 [ 3.711060] [<ffffffff8108b63c>] ? load_module+0x1d0c/0x2360 [ 3.711977] [<ffffffff8128feb0>] ? ddebug_proc_write+0xe0/0xe0 [ 3.712920] [<ffffffff8108bd24>] ? SYSC_init_module+0x94/0xf0 [ 3.713870] [<ffffffff814ccdc4>] ? system_call_fastpath+0x22/0x27 [ 3.714852] Code: 0f 84 73 06 00 00 49 8b 85 c8 01 00 00 48 89 ef 48 85 c0 48 0f 44 05 8e d3 2f e1 48 8b 8f 00 01 00 00 48 85 c9 0f 84 66 05 00 00 <48> 83 39 00 0f 84 5c 05 00 00 4c 8b 10 4d 85 d2 0f 84 50 05 00 [ 3.719290] RIP [<ffffffffa0519232>] vmxnet3_probe_device+0xd2/0xa50 [vmxnet3] [ 3.720482] RSP <ffff8801368dbc50> [ 3.721032] CR2: 00000000ffffffff [ 3.721588] ---[ end trace a3e87f015c929b01 ]--- ... [FAILED]
  10. tests wie folgt: Server1: Baremetall install 6.22U3 - 6 SDD aus einen 8 platten raid6 entnommen , also degraded ( der HBA mag nicht mit dem board und das board hat nur 6 ports / davon 4 nur sata II ) 10GBe anbindung , zugriff auf NFS Server2: vmware 6.0 , benchmark innerhalb einer 2012R2 VM die auf dem NFS liegt ( an server 2 wird nichts verändert , die VM wird nur angehalten ) anschliessend: Server1 mit Vmware gebootet und passthrough für SATA Controller & 10GBe konfiguriert. VM auf server 2 fortgesetzt , benchmark wiederholt.
  11. could you fix this problem ? i have a dc7800 sff here, and have the same problem.
  12. ja das stimmt. man kann auf AMT eine firewall konfigurieren oder einfach nur das default gateway weg lassen ( das hilft aber nur wenn AMT eine eigene IP hat )