kouignamann

Members
  • Content Count

    29
  • Joined

  • Last visited

Community Reputation

0 Neutral

About kouignamann

  • Rank
    Junior Member
  1. (Discaimer : I've already posted in the french section but in a effort to broader my audience, I give it a try here) I've just purchased a Ellipse ECO 650 USB FR (EL650USBFR) UPS Unfortunately, I've battled with it for two hours trying to get DSM to detect it without success. My config HP Proliant Gen 8 Server Xeon e3-1220 V2 16 GB RAM IBM M1015 (IT mode) ESXI 6.7 - the HP version ("HPE Custom Image for ESXi 6.7 GA"). Jun's Loader v1.03b DS3615xs Basically, I've added a USB controler to my VM and a USB peripher
  2. Je viens d'acquérir un UPS/Onduleur Eaton Ellipse ECO 650 USB FR (EL650USBFR). Et, malheureusement. J'ai passé deux heures à essayer de le faire reconnaitre par ma VM Synology hier sans succès. Voici mon installation : HP Proliant Gen 8 Server Xeon e3-1220 V2 16 GB RAM IBM M1015 (IT mode) ESXI 6.7 - the HP version ("HPE Custom Image for ESXi 6.7 GA"). Jun's Loader v1.03b DS3615xs Donc j'ai ajouté un controler USB à ma VM et ajouté le périphérique USB "EATON Ellipse ECO". Rien dans le panneau de config de DSM. Pas d'UP
  3. J'ai juste passé la carte HBA à la machine virtuelle. Comme périphérique PCI.
  4. C'est qu'une hypothèse, mais j'ai l'impression que ESXI 6.7 gère moyennement bien ma carte HBA (IBM M1015 : controlleur LSI SAS2008). Il apparait que ESXI ne gère pas de cache pour les accès disques. Cette carte n'a pas de cache hardware. Donc ça souffre un peu. Pour le controlleur SAS HP Smartarray, etc. Il existe un driver specifique que propose HP donc à priori ça doit mieux fonctionner (pas testé). Du coup, je passe la carte contrôleur à DSM, et il se débrouille mieux que ESXI (il doit certainement gérer le cache). Il faut que je revérifie mais je crois avoir récup
  5. J'ai continué avec mes problèmes sur un thread en anglais. En fin de compte, tout semble rentrer dans l'ordre (ou pas loin en tout cas) en passant la carte HBA à DSM directement.
  6. Tested again. Enabled jumbo frames on the vSwitch, DSM network config and Windows network config. No noticeable improvement. I passed through my HBA card as a PCI device instead of passing each disk with RDM. Now I get between 50 MB/s and 500 MB/s transfer speeds. I like it better. I have spare SSD lying arround, I'll try enabling SSD cache in DSM to see if I get better results.
  7. So I've done some more testing. I don''t think this is a write caching issue since I'm reading files from a volume on the HBA card and writing on a regular SSD on a separate SATA port. First thing first. My transfers speed between a regular computer on the network (my Mac) and the DSM vm are normal. I get about the same speeds as in bare-metal. Not the same story when I use the Windows VM instead of a computer. My datastore is connected to the optical drive SATA port on the motherboard. Maybe it was slow. So I've connected it to the SAS port of the mo
  8. EDIT : Tested again, not in Remote Desktop but with vSphere console. I was able to get a fast transfer of my test file until 50%. Then it dropped to zero and froze. Weird.
  9. Windows VM is "Thick provisioned, lazily zeroed" DSM was migrated to a new install. VM Tools installed (with Synology Package Center). Windows VM has VM Tools as well. ESXI is latest HP custom image. Below a screenshot of a file transfer. And my vSwitch config.
  10. Which means? It the virtual disk large enough? Or, is it a specific setting I may have missed? I tested again last night : I logged into my Windows VM with Remote Desktop I connected one of my DSM share as a network drive. Browsing through the folders of the share is normal and I see no lag. I use the Windows 10 ISO file as a test file (about 4GB). Transfers started arround 30MBps and immediatly drops to a few hundreds KBps and zero. Once it gets to zero (it took less than ten seconds) I canceled the file copy and I was barely able to browse the
  11. The two VMs uses different disks/controllers. Apart from the tiny virtual boot drive, DSM VM uses 4 disks on the HBA card. 3 of them are managed as a RAID volume by DSM. Windows VM uses a virtual disk in ESXI datastore. The datastore is stored on a SSD, connected to a SATA port on the motherboard. I don't know how fast is this SATA port.
  12. So. First of all, here is my setup : HP Proliant Gen 8 Server Xeon e3-1220 V2 16 GB RAM IBM M1015 (flashed in IT mode) controler card. 4 big disks plugged on SAS port 0 on the controller card. 1 SSD plugged on one free SATA connector on the motherboard (I believe it is for optical drive) I installed ESXI 6.7 - the HP version ("HPE Custom Image for ESXi 6.7 GA"). I was able to migrate my baremetal install of DSM to a VM one (with Jun's Loader v1.03b DS3615xs). I did not passtrought the HBA card. Just each disk as "raw disk" (RDM).
  13. Je pense que ça se passe sur cet écran (dans l'image). "SR-IOV" ou "Relais". J'ai installé Windows 10 Ent. LTSB N, et il me reste un casse-tête. Quand je me ne connecte à un share du NAS dans la VM windows, les transfert sont lents. J'attends péniblement 30 MB/s en read. Plus lent que mon Mac sur le réseau (en SMB aussi).
  14. Oui, alors mon erreur est encore plus bête que ça... Pour remote desktop il faut un Windows 10 Pro ou Entreprise. La version famille ne le supporte plus - alors que ça l'était dans Windows 7. Hum. J'ai installé Win 10 entreprise. En 3 clics ça marchait. Hier soir j'ai migré sur la version "HP" de ESXi 6.7 : HPE Custom Image for VMware ESXi 6.7 Rien de majeure à signaler. Le support hardware est parait-il meilleur. J'ai juste un dernier problème. Mes disques sont bien liés à la VM DSM en "RDM" - dans 6.7 c'est fait depuis l'admin web "Ajouter un disqu
  15. Oui. J'ai une VM Windows 10. J'essaie de m'y connecter avec "Connexion Bureau à Distance" depuis un poste sur mon réseau.