• 0

ESXI intérêt?


Question

Bonjour,

il y a de super tutoriel donc j'ai souvent eu besoin dans ce forum mais il y a un élément dont je n'arrive pas a cerner l'utilité globale ou les cas où cela est utile... ESXI.

Peut-être que je n'en ai pas besoin et voila pourquoi je ne comprends pas :)

 

Mon utilisation

Un microserver HP GEN8 dédié à XPENOLOGY (DSM 6.1.7...) contenant 4 HDD pour 8To de données.

J'ai récemment supprimer mon système domotique Jeedom (initialement sur raspberry) pour l'installer en VM sur un 5ème Disque (SSD cette fois) depuis Virtual Machine Manager.

 

Dans cette utilisation, quel pourrait être le gain (performances/ gestion ou autres) à avoir un ESXI et ces deux éléments en VM?

 

Désolé de ma non-compréhension...

 

Cordialement 

Edited by kevinevic
Link to post
Share on other sites

5 answers to this question

Recommended Posts

  • 0

Bonjour,

ESXi est un système d'exploitation à part entière dédié à l'hyperviseur Vmware. Contrairement à des VM fonctionnant dans Docker ou une autre mécanisme de virtualisation, on gagne en performance et en stabilité puisqu'on ne transcrit pas les requêtes de la VM en commandes qui vont être transmises au système par DSM mais directement transcrite vers le système.

De plus ESXi est un OS professionnel spécialement conçu pour de très grosses architectures de virtualisation, donc faire tourner 3 ou 4 VMs en local avec un usage perso ne va pas l'épuiser... (il est même possible de virtualiser ESXi ce qui permet de le déplacer d'un serveur physique à un autre dynamiquement, avec la licence qui va bien ainsi que l'architecture ad-hoc).

Dans ton cas, il faudrait installer ESXi sur un disque, un SSD ou même une carte microSD (le boot sur SD est prévu sur un Gen8), puis créer un datastore.

Selon le nombre et le type de VM à installer sur ESXi, il peut être sur un disque SSD, la carte SD (voir dans les 2 cas le tuto que j'ai fait) ou un disque dédié, ou encore un autre espace de stockage situé sur ton réseau local (Gb/s minimum). C'est principalement les performances en I/O de la VM vers les disques qui jouera pour déterminer le support à utiliser.

Ensuite, une VM permettant de faire tourner le DSM (dans ce cas, le disque de boot n'est plus utilisé une fois DSM lancé, donc la VM peut être sur la carte SD) et rattacher les autres disques du Gen8 en tant que RDM pour avoir un accès direct depuis le DSM (performances maxi et compatibilité avec un Syno (baremetal ou un vrai) OK).

Et Jeedom comme autre VM avec son espace de stockage sur le datastore que tu as choisi.

Et d'autres VM possibles pour des tests ensuite. La quantité dépendra des performances (RAM, CPU, disque) de ton Gen8 et de leur usage simultané ou non.

 

Jacques

Link to post
Share on other sites
  • 0

Je tourne sur esxi depuis plus de 5 ans avec 5 VM haproxy, contrôleur Unifi, 2 syno, et une Debian pour mon serveur Web. Tout fonctionne très bien.
Le seul soucis c'est les disques RDM je n'arrive pas à remonter la température.
Attention avec les disques RDM cela pose problème lorsque l'on repasse de rdm en baremetal on l'inverse je sais plus.
Sur esxi il ne faut pas utiliser le ahci. Il faut aussi faire un downgrade du pilote sinon on perds en perf.
L'agrégation de port fonctionne avec les switchs cisco mais pas les Switchs unifi.
Si je devrais refaire ma configuration je partirai peut-être sous proxmox

Pour jeedon ben moi je préfère une home center 3

Envoyé de mon BLA-L29 en utilisant Tapatalk



Link to post
Share on other sites
  • 0

Hello,

 

Je ne vais donc pas paraphraser mes VDD, juste donner mon expérience du coup.

@mprinfo Tout l'intérêt du RDM est justement de pouvoir passer de baremetal à ESXi et vis versa sans soucis. Et cela fonctionne bien.

Personnellement je fais tourner ESXi 7.0 sans aucun problème, je n'ai rien downgrade de particulier mais j'utilise une carte LSI SAS en passthrough,

Ce downgrade était à priori nécessaire pour les performances disques avec mauvais driver, mais en ESXi 7.0 je ne suis pas sur du tout que ce soit encore nécessaire.

Et au contraire avec le RDM il faut utiliser le AHCI et ne surtout pas laisser la P120i gérer le raid.

 

@kevinevic La première question à te poser et de savoir si ça a un réel intérêt pour toi d'utiliser ESXi ou non.

Si ton usage se résume à 99% Synology, il vaut peut être mieux rester sur du baremetal, et faire tourner ce qui peut l'être avec Docker (Jeedom tourne très bien sous docker).

 

Ceci étant dit, comme déjà évoqué, tout dépend du matériel que tu as. Dans mon cas perso, j'ai un HP Microserver Gen8 Xeon avec 16Gb de RAM.

De mon point de vue perso, inutile d'envisager un hyperviseur (ESXi ou Proxmox pour ne citer qu'eux) si tu as moins de 16Gb de RAM, parce que tu vas très vite être limiter par le manque de RAM disponible si tu compte faire tourner plusieurs machines virtuelles.

 

Je pense que l’intérêt principale d'un hyperviseur et de permettre de s'affranchir des contraintes de configurations exotiques de la machine hôte/physique (Carte mère, type de carte réseau, drivers associés etc...).

A partir du moment où tous les périphériques sont détectés/fonctionnels dans ton hyperviseur, tout le reste est "émulé" dans tes machines virtuelles :

 

- nombre de vCPU (nombre de cores)

- quantité de RAM allouée à la VM

- carte réseau conventionnelle (comme E1000e sur ESXi).

- création d'un port COM virtuel accessible en telnet depuis le réseau (utile pour débug Xpenology quand la carte réseau n'est pas détectée)

 

Une VM qui tourne sur hyperviseur a un gros avantage, elle est déplaçable de façon presque "transparente".

Si ta machine physique tombe en panne, tant que tes disques sont intacts et tes VM accessibles, tu remonte une autre machine, pas forcément identique, tant que ESXi (ou proxmox) est capable de tourner dessus, tes VM fonctionneront à nouveau sans aucune modification sur la nouvelle machine.

 

Cependant, faire tourner un hyperviseur veut dire qu'il faut comprendre son fonctionnement, surveiller les mises à jour éventuelles. Cela ajoute une couche de configuration/supervision. Est-ce vraiment nécessaire ? Toi seul saura répondre à cette question.

 

Pour ma part, j'ai commencé avec un Xpenology en baremetal sur un HP N54L, je faisais tourner Jeedom dessus avec un container docker.

Mais j'avais besoin de pouvoir faire tourner de temps en temps des machines virtuelles (ubuntu/linux)

J'ai fini par remplacer le N54L par un HP Microserver Gen8 et je suis passé par ESXi pour faire tourner Xpenology.

J'ai alloué 4Gb de RAM à Xpenology, me laisser 12Gb (un peu moins en considérant que ESXi a besoin de RAM pour fonctionner) pour les autres VM que je faisais tourner.

J'ai également changé de domotique de Jeedom pour Home Assistant. Il y avait une version clé en main pour ESXi, au delà du fait que j'ai trouvé Home Assistant plus pratique à l'usage.

Et contrairement à toi j'ai fait le cheminement inverse, j'ai basculé Home Assistant sur un raspberry pi dédié, pour ne plus avoir de domotique HS à chaque fois que je décide d'administrer l'ESXi (l'arrêter pour changer les disques et faire des tests Xpenology, etc...)

 

Sur le HP Gen8, je fais tourner ESXi sur une clé USB bootable (port interne sur la CM)

J'ai un SSD qui sert de datastore pour stocker les VM.

Et mes 4 disques 4To sont branchés sur une carte PCI-e LSI SAS2308 HBA que j'envoie en passthrough dans la VM Xpenology.

Pour les disques, j'ai choisi cette option pour garder le SMART data accessible dans DSM, pour que DSM puisse m'avertir si un disque tombe en carafe.

 

Mais ça implique de gérer les drivers mpt3sas de la carte dans le loader. Ce que RedPill c'est bien faire aujourd'hui, même si ce loader est encore à considérer comme en "béta".

 

Quand tu utilises un hyperviseur avec Xpenology, la question que tu dois te poser est de savoir comment gérer les disques de Xpenology.

 

Le plus simple est de créer des disques "virtuels" prenant l'intégralité de chacun des disques.

Avantage : simplicité d'intégration dans la VM

Inconvénient : Incompatible avec autre chose que ESXi. Impossible de les débrancher/transférer simplement en baremetal. Pas de remontées SMART data des disques non plus.

 

2 autres choix sont possibles :

- RDM (Raw Device Mapping) : Cette solution permet de mapper un disque physique à un fichier "disk" virtuel. Cela permet de présenter une image disque virtuel dans la VM mais qui écrira exactement sur le disque comme si c'était physiquement le disque branché dans la VM.

Cette solution permet justement de pouvoir basculer/revenir en baremetal si besoin est, car les disques ont été intégralement gérés/initialisés par DSM.

Le petit inconvénient reste que les données SMART data ne sont toujours pas accessible dans DSM.

 

- Sinon une carte PCI-e LSI SAS HBA en mode IT que tu donnes en passthrough dans la VM.

Cette option requiers certains prérequis. Le premier étant que ton CPU doit être compatible passthrough.

Les xéons sont compatibles, mais pas les céléron. Donc si ton Gen8 est équipé d'un Celeron G1610t, c'est mort, faut changer de CPU.

Il faut que cette carte soit reconnue par le loader. C'est le cas avec le loader DS3615xs de Jun's. Ca fonctionne plutôt bien.

Cela a été plus compliqué au début avec le nouveau loader Redpill. mais on arrive à une situation qui se stabilise actuellement et mes derniers tests valident le fonctionnement de ma carte en passthrough.

 

Mes VM actuellement dispo à titre d'exemple :

image.thumb.png.4909a2524fa53ed50487e541b62126a0.png

 

Ce n'est que mon expérience perso au fil du temps, mais je ne suis pas un expert des hyperviseurs pour autant.

 

J'espère que nos réponses te seront utiles.

  • Like 2
Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Answer this question...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.