Jump to content
XPEnology Community

Djey

Member
  • Posts

    171
  • Joined

  • Last visited

Everything posted by Djey

  1. Hello, (petit) retour sur l'hibernation des disques : hier soir vers minuit lorsque j'ai demandé à la vm xpenology de s'arrêter (via ssh depuis mon ordi portable), j'ai entendu le bruit caractéristique des disques durs en train de se réveiller. Donc bonne news le couple xpenology 3810 + ESXI sait bien arrêter les disques (sachant qu'en début de soirée le nas a été pas mal sollicité pour lire de la musique). Après à la question si la mise en hibernation / réveil est faite de façon optimisée, je ne saurais quoi répondre. A creuser encore (cf syno_hibernate_debug_tool ?) WOL : en fait il s'agit plutôt du sleep On Lan Pour le moment j'utilise ssh depuis mon téléphone ou un ordi branché sur le réseau, afin d'éteindre le serveur. On peut scripter facilement cela (attention ceci est du Quick&Dirty) : ssh root@ syno_poweroff_feasible_check sleep 60 ssh root@ poweroff Seul inconvénient, le fait de devoir entrer les mots de passe admin xpenology et esxi, respectivement. Il doit exister un moyen de s'authentifier sans mot de passe depuis certaines IP, je regarderai à l'occasion (ou si vous avez des idées je suis preneur bien sûr )
  2. La carte radeon n'est-elle pas censée décoder la vidéo ? Tout est OK au niveau des pilotes pour Windows 7 ? Le décodage matériel est-il activé dans XBMC ? (ou même sait-il le gérer ? je ne connais pas vraiment XBMC) De mon côté ce CPU gère très bien plusieurs VMs en parallèle (2 xpenology, 1 xubuntu). Par contre je n'ai qu'un OS, c'est ESXI, sur lequel tourne les VMs.
  3. That's it indeed. RDM overcomes 2TB's limit. I have 2x2terabytes+ 2x3terabytes, all in RDM. Work perfectly. A slightly tricky way is to create in existing datastores many virtual hdd files up to 2TBs, but I don't recommend this. Especially if you plan to set everything with RAID/SHR ...
  4. My only thoughts here concerning Hyper-V vs ESXi, due to the small amount of users Hyper-V solution has serious limitations (e.g 100Mb legacy network adapter , older DSM version, w2012R2 not recognizing my onboard LAN ...). It's not the concern of most of people nor those who are working with fixing and enhancing xpenology. When virtualizing xpe, ESXi is widespread and has way better support here. That's why I began with Hyper-V then removed everything to install VMware's core hypervisor instead.
  5. Djey

    HELP

    Oui, si tu rediriges les ports sur l'interface de configuration de ta freebox.
  6. Djey

    DSM 4.3 ESXi OVF

    Que faire ? attendre que Trantor (ou quelqu'un d'autre) intègre une solution, il est au courant du souci. Sinon je peux vivre avec, ça tourne sans problèmes.
  7. Djey

    HELP

    Bonjour, je n'utilise pas QuickConnect et je règle directement mon routeur 'à la main'. Je n'ai pas de Freebox donc j'ignore comment procéder pour rediriger des ports sur ce modèle. - Déjà, connais tu l'IP de ta box sur Internet afin de pouvoir y accéder en vadrouille ? - Après, il y a des ports à rediriger selon les applis mobiles (par exemple, audio station nécessite de rediriger les ports 5000 en http ou 5001 en https).
  8. Si tu mets le nouveau synoboot, le navigateur te proposera directement de migrer en chargeant le nouveau fichier .pat. Contrairement à ce que tu imagines, tu n'auras pas accès au DSM et à l'outil de mise à jour tant que la migration n'est pas effectuée. Le mieux est de t'en rendre compte aussi par toi même, c'est formateur et ça ne mord pas
  9. Hello. Pour la migration, il est nécessaire de se connecteur à l'installeur web. Une fois le démarrage effectué avec le synoboot à jour, il faut accéder à l'ip du serveur avec un navigateur. Cela devrait fonctionner.
  10. Bonjour Laurent, les pilotes sont ajoutés dans l'amorce de xpenology, tu peux faire ta demande sur ce thread et ils seront inclus lors d'une prochaine release : viewtopic.php?f=2&t=1361 Du moins, tu pourras peut être trouver de l'aide si tu te sens l'âme de builder ton propre noyau avec ces pilotes
  11. Hi, I'm facing the same issues, as I have ESXI 5.5 and xpenology 4.3 on it. SMART is not handled on virtual disks, sadly Though, ESXI system has tools to get SMART info in command line. http://kb.vmware.com/selfservice/micros ... Id=2040405 Actually, I'm working on a way to transmit SMART data from ESXI to a custom web application (hosted by xpenology) to track and analyze disk status in real time.
  12. Hi, here is a full OVF template of 4.3 for ESXI 5.x. viewtopic.php?f=13&t=1737 This version seems to require 2 VMDKs (attached to IDE controller) to work ... Those included.
  13. Thanks ! Upgrading a ESXI VM with converting this IMG file to VMDK is sufficient ? Or do I need to wait for adapted version ?
  14. Djey

    Sortie DSM 4.3

    Mise à jour de l'amorce avec des pilotes supplémentaires : viewtopic.php?f=2&t=1361&p=8699#p8699 (+correction du message en boucle concernant le buzzer). à noter que le bug du volume planté à chaque démarrage a été reconnu mais pas encore résolu. Le contournement consiste pour l'instant à réparer le volume (quoique ça a l'air de bien fonctionner si l'on ignore cet avertissement). Je me demande si une simple conversion du fichier de img à vmdk permet de mettre à jour ma VM pour tester
  15. Djey

    DSM 4.3 ESXi OVF

    Modifie dans les fichiers /etc/synofinfo.conf et /etc.defaults/synoinfo.conf : la clé internalportcfgPense à faire avant des sauvegardes de ces fichiers, qui sont plutot critiques ! Chez moi après modif : internalportcfg="0xffc" C'est de l'hexa, en binaire cela donne 1111 1111 1100 (la calculatrice Windows est mon amie ) Le bit 1 correspond à un disque visible, le 0 le cache donc. A lire de droite à gauche ! J'ai donc passé les 2 derniers bits à droite de 1 à 0 pour masquer respectivement les disques 1 et 2. Ensuite on reconvertit tout ça en hexa, on inscrit la valeur sans oublier les guillemets et le 0x, on sauve puis reboot ! As tu également ajouté le périphérique USB dans la config de ta VM sous vSphere client ? le contrôleur seul ne suffit pas. vSphereClient détecte les périphériques branchés et t'indique s'ils sont prêts à être connectés à ta VM, ou déjà connectés à une autre (éventuellement).
  16. Salut, - synology propose cloud station dans les paquets officiels. - sinon tu as owncloud http://www.cphub.net/index.php?id=40&pid=213 - et sûrement d'autres à toi de voir celui qui te convient
  17. RAID volume marked as bad fit on each start. My configuration : ESXi 5.5, 4 RDM disks attached to main SCSI controller. /var/log/messages tells me: Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.273149] md: invalid raid superblock magic on sdc5 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.273323] md: sdc5 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.294797] md: invalid raid superblock magic on sdc6 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.294970] md: sdc6 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.394868] md: invalid raid superblock magic on sdd5 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.395057] md: sdd5 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.417764] md: invalid raid superblock magic on sdd6 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.417935] md: sdd6 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.474752] md: invalid raid superblock magic on sde5 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.474925] md: sde5 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.534772] md: invalid raid superblock magic on sdf5 Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.534943] md: sdf5 does not have a valid v0.90 superblock, not importing! Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.535681] md: sdb2 has different UUID to sdb1 [...] Nov 29 07:35:42 Neo-Diskstation kernel: [ 16.805774] set group disks wakeup number to 4, spinup time deno 7 [...] Nov 29 07:35:44 Neo-Diskstation synodiskpathparse: disk_path_parse.c:101 Unknown diskType Nov 29 07:35:45 Neo-Diskstation kernel: [ 21.814675] md: md1: set sdb2 to auto_remap [0] insmod: can't insert '/lib/modules/acpi-cpufreq.ko': Input/output error insmod: can't insert '/lib/modules/aesni-intel.ko': No such device When I try to repair it via DSM Storage Manager: Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_add.c:56 Failed to '/sbin/mdadm /dev/md0 -a /dev/sdd1 > /tmp/raid_add.log 2>&1', WEXITSTATUS(err) = 1, ret = Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_add_robust_check.c:62 Failed to add /dev/sdd1 into /dev/md0, errno=No such file or directory Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_system_repair.c:26 Fail to add disk to system raid Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_system_repair.c:68 Fair to repair system raid(Root) Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: space_lib.cpp:964 Fail to repair system raid Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910041] md: md0: set sde1 to auto_remap [0] Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910173] md: md0: set sdf1 to auto_remap [0] Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910290] md: md0: set sdc1 to auto_remap [0] Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910404] md: md0: set sdd1 to auto_remap [0] Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910520] md: md0: set sdb1 to auto_remap [0] Contents of /tmp/raid_add.log : mdadm: Cannot open /dev/sdd1: Device or resource busy Thanks.
  18. Djey

    DSM 4.3 ESXi OVF

    Pas de soucis ! J'ai également 4 disques, 2x2to venant d'un nas syno et 2x3to achetés pour mon serveur sous ESXi. La deuxième méthode évite de devoir créer d'énormes fichiers virtuels sur chaque disque, supprimant au passage une couche entre la machine virtuelle et la machine physique. D'ailleurs, tu confies toujours à xpenology la gestion du RAID sur tes 4 disques, (RAID 1, RAID, 5, SHR) . Le RDM se gère de façon tout à fait transparente. La seule 'difficulté' est donc de devoir passer par la ligne de commande, comme décrit ici : http://blog.davidwarburton.net/2010/10/ ... -for-esxi/ Le but de la manip est que, pour chaque disque dur à mapper, tu obtiennes un fichier VMDK, qui sert juste de lien entre ta VM et le disque en question. C'est ce même VMDK que tu devras indiquer dans la config de ta vm, comme tu le ferais pour un 'gros' vmdk créé et alloué sur le datastore. Attention, cela implique que ces VMDK de lien soient accessibles depuis l'hyperviseur esxi ! Conséquence : tu dois disposer d'un datastore hébergé sur un support supplémentaire (j'ai chez moi un disque dur de 250go à cet effet). Et déposer ces VMDK fraîchement créés dans le datastore. Du coup, si tu ne peux rajouter ce 5e disque, tu vas devoir 'sacrifier' un de tes 4 disques pour faire un datastore et c'est dommage. Il y a peut être une autre possibilité mais je ne suis pas assez calé en la matière... peut être est-il possible de le faire avec une clé USB dédiée ?! à tester. C'est le cas, et même avant d'initialiser. Depuis la 4.3 (et peut etre même avant), syno gère l'installation de disques SSD en + du système afin d'accélérer la machine. A mon avis la config xpenology interne lui fait seulement croire qu'il a du SSD en face. Rien de bien grave en somme PS: il est également possible de cacher ces disques 1 et 2 du gestionnaire de disques avec une petite manip ... vu qu'ils ne servent à rien sous le DSM. Merci, je me sens moins seul du coup Une version peaufinée pour nos ESXi par Trantor lui-même devrait sortir sous peu, tout le monde croise les doigts pour qu'elle résolve aussi ces petits désagréments. Bon courage ! --- Edit : J'ai ouvert un thread au sujet de l'erreur de volume planté : viewtopic.php?f=2&t=1796
  19. Djey

    DSM 4.3 ESXi OVF

    Bonjour wolf, tu n'as pas à initialiser les disques présents sur le modèle OVF que tu as déployé. Ce sont des disques système sur contrôleur IDE. Les données sont stockées sur des disques attachés à un contrôleur SCSI virtuel. Quand tu dis que tu n'arrives pas à ajouter de HDD, tu t'y prends comment ( et avec message d'erreur ?) ou es-tu déjà bloqué sans savoir comment ajouter un vmdk De quels disques physiques disposes-tu pour tes données ? Sache que tu as deux grandes possibilités : - soit tu crées des espaces de stockage sur tes disques physiques avec le vsphere client (cela va les formater intégralement en VMFS) et tu crées ensuite autant de disques virtuels que tu le souhaites pour les rattacher à la machine virtuelle. - soit tu demandes à ce que l'intégralité de chaque disque soit mappé dans ta machine virtuelle. C'est du RDM, et cela nécessite au préalable d'exécuter une commande sur le shell esxi pour chaque disque, afin de créer le lien. J'ai personnellement opté pour la seconde possibilité pour limiter la segmentation et faciliter la gestion.
  20. Hi,wait for ESXi specific release by Trantor, or you can try this as beta if you can't wait. Works great already viewtopic.php?f=13&t=1737
  21. It's okay for me. The system can be used, despite this warning and I can wait Trantor's release for ESXi. By the way, I could hide the disks 1,2 in HDD Management by chaning mask in /etc/syninfo.conf (put last two bits to 0 for internalportcfg property )- but the warning still remains.
  22. En tout cas sur la 4.3, le fait de réparer ôte l'avertissement et je n'ai constaté aucun impact sur mes données. Oui un backup est primordial, surtout dans l'aventure xpe
  23. Djey

    DSM 4.3 ESXi OVF

    Bonjour, même pas de souci de volume planté après le redémarrage ? Chez moi il apparaît à chaque démarrage, dés que j'ajoute un ou plusieurs disques SCSI à la VM et que je crée un volume. J'ai également la v5.5, que j'administre depuis le vsphere client.
  24. Djey

    DSM 4.3 ESXi OVF

    Voici mon plan de migration (encore au stade de beta ) : 1. déployer le fichier OVF et tester la nouvelle version sans les données (ou avec des données de test) dans une vm dédiée 2.a Sauvegarder la conf xpenology à migrer b Sauvegarder les données sur disque externe 3. stopper ttes les vms xpenology 4.a dupliquer la vm de tests, la copie sera celle utilisée comme cible de la migration b vérifier les paramètres de cette nouvelle vm (cpu, ram, etc) c déplacer les disques de stockage de la VM à migrer vers le controleur SCSI de la nouvelle VM 5. démarrer la nouvelle VM 6. accéder au DSM 7.a restaurer la conf sauvegardée (disque externe) : prend + de 30 min b Ajouter les repos DSM additionnels c Reinstaller les paquets 8. faire la mise à jour update 1 par le panneau de configuration En espérant que cela aide ...
  25. Changing SCSI controller to PV type before first launch causes poweroff indeed I remember having kept LSI Logic Parallel during first start + init, then switched to PV and it worked fine ... or setting was just not applied ? Then I switched again, but to LSI SAS this time and remains my current setting for testing.
×
×
  • Create New...