Jump to content
XPEnology Community

Djey

Member
  • Posts

    171
  • Joined

  • Last visited

Posts posted by Djey

  1. Hello,

     

    (petit) retour sur l'hibernation des disques :

    hier soir vers minuit lorsque j'ai demandé à la vm xpenology de s'arrêter (via ssh depuis mon ordi portable), j'ai entendu le bruit caractéristique des disques durs en train de se réveiller.

    Donc bonne news le couple xpenology 3810 + ESXI sait bien arrêter les disques (sachant qu'en début de soirée le nas a été pas mal sollicité pour lire de la musique).

    Après à la question si la mise en hibernation / réveil est faite de façon optimisée, je ne saurais quoi répondre. A creuser encore (cf syno_hibernate_debug_tool ?)

     

     

    WOL :

    en fait il s'agit plutôt du sleep On Lan :grin:

    Pour le moment j'utilise ssh depuis mon téléphone ou un ordi branché sur le réseau, afin d'éteindre le serveur.

     

    On peut scripter facilement cela (attention ceci est du Quick&Dirty) :

    ssh root@ syno_poweroff_feasible_check
    sleep 60
    ssh root@ poweroff

     

    Seul inconvénient, le fait de devoir entrer les mots de passe admin xpenology et esxi, respectivement.

    Il doit exister un moyen de s'authentifier sans mot de passe depuis certaines IP, je regarderai à l'occasion (ou si vous avez des idées je suis preneur bien sûr :wink: )

  2. J'ai peur que la CPU ne suive pas si on lance un film en 1080p + telechargement bittorent en parallèle...
    La carte radeon n'est-elle pas censée décoder la vidéo ? :shock:

    Tout est OK au niveau des pilotes pour Windows 7 ?

    Le décodage matériel est-il activé dans XBMC ? (ou même sait-il le gérer ? je ne connais pas vraiment XBMC)

     

    De mon côté ce CPU gère très bien plusieurs VMs en parallèle (2 xpenology, 1 xubuntu). Par contre je n'ai qu'un OS, c'est ESXI, sur lequel tourne les VMs.

  3. My only thoughts here concerning Hyper-V vs ESXi, due to the small amount of users Hyper-V solution has serious limitations (e.g 100Mb legacy network adapter , older DSM version, w2012R2 not recognizing my onboard LAN ...). It's not the concern of most of people nor those who are working with fixing and enhancing xpenology.

     

    When virtualizing xpe, ESXi is widespread and has way better support here. That's why I began with Hyper-V then removed everything to install VMware's core hypervisor instead.

  4. Bonjour,

     

    je n'utilise pas QuickConnect et je règle directement mon routeur 'à la main'.

    Je n'ai pas de Freebox donc j'ignore comment procéder pour rediriger des ports sur ce modèle. :sad:

     

    - Déjà, connais tu l'IP de ta box sur Internet afin de pouvoir y accéder en vadrouille ?

    - Après, il y a des ports à rediriger selon les applis mobiles

    (par exemple, audio station nécessite de rediriger les ports 5000 en http ou 5001 en https).

  5. Si tu mets le nouveau synoboot, le navigateur te proposera directement de migrer en chargeant le nouveau fichier .pat. Contrairement à ce que tu imagines, tu n'auras pas accès au DSM et à l'outil de mise à jour tant que la migration n'est pas effectuée.

     

    Le mieux est de t'en rendre compte aussi par toi même, c'est formateur et ça ne mord pas :wink:

  6. Bonjour Laurent,

    les pilotes sont ajoutés dans l'amorce de xpenology, tu peux faire ta demande sur ce thread et ils seront inclus lors d'une prochaine release :

    viewtopic.php?f=2&t=1361

     

    Du moins, tu pourras peut être trouver de l'aide si tu te sens l'âme de builder ton propre noyau avec ces pilotes :smile:

  7. This is an updated synoobot file which include several fixes.

    Copy *.ko files to /lib/modules

     

    Link : http://xpenology.trantor.be/beta/synobo ... re-v1.1.7z

     

    Known issues:

    - You can't install DSM on a drive connected to a SCSI/SAS controller (configuration lost on reboot)

    - Volume containing drives attached to SCSI/SAS controller is "broken" on each reboot, you must click repair.

     

    Changelog:

    
    - Update synobios.ko (by k3dt ; fix "buzzer stop button pressed" warning)
    
    
    SCSI
    ----
    
    Highpoint Rocketraid 2720SGL
    LSI mpt2sas v17
    Adaptec aacraid
    Intel C600 Series Chipset SAS
    
    
    NETWORK
    -------
    
    3Com 3c590/3c900, 3cr990
    Alteon AceNIC/3Com 3C985/NetGear GA620
    QLogic QLA3XXX
    SiS 900/7016 SiS190/SiS191
    
    
    USB
    ---
    
    USB to serial / Prolific 2303 driver
    
    
    PATA
    ----
    
    ATI PATA (PATA_ATIIXP)
    AMD/NVidia PATA (PATA_AMD)
    CMD64x PATA (PATA_CMD64X)
    JMicron PATA (PATA_JMICRON)
    Marvell PATA (PATA_MARVELL)
    Promise PATA 2027x (PATA_PDC2027X)
    Intel SCH PATA (PATA_SCH)
    CMD / Silicon Image 680 PATA (PATA_SIL680)
    SiS PATA (PATA_SIS)
    VIA PATA (PATA_VIA)
    Winbond SL82C105 PATA (PATA_WINBOND)
    Legacy PATA support (PATA_LEGACY)

    Thanks !

    Upgrading a ESXI VM with converting this IMG file to VMDK is sufficient ? Or do I need to wait for adapted version ?

  8. Mise à jour de l'amorce avec des pilotes supplémentaires :

    viewtopic.php?f=2&t=1361&p=8699#p8699

    (+correction du message en boucle concernant le buzzer).

     

    à noter que le bug du volume planté à chaque démarrage a été reconnu mais pas encore résolu. Le contournement consiste pour l'instant à réparer le volume (quoique ça a l'air de bien fonctionner si l'on ignore cet avertissement).

     

    Je me demande si une simple conversion du fichier de img à vmdk permet de mettre à jour ma VM pour tester :-|

  9. Merci pour ces Infos je vais me pencher la dessus et merci pour le lien !

    Ha oui je suis preneur de la methode pour masquer les DD !

    Modifie dans les fichiers /etc/synofinfo.conf et /etc.defaults/synoinfo.conf : la clé internalportcfg

    Pense à faire avant des sauvegardes de ces fichiers, qui sont plutot critiques !

     

    Chez moi après modif :

    internalportcfg="0xffc"

    C'est de l'hexa, en binaire cela donne 1111 1111 1100 (la calculatrice Windows est mon amie :smile: )

     

    Le bit 1 correspond à un disque visible, le 0 le cache donc. A lire de droite à gauche !

    J'ai donc passé les 2 derniers bits à droite de 1 à 0 pour masquer respectivement les disques 1 et 2.

     

    Ensuite on reconvertit tout ça en hexa, on inscrit la valeur sans oublier les guillemets et le 0x, on sauve puis reboot !

     

     

    Par contre quelqu"un a remarquer des problème pour tt ce qui est disque externe (usb , HDD externe) moi aucun ne sont reconnu...

    Pourtant sur la vm le controleur usb est bien présent...

    As tu également ajouté le périphérique USB dans la config de ta VM sous vSphere client ? le contrôleur seul ne suffit pas. vSphereClient détecte les périphériques branchés et t'indique s'ils sont prêts à être connectés à ta VM, ou déjà connectés à une autre (éventuellement).
  10. RAID volume marked as bad fit on each start.

     

    My configuration : ESXi 5.5, 4 RDM disks attached to main SCSI controller.

     

    /var/log/messages tells me:

    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.273149] md: invalid raid superblock magic on sdc5                                                
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.273323] md: sdc5 does not have a valid v0.90 superblock, not importing!                      
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.294797] md: invalid raid superblock magic on sdc6                                   
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.294970] md: sdc6 does not have a valid v0.90 superblock, not importing!                                     
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.394868] md: invalid raid superblock magic on sdd5                      
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.395057] md: sdd5 does not have a valid v0.90 superblock, not importing!                          
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.417764] md: invalid raid superblock magic on sdd6                                
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.417935] md: sdd6 does not have a valid v0.90 superblock, not importing!                                   
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.474752] md: invalid raid superblock magic on sde5                                      
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.474925] md: sde5 does not have a valid v0.90 superblock, not importing!                                               
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.534772] md: invalid raid superblock magic on sdf5                                                           
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.534943] md: sdf5 does not have a valid v0.90 superblock, not importing!                                   
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.535681] md: sdb2 has different UUID to sdb1                                                               
    [...]
    Nov 29 07:35:42 Neo-Diskstation kernel: [   16.805774] set group disks wakeup number to 4, spinup time deno 7                                                        
    [...]
    Nov 29 07:35:44 Neo-Diskstation synodiskpathparse: disk_path_parse.c:101 Unknown diskType                                                                            
    Nov 29 07:35:45 Neo-Diskstation kernel: [   21.814675] md: md1: set sdb2 to auto_remap [0]                                                                           
    insmod: can't insert '/lib/modules/acpi-cpufreq.ko': Input/output error                                                                                              
    insmod: can't insert '/lib/modules/aesni-intel.ko': No such device

     

    When I try to repair it via DSM Storage Manager:

    Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_add.c:56 Failed to '/sbin/mdadm /dev/md0 -a /dev/sdd1 > /tmp/raid_add.log 2>&1', WEXITSTATUS(err) = 1, ret =
    Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_add_robust_check.c:62 Failed to add /dev/sdd1 into /dev/md0, errno=No such file or directory
    Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_system_repair.c:26 Fail to add disk to system raid
    Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: raid_system_repair.c:68 Fair to repair system raid(Root)
    Nov 29 10:11:42 Neo-Diskstation storagehandler.cgi: space_lib.cpp:964 Fail to repair system raid
    Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910041] md: md0: set sde1 to auto_remap [0]                                    
    Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910173] md: md0: set sdf1 to auto_remap [0]
    Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910290] md: md0: set sdc1 to auto_remap [0]
    Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910404] md: md0: set sdd1 to auto_remap [0]
    Nov 29 10:12:31 Neo-Diskstation kernel: [ 9427.910520] md: md0: set sdb1 to auto_remap [0]

     

    Contents of /tmp/raid_add.log :

    mdadm: Cannot open /dev/sdd1: Device or resource busy

     

    Thanks.

  11. Pas de soucis !

     

    J'ai également 4 disques, 2x2to venant d'un nas syno et 2x3to achetés pour mon serveur sous ESXi.

     

    La deuxième méthode évite de devoir créer d'énormes fichiers virtuels sur chaque disque, supprimant au passage une couche entre la machine virtuelle et la machine physique.

    D'ailleurs, tu confies toujours à xpenology la gestion du RAID sur tes 4 disques, (RAID 1, RAID, 5, SHR) .

     

    Le RDM se gère de façon tout à fait transparente. La seule 'difficulté' est donc de devoir passer par la ligne de commande, comme décrit ici :

    http://blog.davidwarburton.net/2010/10/ ... -for-esxi/

    Le but de la manip est que, pour chaque disque dur à mapper, tu obtiennes un fichier VMDK, qui sert juste de lien entre ta VM et le disque en question. C'est ce même VMDK que tu devras indiquer dans la config de ta vm, comme tu le ferais pour un 'gros' vmdk créé et alloué sur le datastore.

     

    Attention, cela implique que ces VMDK de lien soient accessibles depuis l'hyperviseur esxi !

    Conséquence : tu dois disposer d'un datastore hébergé sur un support supplémentaire (j'ai chez moi un disque dur de 250go à cet effet). Et déposer ces VMDK fraîchement créés dans le datastore.

    Du coup, si tu ne peux rajouter ce 5e disque, tu vas devoir 'sacrifier' un de tes 4 disques pour faire un datastore et c'est dommage. :sad:

    Il y a peut être une autre possibilité mais je ne suis pas assez calé en la matière... peut être est-il possible de le faire avec une clé USB dédiée ?! à tester.

     

    Une question : après avoir initialiser mon disque sur syno il aparrait comme étant du SSD (ce n'est biensur pas le cas ) chez toi aussi ?
    C'est le cas, et même avant d'initialiser. Depuis la 4.3 (et peut etre même avant), syno gère l'installation de disques SSD en + du système afin d'accélérer la machine. A mon avis la config xpenology interne lui fait seulement croire qu'il a du SSD en face. Rien de bien grave en somme :wink:

    PS: il est également possible de cacher ces disques 1 et 2 du gestionnaire de disques avec une petite manip ... vu qu'ils ne servent à rien sous le DSM.

     

    ET j'ai le même soucis que toi si j'arrete la vm et que je la relance j'ia une erreur sur le disque comme quoi il est planté.
    Merci, je me sens moins seul du coup :lol:

    Une version peaufinée pour nos ESXi par Trantor lui-même devrait sortir sous peu, tout le monde croise les doigts pour qu'elle résolve aussi ces petits désagréments.

     

    Bon courage !

     

    ---

    Edit :

    J'ai ouvert un thread au sujet de l'erreur de volume planté :

    viewtopic.php?f=2&t=1796

  12. Bonjour wolf,

     

    tu n'as pas à initialiser les disques présents sur le modèle OVF que tu as déployé. Ce sont des disques système sur contrôleur IDE.

    Les données sont stockées sur des disques attachés à un contrôleur SCSI virtuel.

     

    Quand tu dis que tu n'arrives pas à ajouter de HDD, tu t'y prends comment ( et avec message d'erreur ?)

    ou es-tu déjà bloqué sans savoir comment ajouter un vmdk :?:

     

    De quels disques physiques disposes-tu pour tes données ?

     

    Sache que tu as deux grandes possibilités :

    - soit tu crées des espaces de stockage sur tes disques physiques avec le vsphere client (cela va les formater intégralement en VMFS) et tu crées ensuite autant de disques virtuels que tu le souhaites pour les rattacher à la machine virtuelle.

    - soit tu demandes à ce que l'intégralité de chaque disque soit mappé dans ta machine virtuelle. C'est du RDM, et cela nécessite au préalable d'exécuter une commande sur le shell esxi pour chaque disque, afin de créer le lien.

     

    J'ai personnellement opté pour la seconde possibilité pour limiter la segmentation et faciliter la gestion.

  13. Hi,

     

    I have a question with EXSI 5.1 & DSM 4.3.

     

    I have convert VDI to VMDK, but when reboot after installation, the error grub 22 come out.

     

    I have try replace the VMDK file but problem still, any suggestion ??

     

    Any installation step I missed ??

     

    Thanks all advise.....

    Hi,

    wait for ESXi specific release by Trantor, or you can try this as beta if you can't wait. Works great already :smile:

    viewtopic.php?f=13&t=1737

  14. Found some time and retested this as you suggested, but the same failure applies - VM still makes auto shutdown.

     

    Noticed that using the VM with LSI Logic Parallel, after the initialization of the volume ended successfully, you cannot reboot/shutdown the machine for some additional time(5 minutes in my case). There is a message telling that some maintenance is in progress over volume1 and power off will be possible after this action is finished. Also some mdraid recovery messages can be saw in console. I mean WTF is it doing if the volume completion was reported as finished successfully? :???:

     

    Also in HDD Management, the disks are reported as SSD :???:

     

    As I mentioned first time, better wait for Trantor's release :ugeek:

    It's okay for me. The system can be used, despite this warning and I can wait Trantor's release for ESXi.

     

    By the way, I could hide the disks 1,2 in HDD Management by chaning mask in /etc/syninfo.conf (put last two bits to 0 for internalportcfg property )- but the warning still remains.

  15. Bonjour,

    même pas de souci de volume planté après le redémarrage ? :???:

     

    Chez moi il apparaît à chaque démarrage, dés que j'ajoute un ou plusieurs disques SCSI à la VM et que je crée un volume.

     

    J'ai également la v5.5, que j'administre depuis le vsphere client.

  16. Voici mon plan de migration (encore au stade de beta :smile: ) :

     

    • 1. déployer le fichier OVF et tester la nouvelle version sans les données (ou avec des données de test) dans une vm dédiée
    • 2.a Sauvegarder la conf xpenology à migrer
      b Sauvegarder les données sur disque externe
    • 3. stopper ttes les vms xpenology
    • 4.a dupliquer la vm de tests, la copie sera celle utilisée comme cible de la migration
      b vérifier les paramètres de cette nouvelle vm (cpu, ram, etc)
      c déplacer les disques de stockage de la VM à migrer vers le controleur SCSI de la nouvelle VM
    • 5. démarrer la nouvelle VM
    • 6. accéder au DSM
    • 7.a restaurer la conf sauvegardée (disque externe) : prend + de 30 min
      b Ajouter les repos DSM additionnels
      c Reinstaller les paquets
    • 8. faire la mise à jour update 1 par le panneau de configuration

     

    En espérant que cela aide ...

  17. OK do me a favor and test it like this on ESXi5.1:

    After you deploy the OVF template, don't start your VM, but go to settings first, you'll see that SCSI controller is not Paravirtual, but LSI Logic Paraller. Add a virtual hard disk, SCSI, thin provisioned (just for test), then change type of SCSI controller to Paravirtual. Start the VM but the machine will auto shutdown.

     

    Also Network aqdapter is E1000 but this can be change without a problem to VMXNET3.

    Changing SCSI controller to PV type before first launch causes poweroff indeed :-|

    I remember having kept LSI Logic Parallel during first start + init, then switched to PV and it worked fine ... or setting was just not applied ?

     

    Then I switched again, but to LSI SAS this time and remains my current setting for testing.

×
×
  • Create New...