Jump to content
XPEnology Community

JacquesF

Member
  • Posts

    463
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by JacquesF

  1. Bonjour, Merci beaucoup pour cette réponse. J'ai déjà refait plusieurs fois la clef, sur différent support. Je viens de le refaire sur une SDcard, en ayant récupéré le Vid/Pid avec RescueCD. Aucun changement... le système démarre, les traces dans la console (via iLO et VSP) indique toujours que seule l'interface loopback est démarrée, aucune requête DHCP sur le réseau et bien entendu pas de découverte du NAS par la suite. Le loader utilisé est le 1.02b dont la somme MD5 est b4a2bc974070895407cd50990d96669a (toujours pour le 3615xs). Le bios est vérifié, fonctionne sans soucis avec le loader du DSM5. La seule modification nécessaire pour le loader de Jun est de bloquer les informations de surveillance du processeur (bug du bios HP contourné via les informations HP). Sinon, le message : [Firmware bug]: the BIOS has corrupted hw-PMU resources (MSR 38d is 330) apparait et bloque le démarrage du système. Ceci se fait via un menu caché du bios accessible par Ctrl-A (dont Ctrl-Q en clavier FR) : Service Options ==> désactiver l'entrée Processor Power and Utilization Monitoring set vid=0x0ea0 set pid=0x2168 set sn=C7LWN09761 set mac1=D0BF9C465A4C set mac2=D0BF9C465A4D set rootdev=/dev/md0 set netif_num=2 set extra_args_3615='' La carte n'étant pas démarrée, il n'y a jamais de requête sur le réseau, si j'avais une adresse, je serai heureux, même si elle était erronée... Ce ramdisk n'est pas accessible (lien désactivé dans le tutorial...). De plus, d'après la liste indiquée, le module des cartes réseau n'est pas dedans. Si j'utilise un liveCD, le module nécessaires pour ces cartes est toujours tg3 (excepté VmWare qui utilise ntg3). Voir le lsmod d'un boot avec RescueCD : Je viens une nouvelle fois de refaire un démarrage avec cette configuration (voir l'extrait du grub.cfg) sans succès... Merci beaucoup pour cette aide, mais là je suis toujours bloqué. Bonne journée Jacques
  2. A tout hasard, est-ce quelqu'un pourrait poster le résultat de la commande dmesg de son Gen8 (jusqu'à la fin du démarrage) ? Ça permettrait peut-être de voir quels sont les modules qui sont chargés pour les cartes réseau au boot. Merci d'avance Jacques
  3. Bonsoir, C'est ce que j'ai essayé de dire en expliquant que j'ai suivi le tuto dans mon premier message. Le SN est le même que celui en DSM5, le VID/PID de la clef aussi, il n'y en a pas dans le cas d'un SDcard et les MAC sont les mêmes. Le nombre d'interfaces est mis à 2 puisque c'est le cas. Mais les premières infos (VID/PID/MAC) ne servent réellement qu'à l'installation du DSM, le réseau est déjà démarré à ce moment (voir le message d'erreur indiqué dans le tuto en cas de VID/PID incorrect). Je ne vais flasher le bios que pour le maintenir à jour, je n'attends pas de changement puisque les cartes réseau fonctionnent très bien. Merci Jacques
  4. Bonsoir, Oui, j'ai fait la clef comme indiquée, mais de toute manière (vu que j'ai testé aussi avec l'image d'origine sans rien modifier), le problème ne se poserait dans ce cas pas au boot mais lors de l'installation du fichier .pat (le DSM). Tel qu'il est, si je mets la clef pour le boot en DSM 5.2, il démarre et le apparait sur le réseau, avec comme seule proposition une installation complète du DSM 5.2 (en phase avec l'ancienne clef) puisque les disques sont neufs et vierges. C'est juste la partie réseau qui ne démarre pas du tout, comme si les cartes n'étaient pas vues, ou mal détectées. Je vais flasher le Bios et mettre à jour le Proliant avec le dernier ServicePack de chez HP, je viens de le télécharger chez eux (il faut créer un compte...). On verra après mais je ne vois pas pourquoi. Mes disques sont aussi en AHCI, le raid est fait avec le syno. Le raid propriétaire c'est bien, souvent performant, mais si on a pas une carte contrôleur de rechange, il est impossible de lire les disques en dehors d'un contrôleur de la même marque en cas de crash. Pour les performances dont j'ai besoin, je préfère le raid soft. Merci de ton aide Jacques
  5. Bonjour, Depuis 2 jours j'essaye de trouver pourquoi je ne peux pas faire une nouvelle installation (from scratch donc) du DSM6.1 avec le dernier loader (Jun v1.02b). J'ai un Gen8 qui tourne bien en DSM5.2 mais comme je voulais faire une augmentation de capacité, j'ai préféré faire une installation neuve plutôt qu'une mise à jour (changement des disques donc, les 4 (WD Red NAS) sont totalement vierges, même pas partitionnés en sortant d'usine). J'ai tenté de nombreuses fois l'installation en réutilisant la même clef USB (mais pas la même image bien entendu), une carte micro SD, une création de la carte ou de la flash sous Windows ou Linux (mon OS habituel), rien n'y fait. J'ai même laissé la configuration par défaut (sans toucher au fichier grub.cfg) pour voir si cela change. J'ai bien entendu essayé en gardant le fichiers de drivers supplémentaires extra.lzma ou en inhibant son chargement en le renommant en extra.lzma_unused (le code dans grub.cfg indique bien qu'on cherche le fichier par son nom exact). Rien ne change... Le système démarre mais il est invisible sur le réseau. Après analyse (il a fallu configurer ILO pour accéder aux traces du boot), je remarque que les modules réseau chargés sont de type e1000e alors que si je me souviens bien en DSM5, les modules étaient de type tg3. La configuration réseau affichée au boot ne contient que la loopback. Partant de là, il est normal que le serveur soit invisible sur le réseau. Problème, il semble que l'installation sur un Gen8 se fasse tout simplement en suivant l'excellent tuto de Polanskiman si je me base sur ce post : Proliant Gen8 et 1.02b /3615xs Les échecs qui me semblent patents sont : mount /dev/md0 fail, returns Exit on error [3] no init exists... Erreur logique puisque les disques sont totalement vierges et start SSDPD failed Logique aussi que le service (qui doit aider le SynologyAssistant à trouver le serveur sur le réseau) ne démarre pas puisqu'il n'existe pas d'interface réseau en service. Bref, pas de carte réseau, donc les dysfonctionnements qui suivent sont logiques, mais en principe le loader fonctionne avec le Gen8. Si quelqu'un peut m'aider, ce sera avec un grand plaisir que j'accueillerai toutes les suggestions proposées. Merci d'avance. Jacques
  6. Bonjour, En shell, tu peux facilement conditionner l'exécution d'une tâche à la bonne fin de la précédente. Dans ton petit script, j'ajouterai un test avec un ping sur ta machine que tu réveille avant de commencer à envoyer des données. Je ne suis pas chez moi, donc je n'ai pas accès au shell (limité) du NAS pour tester les commandes, mais quelque chose comme : # Pause de 5 minutes sleep 300 # Test sur l'adresse de la machine Windows (-c 1 = 1 paquet, -t 1 = 1s d'attente de réponse de mémoire) ping -c 1 -t 1 X.X.X.X > /dev/null 2>&1 || exit 1 # Les 2 barres en fin de commande indiquent ce qu'il faut faire en cas d'échec, si on && c'est en cas de réussite # # Ensuite tu lances les 3 commandes de backup, chacune d'elle ne peut être lancée que si la précédente a réussi (ce n'est pas une obligation, à toi de voir) /usr/syno/bin/synonetbkp --backup -k 1 && \ /usr/syno/bin/synonetbkp --backup -k 2 && \ /usr/syno/bin/synonetbkp --backup -k 3 On peut faire mieux, comme dans tous les scripts, c'est une question de temps et de recherche sur le web. Jacques
  7. ESXi a besoin d'un datastore pour stocker les fichiers de configuration d'une VM et les fichiers de disque, ou les pointeurs vers les disques durs réels. A priori, il n'y a pas de raison qu'une clef USB de taille suffisante ne puisse être utilisée comme un datastore. On retrouve toutefois le problème d'écriture fréquente sur une mémoire flash, qui n'est pas vraiment conseillé. Un Gen8 1610T offre en fait 5 interfaces SATA, 4 sont dédiées aus disques durs, et une 5ème au lecteur DVD qui n'est fourni qu'en option. Personnellement, j'utilise ce dernier port avec un disque dur 2,5" de 1To. Tu peux ainsi utiliser un espace supplémentaire pour le datastore. Avec un seul disque, tu perds la sécurité du RAID, mais ce n'est pas forcément très grave, si tu as une stratégie de sauvegarde de ta configuration domotique. Tu peux aussi peut-être dédier un espace sur les volumes du NAS, accessible en NFS, et monter ce partage comme datastore pour ton autre VM. Ce n'est pas garanti, car les disponibilités des datastores ne sont pas forcément revérifiées après le démarrage. Si tu veux le tenter, il faut paramétrer la VM du NAS pour démarrer automatiquement en premier, et ajouter la deuxième en la rendant dépendante du NAS. Jacques
  8. Si tu replaces tes anciens disques, tu rechargeras l'ancienne version (à priori qui ne marche plus) puisque celle-ci est répartie sur les disques du Raid. Normalement, il faut appliquer la procédure, éventuellement en adaptant les références des périphériques /dev/sdX, et remonter les volumes logiques une fois le raid soft remonté lui aussi. Ensuite, les volumes devraient être visibles à la racine (/volume1, etc... et les images aussi. Si le contenu a été effacé, mais que le disque n'a pas été trop manipulé par la suite (pas d'écritures sur le volume des photos), lancer un programme comme photorec sur le volume récupéré par les bonnes commandes de montage devrait te permettre de récupérer tes fichiers. Jacques
  9. Le RAID utilsé par Synology est un mélance de Raid logiciel linux et de gestion de volumes logiques (LVM). Cette technologie est entièrement Soft, et peut donc être utilisée sur une autre machine de type linux pour récupérer les données. Le Raid matériel fourni par HP dépend entièrement du contrôleur de disque. En cas de panne de celui-ci, les disques seront illisibles. Le choix ne dépend que de toi. Jacques
  10. Le RAID SHR n'est rien d'autre qu'un raid logiciel sur lequel on ajoute la couche LVM (Logical Volume Manager) sous linux. N'importe quelle distribution Linux permet d'accéder au SHR, pour le faire, il y a un tuto sur le site de Synology expliquant comment récupérer les données sur les disques en cas de crash. Si tu te connecte en console sur le NAS, tu verras que le montage des volumes est fait sur du LVM, et que celui-ci utilise du raid soft (partition de type Linux Raid-Autodetect). A moins que ton NAS ne serve à traiter du signal vidéo directement, s'il fait surtout office de serveur DLNA sans modification du codage vidéo, les ressources consommées sont assez faibles. Créer une VM de plus ne charge pas les disques, on garde l'accès aux disques du NAS tel quel (mode RAW device de VMware) et il faut juste dédié des ressources processeur/RAM en quantité suffisante. A toi de voir la charge que ça représente avec les autres machines, mais VMware proposant gratuitement l'usage d'un serveur ESXi, on peut dans le cas de VM perso, faire l'impasse sur le déménagement à chaud des machines ou sur les configurations sophistiquées dont on a besoin en usage PRO. A toi de voir. Jacques
  11. Xpenology est un système linux à part entière et qui a besoin de rester tel quel pour fonctionner avec les applications de Synology. Donc, sur une machine Debian, tu ne peux pas faire tourner ce système en plus. Ce que tu peux faire, c'est installer un VMware sur ta machine, et faire tourner sur celui-ci 2 machines virtuelles, une pour Xpenology, et une pour la distribution Debian qui hébergera tes applications. Si ça tourne sur des RasPi, tu dois pouvoir les faire fonctionner sur une partie d'une mémoire flash qui hébergera VMware et le datastore qui contiendra le fichier de disque dur de ta Debian. Pour Xpenology, il faut laisser les disques en place et les déclarer en Raw Devices dans la configuration de disque de ta VM. Il y a plein d'infos sur la virtualisation sur ce forum. Jacques
  12. Bonsoir, Je ne peux pas le garantir avec certitude, je n'ai jamais tenté la manip, mais en DSM 5.2, le SHR est en fait de la gestion de volumes LVM sur des disques montés en raid logiciel de type auto-detect. Ce qui revient à dire que les volumes sont situés au dessus de la couche raid soft, et que celle-ci sait identifier toute seule les disques faisant partie d'une grappe raid. Donc, déplacer un disque ne devrait avoir aucun impact sur la gestion des volumes, donc du système de fichiers ensuite. Ceci dit, la sauvegarde n'est jamais inutile. Jacques
  13. Dans ce cas, en l'absence de possibilité de voir les compteurs de trafic sur le switch et les le débit réel négocié au niveau des ports, ça ne va pas être simple. A priori, c'est la config ou le soft qui n'est pas optimisé avec le matériel présent, puisque ça semble correct sous Windows. Dans les paramètres réseau, penser à désactiver IPv6, si on essaye de transmettre avec les 2 protocoles, pas sur que ça fonctionne bien. Ensuite, si l'interface est gérée en bonding (même si on n'a qu'une seule carte active), on peut voir l'état de la connexion dans l'interface (panneau de configuration, réseau, interface), ou en ligne de commande : cat /proc/net/bonding/bond0 Les paramètres DNS peuvent induire du retard aussi, si la résolution de nom échoue, mais en principe une fois un transfert lancé, on n'a pas à refaire une nouvelle requête DNS. Donc, regarder selon la doc de la carte mère et du switch les couleurs prévues pour les diodes des interfaces réseau, si on peut voir le mode half/full duplex et si c'est en phase avec ce qu'on voit dans les propriétés de la carte (ou le fichier bond0). Et surtout, ne pas activer IPv6 en même temps. Je ne vois pas d'autres pistes. Jacques
  14. Bonsoir, Juste une remarque : Le RAID, c'est de la redondance de données, par de la sauvegarde. Il suffit de supprimer un répertoire pour voir ce que ça donne... tous les disques sont touchés et les données perdues. Ensuite, sur une machine dédiée, il est préférable de lui faire faire le maximum de tâches, ça évite d'avoir des tas de serveurs en route (en environnement pro, c'est différent toutefois). Donc, soit on fait faire le maximum par le Synology, soit on virtualise le DSM (via ESXi qui pour un usage permanent est plus efficace que Virtualbox (VBox est très pratique pour démarrer une VM sur son PC, mais pour faire tourner plusieurs VM de tout type en même temps, j'ai une préférence pour VmWare, déformation pro probablement) et on virtualise une machine linux pour faire les fonctions qui ne peuvent pas se faire facilement sur le syno. Mais tout ça c'est affaire de goût et de temps à passer aussi. Sans compter la curiosité... Jacques
  15. Juste une remarque, si tu n'utilise plus qu'une seule carte réseau pour les tests, défiche la seconde de la carte mère. Sur les serveurs PRO, les 2 cartes réseaux ne se partagent pas les ressources PCIe. Sur une carte mère grand public, cela va dépendre des slots utilisés. Et sur ce point, il est possible que l'arbitrage des ressources soit meilleurs avec les drivers dédiés pour la carte. A essayer. Jacques
  16. Bonsoir, Pour l'indexation, et les pochettes, j'ai parfois constaté que ce n'est pas toujours très dynamique. Il y a un paquet "Media Indexer" qui permet d'améliorer la chose à priori. Bons tests Jacques
  17. Bonjour, A priori, les options d'indexation ne fonctionnement pas sur des répertoires réseau avec un montage autre que NFS. Il existe des outils NFS for Windows disponibles chez Microsoft pour permettre l'interconnexion entre Windows et Unix. Autant je suis certain qu'un PC windows avec cette suite peut monter un partage NFS, autant je ne peux pas te garantir que l'inverse (export NFS depuis Windows) est vrai. A vérifier sur le site. Ca pourrait être une solution pour régler ton problème. Jacques
  18. Bonjour, La configuration des mots de passe est stockée dans 2 fichiers sur le NAS, tout comme pour une distribution linux classique basée sur la suite "shadow". Le fichier /etc/passwd contient les différents comptes utilisateurs et contenait dans le deuxième champ (séparés par le signe ":") le mot de passe. Comme il contient un "x", cela veut dire que le mot de passe est stocké dans le fichier /etc/shadow. Pour désactiver le mot de passe, il suffit de supprimer le x de la ligne associée au compte dans le fichier /etc/passwd, en laissant bien entendu les signes ":". De cette manière, le login ne demande plus de mot de passe. Ligne par défaut dans le fichier de mon NAS pour le compte admin : admin:x:1024:100:System default user:/var/services/homes/admin:/bin/sh Ligne modifiée : admin::1024:100:System default user:/var/services/homes/admin:/bin/sh Pour accéder au contenu du NAS sans le mot de passe, il faut redémarrer le serveur avec un CD (ou une clef USB) de maintenance (je n'ai pas essayé si le boot XPenology permet l'accès au disque du NAS en mode rescue). Les distributions linux permettent ça facilement, avec le CD d'installation, ou une distribution spécialisée telle que RescueCD. Trouver une procédure de récupération détaillée des mots de passe sur le web ne doit pas être très difficile. Sinon, en principe une réinstallation du NAS ne devrait pas toucher aux disques et ne remettre à jour que la partie système. Mais comme toujours, il est préférable de faire une sauvegarde avant... Jacques
  19. Bonjour, Pour ta question, je n'utilise pas Failover, donc je ne pourrais pas te donner directement une réponse. Déjà, il y a un truc anormal dans ta configuration IP : IPADDR=IP.FAILOVER => donc dans le réseau 212.xx.xx.xx /24 GATEWAY=IP.DU.DEDIE.1 => donc 62.xx.xx.1 si j'ai bien compris Avec une machine dont le réseau est défini en 212.xx.xx.0 (masque à 3x255), on ne peut pas joindre l'adresse du routeur qui est en 62.x.x.1. Donc, pas la peine d'essayer de sortir. Le routeur doit impérativement être dans le même sous-réseau que la machine qui l'utilise, sinon c'est comme essayer de traverser une rivière en partant du côté opposé que celui où on se trouve. Pour vérifier le ping, tu as plusieurs cas de "panne" dépendant soit de la configuration, soit d'éléments dont tu n'as le contrôle. 1) Mettre les DNS de Google, cela permet une résolution de nom, mais ne te garantie pas un ping. L'idéal est de faire une résolution de nom depuis une machine ayant accès au web, et de pinger l'adresse depuis ta VM et de voir ce qui se passe 2) Si quand tu fais un poing avec le nom, tu as l'envoi de paquets vers une adresse IP qui correspond à celle de l'adresse (à vérifier via une autre machine hors VM), c'est que le dialogue se fait vers le Web, mais que le ping est bloqué 3) Si le message d'erreur du ping est quasi immédiat (et non pas après un timeout d'envoi du message ICMP), il y a 95 chances sur 100 que le problème de configuration soit sur ta VM, si c'est après timeout, le paquet sort et la réponse ne revient pas 4) Un firewall suffit à bloquer les ping... et en rincipe à laisser passer le trafic HTTP 5) En ligne de commande sur le XPnology, tu dois disposer de wget opur faire un test http Bon, ça ne règle pas ton problème, mais tu peux peut-être affiner ainsi la source de ton problème. Jacques PS : Pour régler des problèmes de routage, il faut faire le ping sur les adresses successivement utilisées pour sortir (la VM, le routeur (donc l'ESXi), le serveur final et la commande traceroute (tracert sous Windows). En principe, le réseau de ta VM utilise un switch virtuel émulé par l'ESXi, qui dans la gestion de l'hyperviseur utilise lui une ou plusieurs cartes réseau pour accéder au réseau IP physique.
  20. Bonjour, Pour répondre à la question, booter dans clef, c'est techniquement possible. Maintenant, remplacer la clef USB par une carte µSD ne change pas le principe de base, on a toujours une mémoire externe susceptible d'être retirée. Si le serveur possède un lecteur de CD, il peut être utilisé. Sinon, il faut un disque dédié, ou une partition. Pour éviter qu'elle ne soit utilisée par le DSM, on peut créer un fichier remplissant tout l'espace disque restant. Elle ne sera pas marquée RO, mais sera vue saturée. La dernière solution pour démarrer sans disque, c'est via le réseau. Mais ça sous-entend que : - On dispose d'un serveur actif 24/7 pour servir de serveur DHCP, TFTP et NFS - Le bios du serveur sait faire du PXE (ça c'est le cas de tous les serveurs, reste les PC recyclés en NAS qui peuvent ne pas le faire) - On adapte le boot de la clef pour un démarrage via le réseau (les drivers réseaux doivent être présents dès le début) Ça me parait bien compliqué à faire pour se passer d'une clef USB. La µSD est plus avantageuse en terme de temps à passer pour démarrer le NAS. Jacques
  21. Pour l'accès aux grappes RAID, le tuto est dans la FAQ Synology pour la récupération de données. Pour ce qui est d'accéder aux disques du DSM par la VM, il suffit d'ajouter des disques à la VM et de les déclarer en RAW Devices. De cette manière, on ne passe pas par le système de fichiers VMFS (en fait un ou plusieurs fichiers de l'ESXi qui représente le disque dur de la VM) mais c'est l'OS invité qui gère les données. Pour ce qui est de l'interface, je pense que tu n'as pas du tout explorer, elle est plutôt complète, et même complexe. Il faut utiliser Vsphere, et non pas Workstation. Vsphere a une licence de démo par défaut pour un serveur qui n'est pas limité en exploitation mais en durée, et mettre une licence free se fait en s'inscrivant sur le site de Vmware si je me souviens bien. Pour info, avec un ESXi et les bonnes licences, on peut déplacer une VM d'un serveur ESXi à un autre sans l'arrêter, la déménager d'un disque à un autre, que ce soit du NAS ou du disque local à un serveur, restreindre les ressources d'une VM en la plaçant dans un pool, restreindre les droits des utilisateurs, démarrer les VM automatiquement dans un certain ordre, déplacer tout un groupe de VM ensemble (très rapide si les VM sont sur un NAS partagé par les serveurs ESXi), créer des configurations réseau spécifiques, avoir du HA entre deux serveurs ESXi pour une même VM, etc... Sincèrement, même si Hyper V a progressé, et Virtualbox est devenu plus simple à utiliser, Vmware offre des sacrés possibilités. Maintenant, administrer des VM, c'est un métier à part entière... et nécessite formation et expérience, les données des VM étant en principe plutôt sensibles pour une société. Jacques
  22. Tout à fait d'accord, si c'est Windows qui est installé comme OS, pas moyen d'accéder aux disques du RAID de XPenology. En revanche, si c'est Linux, c'est envisageable. Ensuite, accéder aux données est une chose, les modifier en depuis le Linux en est une autre. En principe, on doit pouvoir ajouter des fichiers sur les répertoires partagés (music, photo, video) sans problème (c'est une écriture sur du raid soft LVM) mais pour ce qui est du gestionnaire de téléchargement, il est peu probable que les données intermédiaires soient stockées au même endroit entre les 2 systèmes. Après, utiliser la virtualisation est tout de même très facile maintenant. Vmware avec ESXi offre tout de même de super possibilités, avec peu de limites pour un usage personnel (la version gratuite n'autorise pas plus de 32 Go de RAM... ça laisse un peu de marge). Après, si on a besoin de se connecter à des cartes physiques performantes (jeux vidéos par exemple), là il faut que le pass-trough soit supporté par le serveur. J'ai un Gen10 mais je n'ai testé ESXi dessus que très brièvement. Mais j'utilise Vmware en environnement pro avec d'excellentes performances. 2 disques, ou un disque partitionné, c'est une utilisation alternative. La virtualisation, c'est du simultané, avec des ressources partagées (ne pas l'oublier tout de même), même si on peut arbitrer entre les VM. Bons tests Jacques
  23. Bonsoir, A priori, tu ne veux pas un usage simultané, donc pour moi, oui c'est possible de rajouter une entrée de boot directement dans le menu de la clef USB (des exemples de config pour syslinux ne manquent pas le web) avec un démarrage par défaut sur le DSM. Ensuite, pour ce qui est de Windows, pas de soucis avec les disques, à moins d'installer un driver spécifique, il ne connait rien des autres systèmes de fichiers (hors FAT et NTFS). Pour Linux, il faudra probablement désactiver le chargement des modules pour le raid soft (ce qu'est le SHR) ou interdire le montage de la configuration. De mémoire, il y a une option pour le noyau (à placer dans les options de Grub pour qu'elle soit prise en compte à chaque changement de noyau) pour forcer à ne pas détecter le RAID logiciel. Jacques
  24. Bonjour, Si, l'emplacement sur un bus joue. C'est un lien partagé (un ou plusieurs bus sur la carte mère selon sa "taille"), et selon la position, certaines cartes sont donc isolées sur le bus ou bien se retrouvent avec une autre carte qui peut monopoliser les ressources. Les cartes réseaux sont gourmandes en ressources (si on veut faire autre chose qu'un ping..). De plus, selon l'architecture de la carte, pour les bus PCI-E, on ne dispose pas forcément du plein débit. A priori, tes 2 cartes réseaux étaient sur le même bus. Pour vérifier, il faut regarder dans la doc de la carte mère, éventuellement dans le manuel de maintenance du serveur. Jacques Extrait de Wikipedia (https://fr.wikipedia.org/wiki/PCI_%28informatique%29) :
  25. Bonsoir, Pas testé ce mode (je suis en 802.3ad LACP sur mon NAS) mais personnellement je ne connecterai pas la 2ème interface avant d'avoir fait la configuration. En principe, en bonding, le module linux associe l'adresse MAC de la carte définie en MASTER à l'interface virtuelle. Si l'interface est encore configurée en DHCP, et prend l'adresse de la première carte, le serveur va lui redonner l'adresse de la carte 1, ce que le protocole DHCP refusera (test par une requête ARP de la disponibilité de l'adresse sur le réseau). Je n'ai pas tracé pour regarder, mais je pense que c'est ce qui se passe. Donc, ce que je tenterai c'est : 1) Ne garder que LAN1 de connecté 2) Configurer LAN1 et 2 dans le bonding 3) Attribuer une IP fixe libre à l'interface de bonding (éventuellement en dehors de la plage DHCP de la box) 4) Vérifier que l'interface de bonding passe en service avec l'adresse fixe 5) Connecter l'interface LAN2 et vérifier que le lien fonctionne toujours 6) Déconnecter LAN1 et retester 7) Remettre les 2 interfaces en service 8) Si tout est OK, sauvegarder la configuration A tester donc Jacques
×
×
  • Create New...