Leaderboard


Popular Content

Showing content with the highest reputation since 03/11/2019 in all areas

  1. 2 points
    On ne peut pas avoir le beurre, l'argent du beurre et c** de la crémière pour 0€^^ 😂
  2. 1 point
    Hi, everyone, Thanks for you patience. A new ds918 loader support 6.2/6.21 is uploaded. whats new: uefi issue fixed. i915 driver updated. link https://mega.nz/#F!Fgk01YoT!7fN9Uxe4lpzZWPLXPMONMA ---Beginning of addition by polanskiman--- ---End of addition by polanskiman---
  3. 1 point
    Hi everyone. After a grate help from 'dodo-dk' (You're the best man) and a lot of try and errors i managed to run DSM 6.2.1u6 on Proxmox 5.3-11. I'll share my insights and maybe it'll be useful for someone. Proxmox does have 4 LAN cards model to chose from the list, but as we all know Synology dropped drivers for some devices (e1000, vmware3...) so new version of DSM stopped working on Proxmox. But Proxmox allows you to chose different models (not shown in choosing list) , we just have to add it to 'args:' parameters, just like we did with usb boot key. For this to work you need to know few things: 1) This won't work on OVS bridge/bond - it has to be Linux bridge/bond 2) The Linux bridge/bond has to have gateway set When we are adding LAN card from 'args:' it looks like the LAN card chooses bridge/bond on which the gateway is set, so that's why it's needed to be set. First thing you may check it's if e1000e LAN card is available in your kvm. So in Proxmox shell write command: kvm -device help Under 'Network devices' you should see line: name "e1000e", bus PCI, desc "Intel 82574L GbE Controller" The next step is to find your 'args:' parameters. To do this we need to use another command: qm showcmd YOUR-VM-ID YOUR-VM-ID - is ID of your Xpenology machine with added e1000 LAN card. From the output you need to copy two arguments: netdev and device. In my case it looks like this: -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown' -device 'e1000,mac=00:11:32:2c:a7:85,netdev=net0,bus=pci.0,addr=0x12,id=net0' For this to work you have to remove the 'script' parts from 'netdev'' and change model from 'e1000' to 'e1000e' in device argument. you can also remove the " ' " signs. After changes it should look like this: -netdev type=tap,id=net0,ifname=tap100i0 -device e1000e,mac=00:11:32:2c:a7:85,netdev=net0,bus=pci.0,addr=0x12,id=net0 Next you need to add changed arguments in to the VM config file (/etc/pve/qemu-server/YOUR-VM-ID.conf). In my case 'args:' line looks like this: args: -device ich9-usb-ehci1,id=usb,multifunction=on,bus=pci.0,addr=0xa -drive file=/var/lib/vz/images/103/vm-103-USB103b.raw,format=raw,if=none,id=drive-usb-disk2,cache=writeback -device usb-storage,bus=usb.0,port=2,drive=drive-usb-disk2,id=usb-disk2,bootindex=1,removable=off -netdev type=tap,id=net0,ifname=tap103i0 -device e1000e,mac=BA:E2:8A:3B:AC:3E,netdev=net0,bus=pci.0,addr=0x12,id=net0 The last thing is to remove the 'net' device from config file, so just comment or remove the line with 'net' device. In Proxmox web interface the LAN device wont be visible, but it will work. So, summing things up, I'm not Proxmox specialist so i didn't knew all of that. One more time thank you 'dodo-dk' for your knowledge and time. God bless all Xpenology enthusiasts, Xpenology devs and Proxmox for being best free virtualization tool i know.
  4. 1 point
    Salut, Je répond grossièrement. Xpenology tourne bien. Pour le long terme, pas de soucis sauf pour les update majeur ou il faut attendre un nouveau loader. Si la clé USB lache, il suffit de la refaire sur une autre clé et sa repart. A savoir que le clé USB n'est que tres peu solicité, si tu prend une clé usb neuve, de marque, très peu de chance d'avoir ce soucis. Unraid est tres bien mais payant, et limité en disque dur ( sinon il faut payé encore un peu plus ) FreeNas demande de la RAM ECC ( sa marche sans mais c'est pas recommandé au vu du systeme de fichier ) et en quantité ( environ 1Go RAM / To stockage ) Openmediavault est bien aussi mais pas aussi intuitif que DSM. A savoir que la recup des données synology sont simple du moment que tu ne les pas effacé. Il suffit de booter sur un linux live pour les récupérer ( en cas de raid, il suffit de remonter le raid dans le linux live est c'est bon aussi ) il y a des tuto un peu partout pour ceci ( meme sur le site de syno )
  5. 1 point
    Je trouve tout de même dommage que les cartes internes de ce serveur (extrêmement courant à priori dans les configurations trouvées ici) ne soient pas systématiquement incluses avec le loader. Dans mon cas, le slot d'extension est utilisé pour une carte SATA donc je ne peux pas migrer vers une version 6.2 Jacques
  6. 1 point
    FYI You only need to change bios C! for 6. It effects the power button....
  7. 1 point
    Когда добавляешь камеру выбери не название а -определяется пользователем. Там введи тот путь который я тебе написал. Конечно же изменив ип и пароль на свои. rtsp://admin:Password@IP:554/h264_hd.sdp
  8. 1 point
    Bonjour à tous, Problème résolu Grâce au soutien de flyride qui est un membre super doué, Il est (Dans la partie anglophone du Forum) J’ai suivi ses recommandations et j’ai pu récupérer mon volume. Il est maintenant sain. Je vous fais un compte rendu de la procédure au cas ou cela pourrait servir à quelqu’un. Attention, ayez un backup de vos données avant toutes tentatives. Voici les étapes que nous avons faites et les explications d’après ce que j’ai compris 1. Dans DSM a. Activer le SSH 2. Dans Windows a. lancer Putty et se connecter au Nas en tant que root 3. Détecter quel type de raid est utilisé et combien de disque. Avec ces commandes. a. Taper la commande mdadm --detail /dev/md2 b. Taper la commande mdadm --detail /dev/md3 Vous verrez des lignes de ce type Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 1 8 19 1 active sync /dev/sdb3 7 8 35 2 active sync /dev/sdc3 3 8 51 3 active sync /dev/sdd3 5 8 83 4 active sync /dev/sdf3 On détecte lequel est manquant. Dans mon cas c’est sde3 4. Taper les commandes a. mdadm --zero-superblock /dev/sde3 b. mdadm /dev/md2 --add /dev/sde3 Remplacez celle qui va bien dans votre cas. L'une c'est pour détruire les informations liées au RAID sur le disque (on efface le bloc de données où mdadm enregistre l'appartenance du disque au groupe raid) et l’autre c’est pour reconstruire le tableau du Raid 5. Taper les commandes cat /proc/mdstat Afin de suivre la progression de la reconstruction du tableau Raid. - Il y a la l’info en % de l’évolution. - Une estimation en minute du temps que cela va prendre. C’est du genre finish=1785.9min - a vitesse de récupération/sec C’est du genre speed=36408K/sec . Si ma compréhension n’est pas correct et qu’un spécialiste passe par la, merci de bien vouloir corriger mes dire.
  9. 1 point
    Ну что, пытливый ум и жажда экспериментов - обновился я до самой последней версии и все работает
  10. 1 point
    No, info center reports the cpu that the real DS3615xs comes with. Just cosmetics!
  11. 1 point
  12. 1 point
    The onboard nic (Broadcom BCM95723) works in 5.2, however the performance is much better with the other two pcie cards....
  13. 1 point
    Well why not? Aplying the right config changes..... But you can buy a HBA like dell H200 and plug in 8 drives. I'm no expert, but there are plenty of HBA, even for more drives, and with port multipliers the amount of hard drives you can connect grows. For example, Petabytes on a budget: How to build cheap cloud storage, they use only 4 sata cards and 9 multipliers to connect 45 drives
  14. 1 point
    Skiptar Two Issues First, BCM95723 is no longer supported. So in bios disable onboard network card. Next, try a card (Intel CT PCIE Gigabit, HP NC360T) Second, in bios disable CPU C1 power management setting
  15. 1 point
    Aide au choix d'une configuration /!\ Ce post est uniquement basé sur mes choix, et mes idées. Il est là dans le but de vous guider dans vos choix et si possible à vous aider à faire le bon choix. Je ne parlerai ici que de CPU Intel "grand public" ( Pentium, i3, i5 ... ), pas de Xeon ( pour le moment ). Je ne parle volontairement pas d'AMD car sa compatibilité avec Xpenology est plus compliquée qu'avec Intel, c'est pour cela que j'ai choisi Intel. 1/ Exprimer son besoin ( puissance, taille, .. .), prévoir le futur sans oublier le budget ! Tout d'abord il faut bien réfléchir à ce qu'on souhaite faire ( avec son Xpenology ), ce qu'on pourrait être emmené à faire, et ce qui ne nous intéresse absolument pas. Voici une liste des utilisations "courante" : - Serveur de fichiers local - Serveur de fichiers à distance ( SFTP ) - Serveur multimédia "simple" ( dnla, smb, ... ) - Serveur multimédia complet ( Emby, Plex, ... ) - ... La taille de la carte-mère dépendra du boitier que vous allez choisir ! Le boitier, c'est lui qui contient tout, trop gros n'est pas forcément pratique mais c'est ce qui permet le plus de flexibilité car il est possible d'y mettre une alim "standard" ATX, une carte-mère du même standard, ... Les cartes mère aux format ATX ont tous les avantages, elles ne sont généralement pas trop chère et possèdent le plus de ports SATA, slots de RAM, .... Ensuite il y a les cartes-mères format mATX, entre l'ATX et l'ITX elle possède un encombrement moyen tout en disposant en général d'au moins 4 ports SATA et de 2 slots de RAM de taille "normal" ( DIMM ). L'ITX est le format idéal pour une machine compacte, la carte-mère ne dépassant pas les 17cmx17cm. Certains modèles sont "classiques" avec un socket permettant d'y mettre le processeur de notre choix et deux slots de RAM, d'autres sont pré-équipé de processeur et possède en général des slots de RAM dit "So-DIMM", ce sont des barrettes mémoires plus courtes, utilisé en général dans les PC portable. Ces cartes prééquipées ont généralement des processeurs dits "fan-less" donc sans ventilateur, l'avantage c'est le silence, mais par contre ces processeurs sont généralement peu puissant ( bien que suffisant pour une utilisation classique d'un NAS ). Recapitulatif : ATX : Le choix ( de modèle de carte-mère et de boitiers ), les connectiques disponibles - l'encombrement mATX : Le choix ( de modèle ), le prix - Connectiques "généralement moins fournis, moins de slot de RAM, faible choix de boitier pouvant contenir plus de 5 ou 6 disques dur. mITX : Compact, choix plus important de boitier style "NAS", le silence ( pour les cartes déjà équipées de CPU ), la consommation électrique ( pour les cartes déjà équipées de CPU ) - Le prix, la puissance ( pour les cartes déja équipé de CPU ) Choisir le modèle de carte-mère ? J'ai mon boitier, je sais quelle carte-mère je peux y mettre, maintenant il me faut choisir un modèle parmi les 10ène et 10ène de modèles existants ! 1er conseil : Choisir une marque connue ! Bien que la panne puisse arriver même sur des grandes marques, le risque est beaucoup plus faible. Quand on fabrique un NAS, on le veut fiable et ne pas avoir peur de se réveiller un matin avec tout de "planter" ! Voici des marques connues : AsRock, Asus, MSI, Gigabyte et ce n'est pas parce que c'est une marque que c'est forcément plus cher ! Parfois malheureusement, pour certains types bien particuliers ( comme les cartes à CPU intégré, il faut se tourner vers des marques un peu moins connues afin d'avoir du choix ! ). 2ème conseil : Choisir une carte récente avec un Socket actuel ! Actuellement, ( 01/2018 ) le Socket d'Intel ( pour le grand public ) est le 1151, avant lui il y avait le 1150. Certains vendeurs vendent encore des cartes avec ce vieux Socket, méfiez-vous, cela peut être un bon plan ( car souvent moins cher, mais assurez-vous de trouver le CPU compatible qui sera surement plus dur à trouver qu'un CPU actuel ! ) 3ème conseil : Assurez-vous de la compatibilité de la ram avec votre carte-mère, si vous choisissez une carte mère 1151, il vous faudra de la DDR4, ensuite il faut vérifier le format ( généralement DIMM ( le SO-DIMM étant principalement pour les pc portables et certaines carte-mère au format MITX ) ), la fréquence et le CAS. Votre besoin de stockage est-il important ? Si oui, il faudra vous concentrer sur les cartes-mères possédant assez de ports SATA pour votre NAS et même pour la suite ! À savoir qu'il est aussi possible d'y ajouter des cartes d'extension proposant 2 à 4 ports SATA par port PCIe mais les vitesses de ses cartes sont inférieures a ce que proposent les ports intégrés à la carte-mère. Les cartes d'extension font l'objet d'une explication "en plus" en fin d'article afin de revenir sur les vitesses max. suivant l'interface utilisée, ... Est-elle compatible ? La grande question ! Une fois la carte-mère idéale trouvée, il faut vérifier qu'elle soit compatible avec Xpenology. Pour cela, une recherche sur le forum s'impose ! L'idéal serait de trouver un membre ayant la carte-mère que le modèle choisit afin de savoir si elle est compatible ! Exemple : Votre choix se porte sur cette carte-mère, une AsRosk Z370M Pro4. Une simple recherche dans le forum avec la référence de la carte-mère, nous indique ce post : Dans ce message, on peut voir le membre "EVOTk" utilise la même carte-mère, et a effectué avec succès la MAJ 6.2 Update 4 sous Jun's Loader v1.03b DS3615xs et sans avoir besoin du "extra" personnalisé. On peut donc être sur à 100% que la carte-mère que l'on a choisi sera compatible avec Xpenology. Mais que faire si personne n'utilise la même carte-mère que celle de notre choix ? Dans ce cas, que vérifier ? Principalement, il faut vérifier 2 choses : le chipset de la carte-mère, qui gère les ports SATA ( entre autres ) et le contrôleur réseau. Si on reprend l'exemple de la AsRosk Z370M Pro4, le chipset est "Z370" et le contrôleur réseau est "Giga PHY Intel® I219V", on retrouve ses infos dans les caractéristiques détaillées. On emploie toujours la même méthode, on va chercher si quelqu'un utilise une carte-mère donc le chipset est identique et avec succès, et idem pour le contrôleur réseau ! Le choix du processeur ( CPU ) : Le choix du CPU, va se faire en fonction : - de la carte-mère choisie ( il faut que le socket soit le même, et que le chipset soit compatible ), chez tous les fournisseurs connus de carte-mère, il est possible de trouver pour chaque carte-mère la liste des CPU supportés par celle-ci ( généralement dans "support" ). - de la puissance voulu pour votre NAS. - du budget que vous vous êtes fixé. Dans le monde du CPU, il y a tous les prix, cela va du CPU peu puissant a 30€, jusqu'à 500, 600 ou même plus de 1000€ ! Un bon indice pour connaitre la puissance d'un CPU est le "PassMark®", c'est une société privée de développement de logiciel qui propose des notes sous forme de score pour chaque CPU, GPU, ... en fonction de sa puissance de calcul ! Il est donc simple de comparer 2 processeurs ! Exemple : Intel Core i3-4130 ( c'est le processeur qui équipe nos DS3615xs ), sont score est de 4796 ( on peut aussi voir d'autres informations comme le nombre de cœur physique / logique, son TDP, son score si on n'utilise qu'un seul coeur ( ici, 1961 ). Maintenant, nous allons le comparer a l'Intel Celeron J3355 ( c'est le processeur qui équipe nos DS218+ ), son score est de 1180 ! Soit 4 fois inférieur au processeur du DS3615xs ! On peut donc en conclure ( grossièrement ) que le processeur du DS3615xs est 4 fois plus puissant que le processeur du DS218+. Ok, j'ai compris, mais à quoi ça sert d'avoir un gros processeur dans un NAS ? Et c'est bien beau ton score mais 1000 ça représente quoi au final ? Dans un NAS à proprement parler, avoir un processeur puissant n'est pas forcément utile ( bien qu'en cas d'utilisation de RAID, cela permet que les reconstructions en cas de pertes d'un disque ne dur pas des jours ! ) mais maintenant les NAS ne servent plus uniquement à stocker des fichiers ! Ils servent également de petits serveur web, de serveurs SFTP, ... mais aussi principalement de serveur de fichiers multimédias ou pour la virtualisation, et c'est pour c'est deux dernières applications que la puissance du CPU va tout changer ! Pour une simple utilisation de stockage de fichiers, alors un processeur "bas de gamme" avec un score de 1000 points environ sera largement suffisant pour une expérience satisfaisante. ( À titre d'exemple, beaucoup sur le forum utilise Xpenology avec un AMD Turion II N54L ( installé dans les G7 N54L NHP ), c'est un processeur qui possède un score de 1300 points et est largement suffisant pour une utilisation classique d'un NAS. Malgré tout, si vous deviez partir sur du neuf, je vous conseillerai de prendre un processeur avec au moins 2500 points, afin de ne pas vous retrouver trop vite limiter au cas où vos besoins augmentent. Vous avez dit : Serveur multimédia ? Soit vous ne faite que de la lecture en local, et il faut que les clients qui lisent les vidéos sur le NAS soient compatibles ( h264, h265 , ... ) et dans ce cas cela ne demande aucune puissance au NAS, c'est-ce que je définis comme une utilisation en "Serveur multimédia simple" Ou alors votre NAS doit être puissant afin de pouvoir lui-même décoder le flux afin de le rendre compatible avec le client ( box tv, télévisons connecté, ... ). À titre d'exemple, le score "passmark" d'un CPU capable de décoder un flux 1080p sur Plex doit être supérieur à 2000 pour qu'il soit capable de le faire. Exemple : Si on cherche sur Google le passmark pour le G4400 ( https://www.google.com/search?q=G4400+passmark ), on peut voir qu'il a un score de 3500 points, il est donc capable de décoder un flux sans soucis, par contre, il ne sera pas capable de faire 2 flux en même temps, pour cela il aura fallu que son score soit supérieur à 4000 points ! Si vous souhaitez plus de détails : Voici les recommandations PassMark pour Plex suivant le type de transcodage : 4K HDR (50Mbps, 10-bit HEVC) file: 17000 PassMark score (being transcoded to 10Mbps 1080p) 4K SDR (40Mbps, 8-bit HEVC) file: 12000 PassMark score (being transcoded to 10Mbps 1080p) 1080p (10Mbps, H.264) file: 2000 PassMark score 720p (4Mbps, H.264) file: 1500 PassMark score Source : Plex Support Le choix de la RAM : Quelles quantités de RAM choisir ? Je répondrai a cette question : 4 Go. Ne sachant pas quoi choisir, javais moi-même choisi 8 Go pour "être sûr". Au final, pour une utilisation "classique" c'est beaucoup ! À titre d'exemple, avec une utilisation de mon NAS, principalement en serveur multimédia ( 3 à 4 transcodages simultanés, serveur web, ... ) je ne suis jamais au-dessus de 40% d'utilisation. De plus, la DDR4 ne se vend pas en barrette inférieur a 4 Go. Seules des applications bien spécifiques peuvent vous demander plus ( virtualisation par exemple ). La RAM est également un élément qui se rajoute facilement sur un serveur. Comment la choisir ? Il faut regarder ce que préconise le fabricant du processeur et le fabricant de la carte-mère. Nous allons prendre comme exemple, la carte-mère AsRock Z370M Pro4 et le CPU I5-8600k. Voici les recommandations pour le processeur : Et celle pour la carte-mère On trouve toujours ces informations dans les caractéristiques détaillées des constructeurs. Le constructeur du processeur préconise de la RAM DDR4@2666Mhz. Le constructeur de la carte-mère dit, que nous pouvons utiliser de la DDR4 parmi toutes ces fréquences : "4300+(OC)* / 4266(OC) / 4133(OC) / 4000(OC) / 3866(OC) / 3800(OC) / 3733(OC) / 3600(OC) / 3200(OC) / 2933(OC) / 2800(OC) / 2666 / 2400 / 2133" du moment que la mémoire est non-ECC ( nous reviendrons sur le non-ECC plus tard ). Pour moi, un NAS c'est fait pour être le plus fiable possible, j'élimine déjà toutes RAM dites "Overclocker". Il nous reste comme choix : 2666 / 2400 / 2133, on retrouve le 2666Mhz, ce que intel préconise mais aussi deux autres fréquences. N'importe quelles barrettes ayant ces fréquences seront compatibles ! Suite a venir.... RAM ECC, CAS ? Kezako ? Le choix de l'alimentation : C'est tout comme le reste un élément important de votre configuration ! Voici un lien pratique sur le site de MSI pour estimer la consommation max de votre configuration, en fonction de votre CPU, ... => MSI Power Supply Calculator BeQuiet le propose également ICI. Pour la suite je vais faire mon exemple avec le simulateur d'MSI. Le simulateur ( de MSI ) calcule large* mais permet d'avoir une bonne idée de ce que va consommer au maximum notre NAS maison. * Par exemple, le simulateur estime la conso max d'un DD à 25W, les Disques Durs spécials NAS ne dépassent jamais 15W et la plupart sont à moins de 10W. Comme pour le reste, je vais faire une estimation en me basant sur ma config personnelle, soit i5-8600K, 7 HDD, 1 carte PCIe, 3 ventilateurs. Le simulateur d'MSI m'estime 297 Watts max ( le simulateur de BeQuiet estime 223 Watts ). Il me faudra donc au minimum une alim de 300W. Dites-vous bien que ceci est une consommation maximale cela ne représente pas la consommation réel de votre NAS. et les certifications ? Ça sert a quoi ? La certification 80 PLUS sert à promouvoir le rendement de l'alimentation. Plus le grade est élevé ( Bronze, Silver, ... ), plus l'alimentation à un bon rendement ! Pour avoir une alimentation avec un bon rendement, il n'y a pas de secret, il faut de bons composants à l'intérieur ! C'est donc un gage de qualité de l'alimentation. Voici ce que nous dit la norme 80 PLUS : Wikipédia Par exemple une alim 80 PLUS Bronze a 20% de charge doit avoir au minimum 81% de rendement pour être certifié. Une 80 PLUS Titanium elle devrait avoir 94% de rendement ! Note : Choisir une alim de 1000W alors que son PC ne consomme que 200W n'est pas un problème en soi ( le coup de l'alim est juste plus élevé ), par contre pour le bien de votre alimentation, faite en sorte que votre alim ne tourne pas en dessous de 20% de charge. En dessous d'une certaine charge, certaines alims ont du mal a stabiliser leurs tensions ( d'ailleurs on peut voir que a 10% de charges, seules les "Titanium", soit les plus hauts de gamme, sont testées. ). Les différents format : ATX, SFX, .... Dans les alimentations, on trouve différents formats ATX, ITX, Mini-ITX , FlexATX ... Le choix du format d'alimentation se fait un fonction du boiter ! Par exemple, si le boitier "Antec DF500" m’intéresse. Dans les caractéristiques du boitier je voit tout de suite, qu'il me faut un alimentation ATX : Si c'est le boitier Antec ISK 310-150 qui m'interesse, alors je voit dans les caractéristiques qu'il me faut une alimentation Mini-ITX et que le boitier est déja fournis avec une alimentation de ce format et d'une puissance de 150W : Les alimentations les plus courante sont les ATX, ce sont les plus encombrante, mais également les moins chère au niveau prix/puissance. Vous avez dit, Modulaire ? A venir Le choix de l'onduleur : Il existe sur le marché 3 types d'onduleur ( UPS / Uninterruptible power supply ou en français Alimentation Sans Interruption ). Cet appareil va servir de relais en cas de coupure de courant, mais pas seulement ! Il va aussi protéger vos appareils contre les sur/sous tensions, les parasites, la foudre, ... C'est un élément indispensable pour être tranquille ! Et encore plus en cas de RAID, en cas de coupure brusque de courant, c'est tout le RAID qui peut être corrompu et même s'il est très rare de perdre ses données à cause de cela, cela engendre une reconstruction longue et éprouvante pour les disques dur ! Les trois type d'onduleur sont : Off-line / Line-Interactive / Online Le Off-Line est le moins performant, c'est un modèle à bannir ! D'un temps de réponse très long, il ne sera pas protégé efficacement votre installation. Garder votre argent. Le Line-Interactive est une amélioration du Off-Line, avec son régulateur de tension, il est capable de compenser les variations de tension, et aussi de réagir très vite ( 2ms, voier moins ). Le On-Line est la "Roll-Royce" des onduleurs, sur ce type d'onduleur, le matériel est en permanence alimentée par la batterie ( qui se recharge donc en même temps si le courant n'est pas coupé ). Le temps de réponse est donc de 0ms, et d'un courant parfait tout le temps, puisque fabriqué en permanence par l'onduleur, toutes perturbations extérieures ne viennent pas jusqu’au matériel. Source : LDLC Pour nous, le meilleur choix est le Line-Interactive, il protège efficacement tout en restant dans une gamme de prix raisonnable ( les On-Line étant réservés à un usage bien spécifique sont hors de prix ! ) Pour la puissance, tout dépend de votre configuration, un conseil, prévoyez large ! Un onduleur prévu trop juste s'use plus vite et ne permet pas de faire évoluer sa config ! Un onduleur de bonne qualité est un achat sur le long terme ! La puissance d'un onduleur est toujours donnée en VA, et en Watts. Nous allons nous intéresser aux Watts. ( attention également à vérifier qu'il possède les prises qui vous conviennent ) Exemple : Onduleur parafoudre APC Back-UPS Pro 550 C'est un onduleur de 550VA/330Watts, Line-Interactive comme le dit sa fiche technique. Notre config AsRock Z370M Pro 4 - i5-8600K, 4 x Disque Dur 8 To Red Pour une carte-mère, on estime 20W environ, le i5-8600K a un TDP de 65W, par abus de langage, nous estimerons que cela est sa consommation max*, pour un disque dur RED nous prendrons une consommation de 10W ( c'est un peu moins en réel pour les RED, par contre certains disques consomment environ 11/12W ). Donc si on résume : CM + CPU + DD = 20 + 65 + 4x 10 = 125W, sachant de l'alimentation va un peu consommer, les ventilo du boitier également mais tout cela est négligeable ! Notre onduleur de 330W est donc largement capable ! Note : Si vous souhaitez également brancher votre BOX, ... dessus, n'oublier pas de le prendre un compte ! Il faut compter environ 15W pour une LiveBox, Freebox, ... ( Voir ici ). Les disques durs, sont'ils tous identiques ? Alors non, les disques dur ne sont pas tous identiques ! Dans les grandes lignes, il y a deux tailles : 3"5 et 2"5 et 2 vitesses 5400 ( ou 5900 ) et 7200. Les tailles 2"5 sont souvent utilisé au pc portable, dans un pc "fixe" ou un serveur on utilise des 3"5 qui ont un prix au To bien meilleur ! Dans les vitesses, les disques tournant plus vite ( 7200rpm ) sont les plus performant, les 5400rpm étant ( toujours en règle général ) moins performant, mais aussi moins bruyant. Et les disque dit NAS alors ? Western Digital ( WD ), et Seagate font des disques spécial NAS ( WD Red et Seagate IronWolf ). Chez WD : Leur gamme NAS s’appelle RED, il y a les RED et les RED Pro. Les RED sont des disques 5400rpm. Garantie 3 ans Les RED Pro sont des disques 7200rpm. Garantie 5 ans Chez Seagate : ..... A VENIR Mais alors je ne peut pas mettre un disque "normal" ? Si bien sur, aucun soucis, mais bien que je n'est pas d'expérience personnel sur l'utilisation de disque classique dans un NAS, vous risquez de voir vos disques mourir plus vite qu'un disque NAS. Les disques de PC n'étant pas conçu pour travailler H24. Les cartes d'extension PCIe : Les cartes PCIe sont un moyen simple est rapide d'ajouter des ports SATA sur un ordinateur ! Les cartes "classiques" possèdent 2 ou 4 ports SATA ! Les performances sont-elles identiques ? Avant de parler des performances des cartes d'extension, nous allons parler des performances max. d'un port SATA directement connecté à la carte-mère ! Source : Wikipédia À l'heure actuelle, toutes les nouvelles cartes-mères sont équipés de ports SATA 3 ou SATA 6Gbit/s ou encore SATA 600, a chaque fois cela désigne la même chose. La vitesse max théorique est de 6 Gbit/s soit 768 Mo/s max. Idem pour les cartes d'extension, elles se doivent d'être équipé de ports SATA 3. Maintenant, revenons à nos moutons ! Comment connaitre le débit max de sa carte d'extension ? Pour cela, nous allons nous aider de ce tableau : Source : Wikipédia Exemple 1 : Et comme exemple, nous allons vouloir connaitre le débit max possible avec cette carte d'extension, vendu 41€ chez LDLC. 2 choses à connaitre, la version du Bus utilisé et la largeur de celui-ci. Dans l'exemple ci-dessus on peut lire : "Conforme aux bus PCI Express 2.0 5GBPS" et "PCI Express 1x". Si on regarde le tableau, qu'on regarde a la colonne PCIe 2.0, le débit par ligne est de 500 Mo/s. Notre carte ne possédant qu'une seule ligne ( PCI Express 1x ), donc la vitesse de la carte ne pourra pas dépasser 500 Mo/s. ( et ceux pour les deux ports SATA présent ! ). Les deux ports SATA devront se partager 500Mo/s ( et non 500 Mo/s pour chaque port ! ). Exemple 2 : Ici une autre carte vendue un peu plus cher ( 50€ ), toujours sur LDLC et qui possède également 2 ports SATA. On peut lire : PCI Express 2.0 2x, c'est donc du PCIe 2.0, avec une largeur de bus de 2 lignes ( 2x ). Si on regarde la colonne PCIe 2.x, on peut voir un débit par ligne de 500 Mo/s. Notre carte possédant 2 lignes, alors le débit théorique sera de 2x 500Mo/s soit 1000 Mo/s ! Par rapport a l’exemple précédent, les 2 ports SATA n'auront pas a se partager 500 Mo/s mais le double, soit 1000 Mo/s. Un gain non négligeable pour quelques euros de plus. Conclusion : Pour une utilisation "classique", sachant qu'un disque dur pour NAS a un débit de lecture d'environ 150Mo/s, la 1ère carte est largement suffisante ! Même avec 2 disques ( 2x 150Mo/s => 300Mo/s ), la carte ne saturera pas. Là ou le choix d'une carte plus performante peut être intéressant, c'est en cas de RAID, ou dans le choix de SSD, où dans ce cas les vitesses de lecture et d'écriture peuvent être grandement augmentées. et ou votre carte d'extension peut être un "frein" aux performances. Je rajouterai aussi une info importante et bonne à savoir, une carte PCIe 1x ou 2x , .. peut-être utilisée dans un port PCIe 16x sans soucis, seulement la vitesse de transfert sera dépendante de la carte et non du port.. Par contre l'inverse n'est pas possible, par exemple il n'est pas possible d'utiliser une carte PCIe 8x dans un port PCIe 4x . Note : Afin de ne pas polluer le topic, merci de me signaler les fautes grammaires / orthographes / ... par MP 😘
  16. 1 point
    3615 is generally more stable on a wider variety of hardware.
  17. 1 point
    Ce que veut dire EVOTk, c'est que le label "INTEL Celeron J3455" et le nb de coeur sont codés en dur dans DSM. Le reste oui c'est récupéré du cpu. Mais tout cela est superflu c'est juste pour faire joli! Le CPU et les coeurs sont bien utilisés, tu peux le vérifier en lancant un transcodage sur Plex par exemple et en // faire un ps -ef
  18. 1 point
    Внесу свои пять капель. Связка DLNA + VideoStation работают отлично. У меня в параметрах индексации даже папки с видео нету. Нужно интегрировать базу DLNA и VideoStation. В самом VS добавить папку с фильмами. Далее на телевизоре выбрать ваш DLNA, в нем выбрать VideoStation. Там даже карточки будут с обложкой фильма и название все на русском, подтягивается все с VS. Файл добавленный в папку с фильмами, появляется в VideoStation и также в DLNA практически мгновенно не требуя никаких манипуляций.
  19. 1 point
    There's a great tutorial video on youtube. Install 3515 instead of 3617 though. Also download the xpenology tool from this website. It really helps.
  20. 1 point
    In addition to bricked boxes due to inattentive upgrades, there seems to be a surge of questions regarding how to select a DSM platform, version and loader. This table should help navigate the options and current state of the loaders. While situations rapidly change, it should be correct as of the listed date. 6.x Loaders and Platforms as of 12/Jan/2019 Loader DSM Platform DSM Version Kernel DSM /dev/dri DSM NVMe cache Boot method CPU Needed Notes 1.04b DS918 6.2 to 6.2.1 4.4.x Supported Supported EFI or Legacy BIOS Haswell or later recommended 1.03b DS3615 6.2 to 6.2.1 3.10.x Not Supported Not Supported Legacy BIOS only Nehalem or later 6.2.1 requires Intel NIC 1.03b DS3617 6.2 only 3.10.x Not Supported Not Supported Legacy BIOS only Nehalem or later 6.2.1 crashes on USB kernel drivers 1.02b DS916 6.0.3 to 6.1.7 3.10.x Supported Not Supported EFI or Legacy BIOS (Jun) MBR (Genesys) Nehalem or later 1.02b DS3615 6.0.3 to 6.1.7 3.10.x Not Supported Not Supported EFI or Legacy BIOS (Jun) MBR (Genesys) Nehalem or later recommended 1.02b DS3617 6.0.3 to 6.1.6 3.10.x Not Supported Not Supported EFI or Legacy BIOS (Jun) MBR (Genesys) Nehalem or later 6.1.7 crashes under ESXi for unknown reason 1.01 DS916 or DS3615 or DS3617 6.0 to 6.0.2 3.10.x Not Supported Not Supported EFI or Legacy BIOS (Jun) MBR (Genesys) Nehalem or later obsolete
  21. 1 point
    Ответ на вопрос я писал не так давно в этой теме
  22. 1 point
    OVAs for DSM 6.2.1-23824 Update 4 • DS918+ (requires Haswell/Braswell or newer CPU) • VM HW Level 10 (ESXi 5.5 or newer) • PVSCSI • VMXNET3 https://mega.nz/#!slFUCIwT!QHzujgbJeGtMKE5W2pvg8UoK7T6TputqQwFZHuNhxmY • DS3617XS (requires hardware that's supported by default DSM) • VM HW Level 10 (ESXi 5.5 or newer) • SATA • E1000E https://mega.nz/#!5wlSQCLK!WHVVNloohedGa_nAB6pgPMvC-twWlR32arZ0JqaFMvM VMware Tools: https://mega.nz/#!Q1FGyAbY!lmrry2WXNd7Lp7AtSsrduPpnlWPzEpPV9L96jrZn6HQ Deploy OVF, add disk(s) or passthrough a controller, find with Synology Assist and click install. Optionally if you've got an ESXi enterprise license you can change the serial port to network, server telnet://:1024 and have remote telnet access. If you want to passthrough a Intel Controller that doesn't contain ESXi boot or a datastore install this VIB and restart: https://mega.nz/#!p0dAhYYb!7AWamOXE6y0z-PBlW4VqtS1gYNuw-uG-dKYTuyI5tQM By default it will work with any combination of one or two 2, 4, 6 and 8 port SATA/SAS controllers. Only when using two 8+ port SAS controllers or one 12+ port SAS/SATA, or more than two extra (so more than three if you count the SATA controller for synoboot) controller changes to SasIdxMap/SataPortMap/DiskIdxMap/MaxDisks are required.
  23. 1 point
    There is a better way^^ Just activate it: In your browser open the following urls one after another: Replace the following: URL, PORT, USER, PASS, SERIALNUMBER (dont replace any other symbols like : oder ") https://URL:PORT/webapi/auth.cgi?api=SYNO.API.Auth&method=Login&version=1&account=USER&passwd=PASS https://URL:PORT/webapi/entry.cgi?api=SYNO.ActiveBackup.Activation&method=set&version=1&activated=true&serial_number="SERIALNUMBER" To get the current activation status call the 1. query above and then https://URL:PORT/webapi/entry.cgi?api=SYNO.ActiveBackup.Activation&method=get&version=1 ------------------------------ Example for url: server, port: 5001, user: admin, pass: admin, serialnumber: 123400 https://server:5001/webapi/auth.cgi?api=SYNO.API.Auth&method=Login&version=1&account=admin&passwd=admin https://server:5001/webapi/entry.cgi?api=SYNO.ActiveBackup.Activation&method=set&version=1&activated=true&serial_number="123400"
  24. 1 point
    Hello, I use a LSI SAS 9207-8i , with 8x 6gb sata ports, on a PCIE 8x 3.0 and it works well baremetal with loader 1.04b, no drivers added. you can find it on ebay for around 60$. bye.
  25. 1 point
    kernel modules/drivers are specifically compiled for a kernel (-versions) and even distributions it's not like windows where you can download a driver somewhere and just put it in so don't take any *.ko file, stick it in and expect it to work if you haven't build the *.ko yourself or don't know exactly where it came from, expect it to fail I'm no expert but as there is no how-to here in the forum - lets start one hopefully other will correct and help refine or take over and rewrite it some steps are made in windows (osfmount) but will also possible in the chroot environment on linux basic knowledge about using a linux console and command-line tools (or midnight commander) is needed, if you never used this you should not start with this how-to, choose something easier or invite someone who is able to help (do a workshop) doing all this from scratch will take at least 1-2 hours, in most cases (re-read, google, try, google, try again, ...) much longer, maybe plan a weekend of text-adventure fun edit: i think it also will do for 6.0.2 and loader 1.01 (not tested), kernel sources are available: https://sourceforge.net/projects/dsgpl/files/Synology%20NAS%20GPL%20Source/8451branch/bromolow-source/linux-3.10.x.txz/download, extra.lzma is a little differently placed (boot.img\image\DS3615xs\) but the steps will be the same 1. building the kernel module (driver) 1.1 what driver/module i need you will have to find out (google) what the name of the driver/module is that your hardware needs or you will have to know where to find the rigt option in the menu-system of the kernel when configuring it example: nForce 630 chipset with RTL8211E, you might expect it to be a realtek driver like rtl*.ko but it's not its "forcedeth.ko" because the RTL8211 is not a fully working PCIe Network Chip in some cases you might be forced to find out by booting a linux distribution and look in /var/log/, use lspci or other tools it also helps if the hardware provider has already compiled packages for specific distributions like redhat, you can look inside these packages for *.ko files you also can look in the .config file of the kernel (more below) with a text editor to find a section where the module is mentioned, this will also give you a hint where to find it in the menu-system when configuring the kernel 1.2 you need the kernel source in the case of synology that seemed sometimes difficult but at the moment there is kernel source for dsm 6.1 https://sourceforge.net/projects/dsgpl/files/Synology%20NAS%20GPL%20Source/ 15047 is the synology build version and tells you about what dsm version it is (15057 = dsm 6.1) and what kernel was used to build the modules, it !!!might!!! change in a later version so always check for what version your bootloader from usb stick is made for (jun 1.02 is for 15047) edit: dsm 6.1.1 has a new build number 15101 but seems to use the same kernel 3.10.102 as 6.1 so it should work with 6.1.1 too as i write this for ds3615xs it's bromolow as a platform, for ds3617xs it's broadwell and ds916+ is braswell (you usually see that name on the update files for a synology system like "synology_broadwell_3617xs.pat") so for ds3615xs we use this: https://sourceforge.net/projects/dsgpl/files/Synology%20NAS%20GPL%20Source/15047branch/bromolow-source/linux-3.10.x.txz/download edit: it looks like as for building the modules there is no difference for kernels modules build for 3615 and 3617 even if https://sourceforge.net/projects/dsgpl/files/Synology%20NAS%20GPL%20Source/15047branch/ has extra kernel sources for bromolow and broadwell, there are all intel x86_64, same might go for the 916+ (not testet yet), at least a evdev.ko build from 3615 kernel source did load without problems in a vm with the 3617 image 1.3 setting up a DSM 6.1 ds3615xs test environment with virtualbox (its free) or whatever works with juns loader look in the forum to find something that works, basics for virtualbox are - mac of the nic (intel pro 1000 desktop) in vm and grub.conf need to be the same - boot controller for jun's image (vmdk with reference to img file) is ide, controller for dsm disks is scsi lsi (!!!) - choose esx server option in grub menu 1.4 installing chroot put in http://packages.synocommunity.com for custom packages and change the setting that beside synology packages trusted ones are also to install install debian-chroot plugin (https://synocommunity.com/package/debian-chroot) from community section (some info's about it: https://github.com/SynoCommunity/spksrc/wiki/Debian-Chroot#configure-services) you might also install midnight commander if you are on it, makes things easier if you're not a command-line junky and more used to a graphical environment that give you clues activate ssh in dsm connect with ssh/putty to you dsm, login with user admin (and if you want to be root use "sudo -i") start the chroot with: /var/packages/debian-chroot/scripts/start-stop-status chroot after that you are inside the chroot, check with ls and you won't see "/volume1" or other sysnology specific directory's from the dsm environment, you can leave the chroot environment with "exit" later if you want now we have to update and install tools: apt-get update apt-get upgrade apt-get install locales dpkg-reconfigure locales dpkg-reconfigure tzdata apt-get install mc make gcc build-essential kernel-wedge libncurses5 libncurses5-dev libelf-dev binutils-dev kexec-tools makedumpfile fakeroot linux-kernel-devel lzma bc after that we create a directory (lets say "test") 1.5 copying kernel files and create kernel modules copy the downloaded kernel (linux-3.10.x.txz) to a share on the dsm, open a 2nd putty and copy the linux-3.10.x.txz (/volume1/...) to /volume1/@appstore/debian-chroot/var/chroottarget/test/ (that's where the "test" directory of the chroot environment is located in your real system) change back to your first putty where you are in chroot (the same way can be used to get the created files back to your shared folder on your volume1 which can be accessed from windows) change into "test", extract the linux-3.10.x.txz to a directory named "linux-3.10.x" and change into it the following copy's the kernel config file from synology to the right place for use/build cp synoconfigs/bromolow .config we make a fallback copy make ARCH="x86_64" oldconfig we start the ascii art menu and search for the missing driver to activate cursor/return are your friend in navigating, space selects, we activate the driver to an "M" so its build as module (*.ko file we need) there will be tons of descriptions how to do it, just google if needed make ARCH="x86_64" menuconfig on exit we save the configuration and with the following we make/create the modules (will take a while) make ARCH="x86_64" modules now you have to find your *.ko file (use some nice ls options, to be expanded later) usually you will have to look in /test/linux-3.10.x/drivers/scsi or block copy that file to /test for easy access when we put it in the boot image 2. modify the "synoboot.img" use osfmount (windows) to extract the "extra.lzma" (see dsm 5.2 to 6.0 guide, used there to edit grub.cfg in synoboot.img) in "extra.lzma" are the additional *.ko files and a config file where the files to be loaded on boot are named -> see forum thread "dsm 5.2 to 6.0" with howto to modify jun's loader for usb vid/pid and mac, its basically the same you just open the other partition (30MB) and extract the "extra.lzma" copy the "extra.lzma" to the share of the dsm so we have local access in a putty session on dsm in putty session #2 ("normal" session without chroot) we copy the "extra.lzma" to the "test" directory in the chroot environment go to putty session#1 (in chroot) decompress "extra.lzma" to "extra" ("extra.lzma" is a compressed cpio file) with: lzma -d extra.lzma with ls we can check that "extra.lzma" is now just ""extra" (a cpio file without the extension cpio) create a new directory, copy the "extra" there, change into it and extract it with: cpio -idv < extra delete the remaining file "extra" inside this directory we copy the *.ko file into usr/lib/modules/ and in /etc we edit the file rc.modules (easy with midnight commander, go to file, press F4, internal editor) network drivers seems to be added under EXTRA_MODULES, storage drivers under DISK_MODULES, just go to the end of the line and fill in the name of the *.ko file without the ".ko", what you add is basically a blank and the name rc.modules looks like this: EXTRA_MODULES="mii mdio libphy atl1 atl1e atl1c alx uio ipg jme skge sky2 ptp_pch pch_gbe qla3xxx qlcnic qlge netxen_nic sfc e1000 pcnet32 vmxnet3 bnx2 libcrc32c bnx2x cnic e1000e igb ixgbe r8101 r8168 r8169 tg3 usbnet ax88179_178a button evdev ohci-hcd" DISK_MODULES="BusLogic vmw_pvscsi megaraid_mm megaraid_mbox megaraid scsi_transport_spi mptbase mptscsih mptspi mptsas mptctl ata_piix megaraid_sas mpt2sas mpt3sas" EXTRA_FIRMWARES="bnx2/bnx2-rv2p-09ax-6.0.17.fw bnx2/bnx2-rv2p-09-6.0.17.fw bnx2/bnx2-rv2p-06-6.0.15.fw tigon/tg3_tso5.bin tigon/tg3_tso.bin tigon/tg3.bin" if your controller or nic needs a firmware, you add the file under usr/lib/modules/firmware/ and add the appropriate line in EXTRA_FIRMWARES, if a extra directory inside "firmware" is used it has to be added to the name, see the bnx2 firmware files after everything is in place we recreate the cpio file, re-compress it as lzma and write it in the directory above as "extra.lzma" the command is used inside the directory where we extracted the file "extra" (command line taken from https://github.com/kref/scripts, its what jun uses to create it): (find . -name modprobe && find . \! -name modprobe) | cpio --owner root:root -oH newc | lzma -8 > ../extra.lzma in putty session #2 (without the chroot) we copy "extra.lzma" from the chroot position in filesystem to the location where we can access it from windows if you still have osfmount open to the "synoboot.img" replace the "extra.lzma" with the new one, dismount and close osfmount - our new "synoboot.img" is ready to test it ps: i was asked to make a video - thats much harder to change and i'm to old for this
  26. 0 points
    Currently using the DS918+ loader (was previously using the DS3615xs on my i3 baremetal) and so far it's a mixed bag. Windows 10 1809 installs fine, whereas Ubuntu and Xubuntu boot but won't install. I can see and format the disks without a problem, but as soon as I get to the disk selection step of the installer, the setup window goes into an infinite loading screen. It doesn't matter if I switch the disk mode from VirtIO to SATA or IDE the result is the same. CentOS has it the worst, using the minimal installation ISO I get a kernel panic and there is no way around it that I was able to see. The official compatibility list is quite out of date, I did try a certified build of CentOS but get the same problem. VMM might be putting some incompatible instruction in the Qemu VM config or maybe it's just really broken (which I find hard to believe). I'm lead to believe that this is the case as in my previous post I mentioned that enabling CPU compatibility mode with VMM Pro resolved the issue whilst on my DS3615xs loader (in which VMM was even more broken than it is on the loader I'm currently using )