vemey

Members
  • Content Count

    31
  • Joined

  • Last visited

Community Reputation

0 Neutral

About vemey

  • Rank
    Junior Member
  1. vemey

    DSM 6.1.x Loader

    First of all, a big thank you to the devs !!!! I can confirm, that the ovf deployment isn't possible, because of that i/o error. I have no idea why, but after some fiddling around i managed to run it on esxi 6.0 u2 Build 4192238. I used VMware Fusion PRO 8.5.1 to accomplish it. Just open the .vmx file with Fusion and you have to change at least the HW Version from 12 to 11. You should keep VMDK Bus type of SATA, otherwise the disk will show up later as a data disk in Synology. After setting this up you can then let Fusion Pro move it to your ESXI server or you might generate a new O
  2. @andale - das wäre eine gute Nachricht, nur um sicher zu gehen - wir reden über das hier, ja ? https://ssl.kundenserver.de/cloud.za-josch.de/index.php/s/fWijbzZOv7IRbdD Sind die SSDs bei dir über den LSI oder einen onboard SATA angeschlossen ?
  3. Hi, to me it looks more as an issue with XPE than a Synology Problem with DSM 5.2 and ESXI 6.0. As you can see the NFS connection with my DS415+ (DSM 5.2-5592) is using hardware acc. vs my DS3615 (XPE on DSM 5.2-5565 Update 2) is not. - esxcli software vib list | grep -i syno esx-nfsplugin 1.0-1 Synology VMwareAccepted 2015-06-21 - esxcli storage nfs list Volume Name Host Share Accessible Mounted Read-Only isPE Hardware Acceleration ----------- ------------- ------------ ---------- ------- -------
  4. Hi, to me it looks more as an issue with XPE than a Synology Problem with DSM 5.2 and ESXI 6.0. As you can see the NFS connection with my DS415+ (DSM 5.2-5592) is using hardware acc. vs my DS3615 (XPE on DSM 5.2-5565 Update 2) is not. - esxcli software vib list | grep -i syno esx-nfsplugin 1.0-1 Synology VMwareAccepted 2015-06-21 - esxcli storage nfs list Volume Name Host Share Accessible Mounted Read-Only isPE Hardware Acceleration ----------- ------------- ------------ ---------- ------- -------
  5. actually, that is excactly what i meant when i wrote "Also i would recommend setting your update params to "only important updates" and no automatic update schedule."
  6. Hi, SMB3 Multichannel is definitely NOT supported by Synology at the moment. I got that confirmed from Synology support. Also they are not sure, when it will be implemented. Because all non-MS SMB implementations are based on Samba, this will be possible as soon as Samba releases this feature in their stable branch. I've seen a dev branch, where they implemented this, but i'm not sure when/if it will hit the stable branch...
  7. @andale - stimme ich bis auf den letzten Punkt überein. Nach meinen Tests funktioniert SSD caching und HA unter XPE nicht ! Sollte sich das geändert haben, wäre dies natürlich super, dann wäre ich an der genauen Konfiguration sehr interessiert. Auf einer originalen Synology ist dies ein echtes Killerfeature, gerade wenn man die NAS dazu verwendet, virtuelle Maschinen via NFS bereitzustellen !
  8. Hi to all above, as far as i'am aware off, updating to a new release number 5.2-XXXX always needs a new boot image. Only updates with the same release number are working with the same boot-image. So please be patient - this is my personal advice. Also i would recommend setting your update params to "only important updates" and no automatic update schedule. This will probably cut the postings on this forum to half
  9. Gute Ergänzung! Hast du das schon selber 'ausgetestet' ? Wenn ich mir das Ganze auf dem Raidkonfigurator von Synology anschaue, kann ich kleinere Größen zu einer vorhandenen Platte hinzufügen. https://www.synology.com/de-de/support/RAID_calculator Praxis schlägt aber Theorie
  10. File-based LUNs can be thick-provisioned if you prefer it and are also hardware accelerated. Also you can use NFS Shares which gives you an IO-Advantage over iSCSI. so, just of curiosity - what kind of "applications" are in need of blocked based LUNs ?
  11. @xpenx versuche doch bitte einmal deine bestehende xpenology Partition in Openmediavault einzuhängen. Installiere dazu mov auf einen NEUEN virtuellen Platte und aktiviere unter Erweiterungen(engl. Plugins) das openmediavault-lvm2 plugin. Wenn das abgeschlossen ist, kannst du deine bestehende xpe-Partition einhängen und solltest auf alle Daten zugreifen, sprich auch freigeben können. Nach dem kopieren kannst du dann die xpe-hdd neu formatieren und wenn gewünscht omv nutzen ... In die Begrifflichkeit von SHR hatte ich mich bis zu deiner super Zusammenfassung in deinem letzten Posting noch n
  12. @snoopy78 OMV ist bei mir auch in den Fokus gerückt, soweit ich es zZ überblicken kann, geht dort alles was du angesprochen hast. Generell kann man sagen, das mit OMV die Chance, etwas anzupassen, wesentlich höher ausfällt, da es direkt auf Debian aufsetzt. Es handelt sich streng genommen auch nur um ein Packet, welches installiert wird und eine konsistente Oberfläche für die NAS-Funktionen bereitstellt. @alle Zur Frage xpenology - synology - omv gibt es wohl keine allgemeingültig Antwort, da es stark von dem jeweils vorhandenem Knowhow und Einsatzgebiet abhängt. Wenn ich mir die E
  13. Du benötigst zum Booten von XPenology (xpe) ein Bootmedium, sei es einen kleinen Usb-Stick oder eine crdom. Momentan aktuell ist xpenoboot, dafür hießen sie nanoboot, oder gnoboot. Erhältlich (Incl. Tutorial ) auf www.xpenology.nl. Das "OS" wird auf einen reservierten Bereich der Datenträger geschrieben, der freibleibende Teil kann als Datenpartitionen genutzt werden. Wie du deine Platten zu Datenpartitionen zusammenfasst kannst du selber bestimmen, dh die 80 GB in deinem Fall als extra Volume einrichten. Pakete werden defaultmäßig immer auf Volume 1 installiert, den Defaultort kann
  14. Moin, der M1015 wird im sog. Passthrough oder iT-Modus betrieben, nicht im Raid-Modus. Einen guter Artikel über die Hintergründe findest du hier http://gurunest.com/2013/03/ibm-m1015-f ... si-9211-8i. Das Powermanagement der Festplatten würdest du dann direkt in der XPE managen, da der Controller via PCI-Passthrough direkt vom XPE verwaltet wird. Zur Installation Wie in der Anleitung beschrieben, wird von der XPEnoboot_DS3615xs_5.1-5022.vmdk gebootet. Die zweite vmdk mit ca 8-16GB wird benötigt um das XPE-OS zu installieren - dies können aber auch direkt deine HDDs sein. Der Vorte
  15. Moin Matumbo, deine Anforderungen sind vergleichbar mit meinem Setup in der Signatur. Von daher beschreibe und ergänze ich mal aus meiner Erfahrung. Grundsätzlich würde ich immer bewährte Komponenten einsetzen, also eher eine M1015 (cross-flashed) als die Digitus Lösung. Kostet unwesentlich mehr ist aber OOB in ESXi oder Xpenology (xpe) einsetzbar. Zur Digitus kann ich nichts sagen, vermute aber mal, dass es zZ keine Treiber in xpe gibt, so dass du sie selber kompilieren müsstest. Als AD/DHCP/DNS-Alternative für den W2K12 kann ich UCS von Univention sehr empfehlen, für den Privatnutz