Jump to content
XPEnology Community

vemey

Member
  • Posts

    31
  • Joined

  • Last visited

vemey's Achievements

Junior Member

Junior Member (2/7)

0

Reputation

  1. vemey

    DSM 6.1.x Loader

    First of all, a big thank you to the devs !!!! I can confirm, that the ovf deployment isn't possible, because of that i/o error. I have no idea why, but after some fiddling around i managed to run it on esxi 6.0 u2 Build 4192238. I used VMware Fusion PRO 8.5.1 to accomplish it. Just open the .vmx file with Fusion and you have to change at least the HW Version from 12 to 11. You should keep VMDK Bus type of SATA, otherwise the disk will show up later as a data disk in Synology. After setting this up you can then let Fusion Pro move it to your ESXI server or you might generate a new OVF template (not testet) From there on you can boot up and proceed like you would do with a regular Synology. What i have tested so far - Setting up an raid5 on a lsi2008 controller via pci-passthrough - works like a charm, temperature, smart status is ok - changing MTU beyond 3000 let the vm instantly reboot - for my tests i used a VMXNET 3 type NIC - so i can confirm the problem jun mentioned in his post. - docker is working (I'am not sure if you have to set up the hypervisor flag or not, at least i did it for my test. - i even installed the open-vmware-tools.spk from my previous 5.2 build. One thing i'am not sure about is the BS type of Debian 8. ESXI is reporting that there is a mismatch between the running 3.10.77 kernel and the debian8 bs type. So i might change it and see if this change anything. Maybe someone with more advanced skills can elaborate on this, thanks in advance. But for now, i'am a happy camper, thanks again to the community that made it happened !
  2. @andale - das wäre eine gute Nachricht, nur um sicher zu gehen - wir reden über das hier, ja ? https://ssl.kundenserver.de/cloud.za-josch.de/index.php/s/fWijbzZOv7IRbdD Sind die SSDs bei dir über den LSI oder einen onboard SATA angeschlossen ?
  3. Hi, to me it looks more as an issue with XPE than a Synology Problem with DSM 5.2 and ESXI 6.0. As you can see the NFS connection with my DS415+ (DSM 5.2-5592) is using hardware acc. vs my DS3615 (XPE on DSM 5.2-5565 Update 2) is not. - esxcli software vib list | grep -i syno esx-nfsplugin 1.0-1 Synology VMwareAccepted 2015-06-21 - esxcli storage nfs list Volume Name Host Share Accessible Mounted Read-Only isPE Hardware Acceleration ----------- ------------- ------------ ---------- ------- --------- ----- --------------------- ISO DS415 192.168.42.54 /volume1/iso true true true false Supported VM DS415 192.168.42.54 /volume2/vm true true false false Supported VM DS3615 192.168.42.52 /volume2/vm true true false false Not Supported
  4. Hi, to me it looks more as an issue with XPE than a Synology Problem with DSM 5.2 and ESXI 6.0. As you can see the NFS connection with my DS415+ (DSM 5.2-5592) is using hardware acc. vs my DS3615 (XPE on DSM 5.2-5565 Update 2) is not. - esxcli software vib list | grep -i syno esx-nfsplugin 1.0-1 Synology VMwareAccepted 2015-06-21 - esxcli storage nfs list Volume Name Host Share Accessible Mounted Read-Only isPE Hardware Acceleration ----------- ------------- ------------ ---------- ------- --------- ----- --------------------- ISO DS415 192.168.42.54 /volume1/iso true true true false Supported VM DS415 192.168.42.54 /volume2/vm true true false false Supported VM DS3615 192.168.42.52 /volume2/vm true true false false Not Supported
  5. actually, that is excactly what i meant when i wrote "Also i would recommend setting your update params to "only important updates" and no automatic update schedule."
  6. Hi, SMB3 Multichannel is definitely NOT supported by Synology at the moment. I got that confirmed from Synology support. Also they are not sure, when it will be implemented. Because all non-MS SMB implementations are based on Samba, this will be possible as soon as Samba releases this feature in their stable branch. I've seen a dev branch, where they implemented this, but i'm not sure when/if it will hit the stable branch...
  7. @andale - stimme ich bis auf den letzten Punkt überein. Nach meinen Tests funktioniert SSD caching und HA unter XPE nicht ! Sollte sich das geändert haben, wäre dies natürlich super, dann wäre ich an der genauen Konfiguration sehr interessiert. Auf einer originalen Synology ist dies ein echtes Killerfeature, gerade wenn man die NAS dazu verwendet, virtuelle Maschinen via NFS bereitzustellen !
  8. Hi to all above, as far as i'am aware off, updating to a new release number 5.2-XXXX always needs a new boot image. Only updates with the same release number are working with the same boot-image. So please be patient - this is my personal advice. Also i would recommend setting your update params to "only important updates" and no automatic update schedule. This will probably cut the postings on this forum to half
  9. Gute Ergänzung! Hast du das schon selber 'ausgetestet' ? Wenn ich mir das Ganze auf dem Raidkonfigurator von Synology anschaue, kann ich kleinere Größen zu einer vorhandenen Platte hinzufügen. https://www.synology.com/de-de/support/RAID_calculator Praxis schlägt aber Theorie
  10. File-based LUNs can be thick-provisioned if you prefer it and are also hardware accelerated. Also you can use NFS Shares which gives you an IO-Advantage over iSCSI. so, just of curiosity - what kind of "applications" are in need of blocked based LUNs ?
  11. @xpenx versuche doch bitte einmal deine bestehende xpenology Partition in Openmediavault einzuhängen. Installiere dazu mov auf einen NEUEN virtuellen Platte und aktiviere unter Erweiterungen(engl. Plugins) das openmediavault-lvm2 plugin. Wenn das abgeschlossen ist, kannst du deine bestehende xpe-Partition einhängen und solltest auf alle Daten zugreifen, sprich auch freigeben können. Nach dem kopieren kannst du dann die xpe-hdd neu formatieren und wenn gewünscht omv nutzen ... In die Begrifflichkeit von SHR hatte ich mich bis zu deiner super Zusammenfassung in deinem letzten Posting noch nie eingearbeitet. So wie es sich mir darstellt, benutzt Synology den Begriff RAID etwas weitgreifend. Sinn und Zweck von SHR ist es, ein Filesystem erweiterbar und zugleich redundant bereitzustellen. Dies fängt bei 1 HDD an, welche noch keinen Datenschutz bietet, aber durch SHR-Managementsystem flexibel erweiterbar ist, sobald weitere Platten (unterschiedlicher) Größe hinzugefügt werden. Kurz gesagt - beginnend mit 1 HDD kann das SHR genutzt werden, Datenschutz erreicht es aber erst mit weiteren HDDs. Das ist die Stärke, bzw. der Komfort von SHR. Mit freundlichen Grüßen
  12. @snoopy78 OMV ist bei mir auch in den Fokus gerückt, soweit ich es zZ überblicken kann, geht dort alles was du angesprochen hast. Generell kann man sagen, das mit OMV die Chance, etwas anzupassen, wesentlich höher ausfällt, da es direkt auf Debian aufsetzt. Es handelt sich streng genommen auch nur um ein Packet, welches installiert wird und eine konsistente Oberfläche für die NAS-Funktionen bereitstellt. @alle Zur Frage xpenology - synology - omv gibt es wohl keine allgemeingültig Antwort, da es stark von dem jeweils vorhandenem Knowhow und Einsatzgebiet abhängt. Wenn ich mir die Entwicklung und Fragen hier im Forum über das letzte halbe Jahr anschaue, so würde ich momentan nicht mehr auf xpenology setzen, AUSSER ich bin mit dem jetzt vorhandenem Funktionsumfang zufrieden und benötige keine neuen Treiber oder Funktionen, welche nicht funktionieren (SSD-Cache, HA, Block-level ISCSI). So bleibt für den Normal-User mit Synology ein super System, welches sein Geld wert ist und einfach zu bedienen ist. Für die User mit weitergehenden Wünschen eignet sich OMV mMn sehr gut, da ich auf den Grundlage von Debian weitergehend so ziemlich alles realisieren kann, was ich mir vorstellen kann. Letzteres gilt, wenn ich bereit bin mich einzulesen und über Grundlagenwissen eines Linuxsystems verfüge. Denjenigen, die sich ihr Wunschsystem (Alle Funktionen auf einem System, Virtualisierung, auch noch stromsparend) verwirklichen wollen, würde ich eher raten, nicht zuviel Dinge zu vermischen, sondern es virtualisiert mit einem soliden Unterbau (ESXI 5.5 oder 6.0) aufzubauen. So kann ich zB die NAS Komponente ersetzen ohne den Rest verändern zu müssen (als Bsp - siehe meine Signatur). Alternativ eben doch zwei Devices betreiben ... Meiner Meinung nach sollte man nur kein NAS System als Grundlage für die Virtualisierung verwenden, schon gar nicht im beruflichen Umfeld. Das dies alle NAS-Hersteller anbieten hat wohl eher etwas damit zu tun Käufer zu beeindrucken, als wirklich einen realen Nutzen darzustellen. Abschließend sollte sich mMn jeder das System zusammenstellen, was er auch selber konfigurieren/bedienen kann, ansonsten bleibt nur der Kauf eines kommerziellen Systems...
  13. Du benötigst zum Booten von XPenology (xpe) ein Bootmedium, sei es einen kleinen Usb-Stick oder eine crdom. Momentan aktuell ist xpenoboot, dafür hießen sie nanoboot, oder gnoboot. Erhältlich (Incl. Tutorial ) auf www.xpenology.nl. Das "OS" wird auf einen reservierten Bereich der Datenträger geschrieben, der freibleibende Teil kann als Datenpartitionen genutzt werden. Wie du deine Platten zu Datenpartitionen zusammenfasst kannst du selber bestimmen, dh die 80 GB in deinem Fall als extra Volume einrichten. Pakete werden defaultmäßig immer auf Volume 1 installiert, den Defaultort kann man aber auch ändern. Genauso können Pakete nachträglich auf andere Volumes verschoben werden. Generell würde ich die 80GB gar nicht für wichtige Daten verwenden, schon gar nicht ohne Redundanz! Anbei mal ein Artikel zu SHR, da wird vielleicht klarer, was dies überhaupt ist... https://www.synology.com/de-de/knowledg ... orials/492
  14. Moin, der M1015 wird im sog. Passthrough oder iT-Modus betrieben, nicht im Raid-Modus. Einen guter Artikel über die Hintergründe findest du hier http://gurunest.com/2013/03/ibm-m1015-f ... si-9211-8i. Das Powermanagement der Festplatten würdest du dann direkt in der XPE managen, da der Controller via PCI-Passthrough direkt vom XPE verwaltet wird. Zur Installation Wie in der Anleitung beschrieben, wird von der XPEnoboot_DS3615xs_5.1-5022.vmdk gebootet. Die zweite vmdk mit ca 8-16GB wird benötigt um das XPE-OS zu installieren - dies können aber auch direkt deine HDDs sein. Der Vorteil dieser zweiten VMDK ist jedoch, das du xpe ohne den Hardwarecontroller und HHD installieren kannst und erst nachträglich hinzufügst. Auch können die Platten später einfacher neukonfigiert werden, da sich das OS nicht auf ihnen befindet. Erwähnenswert wäre noch, das du die XPEnoboot.vmdk entweder als non-persistent deklarierst, oder in der syslinux.cfg den Parameter rmmod=ata_piix bei ALLEN Booteinträgen hinzufügst. Ansonsten wird bei der Erstinstallation auch das xpe-bootimage mit formatiert und du kannst von vorne anfangen... Generelle Überlegungen zum Stromverbrauch und zur Nutzung Ich habe hier im Forum einige unterschiedliche Ansätze und Anforderungen gelesen, die mit der xpe abgedeckt werden sollen. Kurz gesagt, ich würde nicht die Quadratur des Kreises versuchen, sondern ein Optimum aus Verfügbarkeit, Ausfallsicherheit und Stromverbrauch anstreben, wobei sich diese Punkte teilweise ausschließen. Wenn es mir primär um Stromverbrauch gehen würde, würde ich die xpe so betreiben, wie es graydeath hier im Forum beschrieben hat, also als einzelne Box. Benötige ich die xpe für mein virtualisiertes Homelab (mein Anwendungsfall), so soll das Ganze zumindest zeitweise 24/7 laufen und der Stromverbrauch ist nachrangig. Von daher ist es sicherlich sinnvoll, sich stromsparende Komponenten zu bezahlbaren Preisen auszuwählen, aber ob ich dafür die Platten ständig hoch und runterfahren würde, wäre mMn zu überdenken. Ich habe jetzt mal meine Konfiguration nachgemessen und komme mit allen gestarteten VMs auf 70 Watt im Betrieb. Meine DS415+ mit 2HDDs+2SSD verbraucht so um die 40 Watt. Insofern relativiert sich der Stromverbrauch aus meiner Sicht...
  15. Moin Matumbo, deine Anforderungen sind vergleichbar mit meinem Setup in der Signatur. Von daher beschreibe und ergänze ich mal aus meiner Erfahrung. Grundsätzlich würde ich immer bewährte Komponenten einsetzen, also eher eine M1015 (cross-flashed) als die Digitus Lösung. Kostet unwesentlich mehr ist aber OOB in ESXi oder Xpenology (xpe) einsetzbar. Zur Digitus kann ich nichts sagen, vermute aber mal, dass es zZ keine Treiber in xpe gibt, so dass du sie selber kompilieren müsstest. Als AD/DHCP/DNS-Alternative für den W2K12 kann ich UCS von Univention sehr empfehlen, für den Privatnutzer gibt es 50 User kostenfrei. Kann als fertiges OVA image deployed werden und bietet durch den eigenen App-Store noch viel mehr. Über die Performance der virtuellen Switches würde ich mir keine Sorgen machen, hier stellen eher deine Festplatten das Limit dar... Je nachdem für was du die xpe-vm einsetzen willst, würde ich eher ein RAID10 als Raid5 erstellen. In meinem Fall laufen alle VMs, welche ich direkt nach dem Booten verfügbar haben möchte (utm, ucs und xpe) auf der SSD, die Test-VMs werden per NFS oder iSCSi durch die xpe bereitgestellt. Dies erfordert nach einem ESXi Neustart zwar einen manuellen Rescan der iSCSI-Device der ESXI, die Performance ist aber sehr gut und bei sequentiellen Zugriffen schneller als die iSCSI-Anbindung meiner DS415+ via LAN. Bei Fragen melde dich gerne ... edit ... "VM5 XPenology aktuelle Version 4GB Ram 2 CPUs 2x PCle Passthrough und 1x USB Stick Passthrough für das OS" Für die xpe-Vm benötigst du nur 2GB RAM und keinen USB Stick, da die boot-partition als vmdk vorliegt. Anleitung und Images für die Installation siehe xpenology.nl.
×
×
  • Create New...