Jump to content
XPEnology Community

Hunterok

Member
  • Posts

    25
  • Joined

  • Last visited

Posts posted by Hunterok

  1. - Outcome of the update: SUCCESSFUL 

    - DSM version prior update: 6.1.7 Update 2 with Jun's loader v1.02b

    - Loader version and model: Jun's Loader v1.03b - DS3617

    - Using custom extra.lzma: NO

    - Installation type: VM - VMware ESXi 6.7 Intel(R) Xeon(R) CPU E5-2683 v3, passthrough LSI SAS2 HBA 9207-8i, 2x HGST HUS726020ALE614 2TB

    - Additional comments: Just ran migration process from 6.1.7 3615 to 6.2 3617 and went perfect!

    • Like 2
  2. 6º i try to find.synology.com but nothing shows up! maybe the network drivers doesn't come up? ...a the third try it went well :grin:

     

    Didn't work for me too when I tried to update from 6.02 U9. So I performed a clean install and it works well!

  3. I'm using ESXi 6.5 with June's loader and LSI 9207-8i passthrough. After the stupid upgrade from DSM 6.0.2 U9 to DSM 6.1 I've got Recovery loop state. Now I need to downgrade as I need my data to get back.

     

    As for the downgrade from 6.1 to 5.2 I found a guide

     

    I reconfigured the VM and added XPEnoboot_DS3615xs_5.2-5967.1.vmdk Now I'm able to login as root with today's default Synology password "202-1701" and I can see my disks

    d4f13bdf40eft.jpg

     

    As far as I understood from the guide I need to copy the files but I can't connect via SSH. Can someone give an advice?

  4. The DSM Upgrade is going to take place on your pass-thru disks, whereas a VM snapshot does not include your array. So, how would a 'revert to snapshot' undo the Upgrade then?!

    I didn't say anything about revert to a snapshot.

  5. Happily this happens on a test VM ; so recovery is not a problem.

     

    What are you guys talking about?! Unless you're using ESXi without a pass-thru array, reverting to snapshot is not going to do any good.

    I use LSI 9207-8i passthrough

  6. After the upgrade and reboot of the system all seemed to be right for a day or two.

    But then, when a new reboot was done I came across the same error : the DSM still starts but needs a recover and loops indefinitely on that step...

    The same for me just after upgrade. What could be done?

  7. Попробуйте в настройках виртуальной машины поставить "Reserve all guest memory" - у меня была похожая проблема, мне помогло. У нас на сервере развернут еще VMware Horizon + Instant Clones, так вот памяти на сервере не очень много, только 64 Гб и в пиках Balooned Memory значительно подрастал. При таких обстоятельствах, гипервизор начинал отбирать память у тех виртуалок, у которых показатель активной памяти небольшой. На деле получалось так, что ты мог зайти в свой виртуальный десктоп, у которого 6 Гб оперативки, затем какое-то время не работать в нем, вернувшись, обнаруживаешь, что при отсутствии запущенных программ, свободной памяти может быть 200 мб и только как-то пытаясь активно работать она начинает освобождаться. Собственно, тут помогает резервирование ресурсов, но нужно грамотно пользоваться этими настройками. Я уже по поведению Instant Clones допер почему может тормозить DSM на виртуалке. В любом случае, я решил докупить RAID контроллер LSI 9207i8 за $80 на eBay и пробросить его в виртулку - это на порядок увеличит производительность и даст SMART данные по дискам. Проброс контроллера, кстати, подразумевает обязательное резервирование всей оперативной памяти. Так что в любом случае проблема была бы решена)

  8. Installed DSM 6 with June's loader on ESXi 6.5 with 2x2TB Enterprise Class pRDM disks using RAID 1 btrfs. 2 vCPU Xeon E5-2683 v3 2Ghz and 2 GB RAM for the DSM VM. It worked well some time but after a week and 300 GB written information + installed 8-10 apps it started lagging hard. About 1-2 MB/sec copying using SMB or just from one folder to another using web interface. 100% partitition utilization and about 80-100% disk utilization. Random CPU spikes. The first thought I had - it is because of pRDM. Now I'm waiting for LSI 9207 8i HBA which I'm going to pass-through to DSM VM using VT-d. Even if pRDM is not the reason of lags I will have additional IOPS as I have another one LSI 9207 which is passed-through to FreeNAS VM for All-Flash ZFS Datastore and it works very well.

     

    Does sombody has any thoughts about this situation? Maybe someone can suggest something? I will be grateful for any advice.

  9. Безусловно WmWare менее надежна чем чистое железо. Тем более в моем варианте с пробросом железа в виртуалку.

    Но удобство создание и доступ к виртуалкам через web в 6 версии компенсирует ненадежность.

    Сохранять и восстанавливать виртуалки проще чем реальное железо.

    При любых аппаратных или программных сбоях я смогу восстановить данные хотя бы с одного диска отформатированного под NTFS.

    Естественно особо критичные данные резервируются на внешний USB диск.

    А вот в случае с Xpenology, я не уверен на 100%. Программы для восстановления с файловой ситемой NTFS работают лучше, чем с EXT4.

    При переходе и обновлении Xpenology есть шанс все похерить

    Если не обновляться есть шанс что взломают (у меня прямой IP).

    Как люди собираются восстанавливать btrfs мне вообще непонятно.

    Как бы VMware - лидер на рынке серверной виртуализации и так рассуждать надежности не очень корректно. Если говорить о сохранности данных, то, я думаю, тут дело вообще не в гипервизоре, а в архитектуре и способах хранения/бекапа данных. Задумайтесь почему нормальные СХД стоят так дорого. Что касается надежности файловой системы, то btrfs с заявленными фичами уж явно получше будет NTFS, т.к. btrfs - это по сути аналог ZFS, хотя последняя мне больше нравится за счет ARC/l2ARC. Но как на практике работает btrfs говорить сложно. Лично я пока больше доверяю ZFS. Но говорить, что FreeNAS это надежная система... Багов много, хотя они и фиксятся. Для надежности лучше использовать OmniOS-->Napp-In-One

  10. нормальное железо. Глубоко я в изучение RDM-дисков не лез, но похоже что ESXi эмулирует их. Вполне может быть, что и TRIM сквозь RDM не проходит.

    По RDM есть толковая статья: http://www.vmgu.ru/news/vmware-vsphere-rdm-disks

    Для таких дисков хост-сервер ESX также создает mapping-файл, но вот iSCSI-команды процессятся к устройству LUN напрямую, минуя слой виртуализации хранилища в гипервизоре

    Как видите, ESXi в режиме pRDM ничего не эмулирует. Для гарантированной работы дисков таком режиме, диск должен соответствовать требованиям VMware (доп информация здесь https://kb.vmware.com/selfservice/micro ... Id=1017530).

     

    Не могу сказать насколько безопасен такой режим работы в production среде, но гайды говорят, что такие диски можно даже потом вставить в хардовый Synology NAS и всё будет работать.

     

    Для гарантированно нормального функционирования советую купить на Aliexpress RAID контроллер с IT прошивкой LSI 9207-8i (~120 USD) и через VT-d пробросить его в виртуалку. В таком режиме диски будут работать так же, как на голом железе.

     

    По второму вопросу нет однозначного ответа. Все зависит от степени нагруженности DSM. Сам ESXi на производительность влияет немного. Но нужно учитывать что DSM на гипервизоре обычно живет не одна. И в пике нагрузки может бодаться за ресурсы с другими виртуалками.

    В виртуальной среде потери производительности можно оценивать примерно в 10%, в зависимости от железа, софта и нагрузок. Что бы не было "боданий", нужно грамотно рулить ресурсами, например, с помощью пулов ресурсов: http://www.vmgu.ru/articles/vmware-vsph ... eservation

     

    Стоит DSM6 под ESXi 6. SSD Kingston v300 прокинута как pRDM, но видится только как HDD.

    Это мой косяк с настройками или так и должно быть?

    Какое имя диска в DSM? Как он его видит?

  11. Присоединюсь к просьбе: Поделитесь пжл quicknick boot v2.2-2.4

    Jun's mod прекрасно работает, все обновляется. Можно и его использовать.

    Подтверждаю. Установил на ESXi 6.5 c 2 дисками pDRM - пока работает отлично и нормально обновляется.

  12. I resolved it by adding a sata disk in esx, before i did choose scsi...

    Looks like now it does see the second disk but it also sees the boot disk and tries to format it too with the same error.

  13. hi

     

    i did a clean install on esxi 6.5 hp gen8

     

    after opening the vm, adding a new harddisk 100gb ssd, upon first boot, i can connect to the webinterface, i select the part file to install

    but it gives me error 35 , format disk error...

     

    i think the installer tries to format the boot disk, and not the new added disk ... :smile:

     

    how can i make sure the pat installation goes to the new disk instead of the bootdisk?

     

    thnx

    The same for me. Could someone please help?

×
×
  • Create New...