toleeck

надёжность esxi (лирика)

Recommended Posts

(извините много букв, прошу разъяснить про виртуальные машины новичку)
я изначально использовал xpenology на голом железе в hp microserver gen8 (стоковый celeron 4+8 Гб ram). пара первых рейдов с ext4 организованных самой xpenlogy были, ssd-кэш для чтения пробовал делать. c btrfs экспериментов не проводил.
в целом всё выглядело вполне надёжно:
загрузчик на sd-карточке, с неё грузился, в случае чего, карточка менялась, на неё залилвался такой же загрузчик. сама xpenology получалась какбы размазана по всем hdd, то есть если какой-то выходил из строя, то даже установленные пакеты не переставали функционировать после устранения неполадки.
недавно был заменён процессор на xeon 1270v2. с установкой нового процессора решил расширить горизонты своих познаний и перейти на esxi. для этого у hp есть даже спец образ. его прекрасно установил на sd-карточку, с которой система загружается.
не то чтобы сразу, но всё что хотелось реализовать получилось:
крутится xpenology, рядом пара debian'ов. с rdm и прочими толстыми виртуальными дисками кое-как разобрался. в производительности hdd немного сомневаюсь, но для текущих нужд пока это не критично. usb 3.0 не работает - вот это засада, но пользуюсь им не часто, поэтому пока не обращаю внимание на это (хотя когда надо, хочется, конечно, чтобы "оно" побыстрее копировалось).

так вот вопрос:
я понимаю, общественность утверждает что esxi в отличие от proxmox больше заточена под установку на sd-карточки. но всё же, сдохнет карточка, ну не через месяц, но через полгода точно. и что меня ждёт? как-то можно снимать образы с этой карточки, чтобы в случае чего восстановить всё "как было"? тут конечно кто-то скажет, что можно нагородить рейд для esxi, но в моём случае это слишком расточительно. 

и я размышляю дальше. есть ведь virtual machine manager. который synology,  позиционируют как гипервизор. судя по всему там имеют место проблемы с динамическим распределением ресурсов оперативной памяти. но если прикинуть, так, на вскидку, если завести это дело на raid1 с btrfs на текущем железе (3,5 ггц 4 ядра, 8 потоков, 12 гб озу) и крутить там 3-4 виртуальных машины на линуксе для домашних экспериментов, хватит ведь ресурсов (им ведь будет выдаваться отдельные ip роутером? свобод докера, кажется, мне не хватает)?

в целом я конечно склоняюсь к xpenology на чистом железе, но сомневаюсь из-за поверхностных знаний.

спасибо за внимание.

Share this post


Link to post
Share on other sites
1 час назад, toleeck сказал:

судя по всему там имеют место проблемы с динамическим распределением ресурсов оперативной памяти

Там проблем нет, она динамически не распределяется, только статично, сколько отдал VM, столько она и получит.

 

Это мое личное предпочтение, но поигравшись с ESXI, вернулся на хрень и развернул виртуалки в ней по следующим причинам: винты из под ESXI в хрени работали раза в полтора медленнее, жалко было держать винт под ESXI (на флешку установить можно только с 6.5, если не изменяет память и это не очень надежно), USB 3 работает, мне нужны 3-4 виртуалки и хрени для этого предостаточно.

 

P.S. Скоро приедет xeon 1285L v3, мне большего и не нужно будет для бытовых нужд... :4_joy:

  • Like 1

Share this post


Link to post
Share on other sites

На флешку или SD карты ESXi ставился изначально во всех версиях. На серверах расчитанных на виртуализацию даже есть опция для двух встроенных SD карт которые можно зазеркалить. При таком варианте тратить встроенный диск на OS не надо. С USB 3 пока проблема даже в последней версии, как и с производительностью дисков. В какой то степени это компенсируется отличной системой кэширования, но для больших обьемов перекачек это не помогает. Самый лучший вариант использования ESXi это тот на который он расчитан - гибкий настраиваеный сервер для определенных задач, не для xранилища общего назначения. Для последней задачи NAS как раз подходит лучше всего установленный на голое железо.

Важно определиться с приоритетами. Если важнее хранилка, а пару маленьких серверов для "поиграться" , то VMM на XPEnology вполне достаточен. Для дома большинству это и надо. Если важнее высокая производительность серверов, а хранилище "так, что-бы было", to ESXi (или другая система специально ориентированная на виртуализацию) будет лучшим выбором.

В больших компаниях разделениe обычно очень явное. NAS для хранения (в том числе и хранения, бэкапов виртуалок), а мощные сервера с большой памятью и кучей процессоров - для виртуализации. При этом локальные хранилища на серверах для виртуалок минимальные, только для журналов. Все вирт-машины хранятся на тех-же NASах для удобства переноса между серверами.

 

  • Thanks 1

Share this post


Link to post
Share on other sites
Цитата

как и с производительностью дисков.

Не совсем понимаю о каких проблемах речь, не поясните?

Share this post


Link to post
Share on other sites

спасибо за внимание товарищи. обдумываю теперь пути возврата с esxi на железо )) как теперь малой кровью подготовить данные которые внутри vmdk для того, чтобы впоследствии увидеть их на железной xpenology?

добавлю ещё один минус использования esxi для домашних нужд начинающими пользователями - из коробки система не умеет взаимодействовать с ups. то есть система не потушит корректно виртуальные машины и саму себя после отключения электричества по сигналу от ибп.

Share this post


Link to post
Share on other sites

Да, забыл про еще один минус VMM - в коробке нет виртуальных звуковых карт, соотв. звука на виртуалках в VMM не будет.

Share this post


Link to post
Share on other sites

>добавлю ещё один минус использования esxi для домашних нужд начинающими пользователями - из коробки система не умеет взаимодействовать с ups. то есть система не >потушит корректно виртуальные машины и саму себя после отключения электричества по сигналу от ибп.

Это очень просто решается, на хосте поднимается машина с виндой и powershute в случае если ибп APC, после получения сигнала, она выполняет скрипт и гасит все виртуалки и хост esxi.

Share this post


Link to post
Share on other sites

Никаких "проблем" при работе esxi с дисковой подсистемой нет, есть небольшая, порядка 3-5% потери при виртуализации, т.е без esxi будет работать быстрее, но при домашнем использование это не актуально. Нормально работающей рейд может быть только аппаратный, все остальное это компромисс. Просто не надо пытаться сделать все одним инструментом. Как в поговорке - админы делятся на 2 вида, те кто делают бекап и те кто уже делают бекап. Бекап делаю на usb винт, раз в 2-3 месяца. Пол года назад умер винт с esxi, накатил свежий esxi на флешку, загрузился, подцепил виртуальные машины, все работает. Заняло по времени 40 минут, в вытаскивание сервера с антресолей, диагностикой и прочим.  Привязка в железу это прошлое, виртуализация добро.

Share this post


Link to post
Share on other sites
10 minutes ago, SSerger said:

Это очень просто решается, на хосте поднимается машина с виндой и powershute в случае если ибп APC, после получения сигнала, она выполняет скрипт и гасит все виртуалки и хост esxi.

да, завести отдельную виртуалку с виндой для управления питанием видимо нормальное дело. ещё есть apcupsd, ещё есть более универсальный, в плане совместимости с ибп, nut. можно на отдельный хост это добро вынести, например raspberry доверить это дело. но как-то это не правильно я считаю. меня, когда я с этим столкнулся, очень сильно удивило.

Share this post


Link to post
Share on other sites

>да, завести отдельную виртуалку с виндой для управления питанием видимо нормальное дело

Для меня нормально, под конкретную инфраструктура. У меня нет кластера, нет vsphere, у меня отдельно стоящие хосты, потому и решение такое.

 

>можно на отдельный хост это добро вынести, например raspberry доверить это дело

Вопрос важности хоста который будет гасит эта железка за 3 т.р, на виртаульном хосте даже с точки зрения траблшутинга правильнее.

 

>меня, когда я с этим столкнулся, очень сильно удивило.

[пожимает плечами]

 

Share this post


Link to post
Share on other sites
4 minutes ago, SSerger said:

Вопрос важности хоста который будет гасит эта железка за 3 т.р, на виртаульном хосте даже с точки зрения траблшутинга правильнее.

да, я именно это и имел в виду, только в отношении винды на виртуалке, то есть я бы не доверил ей такого 

Share this post


Link to post
Share on other sites

>то есть я бы не доверил ей такого 

а я бы не доверил гасить железку стоимость в млн с виртуальными серверами 1С компании, куску говна за 3 т.р, которую сделали для домашних умельцев под бытовые нужды. я уже не говорю про 365\7\24. Хотя вполне годные игрушки но под другие задачи.

Share this post


Link to post
Share on other sites
2 minutes ago, SSerger said:

а я бы не доверил гасить железку стоимость в млн с виртуальными серверами 1С компании, куску говна за 3 т.р, которую сделали для домашних умельцев под бытовые нужды. я уже не говорю про 365\7\24. Хотя вполне годные игрушки но под другие задачи.

сорян, ошибся веткой видимо. изначально показалось что антресольные хранилища обсуждаем. сервак за миллион думаю лучше вообще не гасить, а организовать инфраструктуру с бесперебойным питанием.

Share this post


Link to post
Share on other sites

так я и говорю, для антресольного варианта вполне годится вариант с powerhost =)

Share this post


Link to post
Share on other sites
13 hours ago, SSerger said:

Не совсем понимаю о каких проблемах речь, не поясните?

Есть небольшие потери в скорости при перекачке (по настоящему) больших обьемов данных. Некоторые RAID адаптеры поддерживаются в базовой конфигурации, но все возможности дисков и адаптеров не используются. Физическое состояние отдельных дисков удаленно отследить не всегда возможно. Для домашних систем, где часто больше гигабитной сети не используется и обьемы данных редко превышают несколько ТБ, эти "проблемы", или скажем "особенности" в основном не замечаются.

Все это с лихвой перекрывается удобством и гибкостью системы, но знать и учитывать надо.

Share this post


Link to post
Share on other sites

Сделать образ флехи с ESXi, залить его в облако какое-нибудь, и забыть об этой "проблеме" до часа Х.

Инструментов для "образирования" навалом.

Share this post


Link to post
Share on other sites

Афтор, дома обычно esxi конфигурируется с нуля за 5 минут. Какие еще бекапы? Максимум - забекапить сами ВМ-ки. Гипервизор бекапить смысла мало. И почему обязательно карточка должна сдохнуть через пол года? И что мешает грузиться с юсб-плешки? Всё это годами работает, каши не просит. Лучше озаботиться хотя бы аппаратным НВА-контроллером. Ввод-вывод значительно веселее пойдёт. Узкие места esxi дома практически недостижимы. Если конечно дома не стоит продакшен. ))

Share this post


Link to post
Share on other sites
Posted (edited)

Есть нюансы при создание бекапа флешки с гипервизором снятием образа. Все флешки имеют разные размеры по факту в байтах и взяв "похожую же на 4Gb" не факт, что образ на нее развернется, банально она может меньше оказаться. Нужна в запасе или совсем такая же  флешка (найти может уже сложно если крах случается через несколько лет после покупки первой) или разворачивать на большего размера (не жалко деньги тратить?).

 

Имхо, правильный способ сделать бекап конфигурации гипервизора средствами ESXi. Потом сделать чистую установку гипервизора на флеху и накатить конфигурацию обратно. Таким способом я переехал (даунгрейд) с флешки 8Gb на 4Gb, т.к. 4 выше крыши для домашней ESXi:

 

Using the ESXi Command Line
To synchronize the configuration changed with persistent storage, run this command:
vim-cmd hostsvc/firmware/sync_config

To backup the configuration data for an ESXi host, run this command:

vim-cmd hostsvc/firmware/backup_config

Note: The command should output a URL in which a web browser may be used to download the file. The backup file is located in the /scratch/downloads directory as configBundle-HostFQDN.tgz

 

------------------------------------------------

Restoring ESXi host configuration data
Using the ESXi Command Line:

Note: When restoring configuration data, the build number of the host must match the build number of the host on backup file and UUID (can be obtained using the command  "esxcfg-info -u") of the host should match the UUID of the host on backup file.

Use numeric 1 as force option to override the UUID mismatch.
Example: vim-cmd hostsvc/firmware/restore_config 1 /tmp/configBundle.tgz


    Put the host into maintenance mode by running the command:

    vim-cmd hostsvc/maintenance_mode_enter

    Copy the backup configuration file to a location accessible by the host and run the command:

    In this case, the configuration file was copied to the host's /tmp directory. For more information, see Using SCP to copy files to or from an ESX host (1918).

    vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz


    Note: Executing this command will initiate an automatic reboot of the host after command completion.

 

 

Можно наверное в FAQ какой-нибудь это добавить.

Edited by Chupakabra

Share this post


Link to post
Share on other sites
7 hours ago, Chupakabra said:

Можно наверное в FAQ какой-нибудь это добавить. 

Пожалуй слишком частный случай и мало относится к основной теме (XPENology) форума.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now