Jump to content
XPEnology Community

HA Cluster


crazych

Recommended Posts

Всем привет, кто ли бо пробывал создать кластер на основе сборки XPEnoboot_DS3615xs_5.2-5565.2 ?

собрал 2 машины разница только в материнках, установил на обоих одну сборку, поствил по 2 сетевухи законектил все как сказано.

Харды в тех же слотах 4-5 как на 1 сервере так и на другом.

При создании клстера, просит указать адрес посивного сервера, указываю второй хост, после просит выбрать сетевой адептер (и там и там 2 адептер сконекчены между собой.) указываю 2 адептер, он что то крутит и после пишет ошибка и все... и никаких подробностей, может кто знает, где хоть логи посмотреть? В журнале самого синолоджи пусто..

Буду рад любой помощи..

Link to comment
Share on other sites

там много условий нужно соблюсти

- диски в одинаковых слотах, одинакового объема, одного уровня RAID - но не SHR

сетевухи компов надо не друг в друга втыкать, а в один хаб - компы должны быть в одной подсети с ip в одном диапазоне

и по моему IP должны быть статические.

Link to comment
Share on other sites

Спасибо, я так понял лучше не использовать это дело...

Не в курсе есть какое то решение free для создания сетевого рейда, но так, что бы это было легко управляемо?

Link to comment
Share on other sites

При создании клстера, просит указать адрес посивного сервера, указываю второй хост, после просит выбрать сетевой адептер (и там и там 2 адептер сконекчены между собой.) указываю 2 адептер, он что то крутит и после пишет ошибка и все... и никаких подробностей, может кто знает, где хоть логи посмотреть? В журнале самого синолоджи пусто..

 

по этой инструкции делали Создание конфигурации high-availability с NAS-устройством Synology

 

что вы конкретно хотите достичь: повышенную отказоустойчивость или всё таки скорость передачи данных

 

Не в курсе есть какое то решение free для создания сетевого рейда, но так, что бы это было легко управляемо?

 

можно попробовать так:

  1. на одну машину ставится dsm
  2. на вторую машину ставится VMware ESXi
  3. создаём подключение Multipath iSCSI по этой инструкции
  4. use_iSCSI_Targets_on_VMware_ESXi.jpg

Edited by Guest
Link to comment
Share on other sites

  • 2 weeks later...
по этой инструкции делали Создание конфигурации high-availability с NAS-устройством Synology

Да но только на основе 2 компов, а не на родном железе.

 

Multipath iSCSI, а за синхронизацию данных тут отвечает сама Vmware?

 

Достичь хочу как надежности, так и распределением нагрузки на чтение хотя бы.

Мне нужен сторедж для порядка 20 нагруженных виртуалок VMware. Сейчас они все разбросаны по разным массивам зеркального рейда, но скорости зеркала уже не достаточно.

Link to comment
Share on other sites

Достичь хочу как надежности, так и распределением нагрузки на чтение хотя бы.

Мне нужен сторедж для порядка 20 нагруженных виртуалок VMware. Сейчас они все разбросаны по разным массивам зеркального рейда, но скорости зеркала уже не достаточно.

так как требуется чистый storage/хранилище данных и при этом "free решение" то под этот проект больше подходит FreeNAS.

Он в основном, используется для того чтобы сделать из обычного физического сервера с дисками Систему Хранения Данных, доступную по iSCSI. Выглядит процесс настройки следующим образом: берете сервер, прямо на голое железо устанавливаете FreeNAS, настраиваете. Затем можно подключать получившиеся в результате настройки дисковые разделы (LUN-ы) по локальной сети к VMware ESXi гипервизору (общий storage). Важно, что подключить такой LUN можно сразу к нескольким ОС и для них он будет общим, а это позволяет создавать отказоустойчивые кластеры. Тоже самое можно сделать и с DMS используя для лучшей отказоустойчивости всё то же подключение Multipath iSCSI

how_to_set_up_Synology_NAS_as_VMware.jpg

 

Хотя FreeNAS и более прожорлив к железу по сравнению c DMS, но зато он благодаря файловой системе ZFS предоставляет достойную альтернативу аппаратным raid контроллером, которые кстати тоже стоят не дёшево.

[spoiler=LUN презентованный с FreeNAS,тестовый стенд поднят на SSD диске]VM_FreeNAS-04.pngVM_FreeNAS-38.png

 

Link to comment
Share on other sites

Я уже тоже склоняюсь к freeNAS у меня есть рейд контроллер Адаптек на 8 дисков, но без батарейки. Вопрос: имеет ли смысл делать на контроллере рейд или же использовать JBOD? Вродей как raid 10 быстрее на апаратном нежеле на ZFS рейде. Но с другой стороны zfs очень хорошо все кеширует. Только не знаю, если создавать лун допустим на 2 терабайта он будет кешироватся или нет?

 

И вообще имеет ли смысл использовать аппаратный рейд в этом случае.

 

И как я понял мультипач это просто использование 2 путей для 1 диска.

Ситуация то в чем, точка отказа у нас получается сам freenas мне же хочется что бы точки отказа не было вообще, но при этом по возможности если уж ставить второй сервак, то не просто в режиме отказоустоичивости, а еще и распределением нагрузки.

Допустим у меня зеркало из 2 дисков на одном сервере freenas и зеркало на из 2 дисков на другом, а в сумме бы был 10 рейд. Таких решений не существует?

При такой схеме по сути нет точки отказа и нет избыточности хранения данных.

Link to comment
Share on other sites

лун допустим на 2 терабайта он будет кешироватся или нет?

кешироватся будет и на 3 терабайта

Важно:

  • рекомендуюется использовать оперативную память стандарта ECC RAM
  • общее правило такое: 1 GB оперативной памяти на каждый 1 TB объёма дисков

 

И вообще имеет ли смысл использовать аппаратный рейд в этом случае.

с freenas нет

И как я понял мультипач это просто использование 2 путей для 1 диска.

да, подключение к одной цели iSCSI, сервер ESXi использует два пути (через две подсети).

 

Допустим у меня зеркало из 2 дисков на одном сервере freenas и зеркало на из 2 дисков на другом, а в сумме бы был 10 рейд. Таких решений не существует?

 

Обычный минимальный набор — это два сервера(вычислительные мощности) и система хранения данных(СХД)

 

В идеале конечно будет проект, построенный на технологии VMware vSAN.

Отдельно нужно сказать, что отказоустойчивость систем построенных на технологии VMware vSAN выше, чем у систем со стандартной архитектурой, которая часто не защищена от выхода из строя системы хранения данных.Обычно принимается на веру то, что СХД сама по себе максимально надежна и крайне мала вероятность того, что она может сломаться. В случае с подсистемой хранения vSAN, файлы виртуальных машин всегда хранятся, как минимум в двух экземплярах, которые постоянно синхронизируются (синхронно). Поэтому в случае выхода из строя любого хоста, работа виртуальных машин, которые работали на нем, восстановится в течении минуты (время перезагрузки ВМ).

Проект на vSAN

Edited by Guest
Link to comment
Share on other sites

Супер решение, то что нужно! А кряков нет для этой штуки?

Но я так понимаю рейд там на основе аппаратного контроллера тока если в каждой ноде по разному?

Не тестировали эту штуку?

Link to comment
Share on other sites

А кряков нет для этой штуки?

 

есть конечно, только для какой штуки вы имелли ввиду?

 

vCenter server или VMware vSAN? для последнего я не встречал, да он и не очень то подходит по бюджету

Link to comment
Share on other sites

Эта штука есть по умолчанию оказывается в esxi 5.5 нужно только включить ))) Я знать не знал про такое.. Надо только разобраться как это работает не убив при этом работающий кластер. Ключик я тоже под это дело нашел...

Link to comment
Share on other sites

×
×
  • Create New...