crazych Posted September 8, 2015 #1 Posted September 8, 2015 Всем привет, кто ли бо пробывал создать кластер на основе сборки XPEnoboot_DS3615xs_5.2-5565.2 ? собрал 2 машины разница только в материнках, установил на обоих одну сборку, поствил по 2 сетевухи законектил все как сказано. Харды в тех же слотах 4-5 как на 1 сервере так и на другом. При создании клстера, просит указать адрес посивного сервера, указываю второй хост, после просит выбрать сетевой адептер (и там и там 2 адептер сконекчены между собой.) указываю 2 адептер, он что то крутит и после пишет ошибка и все... и никаких подробностей, может кто знает, где хоть логи посмотреть? В журнале самого синолоджи пусто.. Буду рад любой помощи..
XPEH Posted September 8, 2015 #2 Posted September 8, 2015 HA и на родном железе работает ненадежно. Забей и забудь.
-iliya- Posted September 9, 2015 #3 Posted September 9, 2015 там много условий нужно соблюсти - диски в одинаковых слотах, одинакового объема, одного уровня RAID - но не SHR сетевухи компов надо не друг в друга втыкать, а в один хаб - компы должны быть в одной подсети с ip в одном диапазоне и по моему IP должны быть статические.
crazych Posted September 13, 2015 Author #4 Posted September 13, 2015 Спасибо, я так понял лучше не использовать это дело... Не в курсе есть какое то решение free для создания сетевого рейда, но так, что бы это было легко управляемо?
XPEH Posted September 14, 2015 #5 Posted September 14, 2015 Можно попробовать двухстороннее синхронизирование папок.
Bob the Builder Posted September 14, 2015 #6 Posted September 14, 2015 (edited) При создании клстера, просит указать адрес посивного сервера, указываю второй хост, после просит выбрать сетевой адептер (и там и там 2 адептер сконекчены между собой.) указываю 2 адептер, он что то крутит и после пишет ошибка и все... и никаких подробностей, может кто знает, где хоть логи посмотреть? В журнале самого синолоджи пусто.. по этой инструкции делали Создание конфигурации high-availability с NAS-устройством Synology что вы конкретно хотите достичь: повышенную отказоустойчивость или всё таки скорость передачи данных Не в курсе есть какое то решение free для создания сетевого рейда, но так, что бы это было легко управляемо? можно попробовать так: на одну машину ставится dsm на вторую машину ставится VMware ESXi создаём подключение Multipath iSCSI по этой инструкции Edited September 27, 2015 by Guest
crazych Posted September 27, 2015 Author #7 Posted September 27, 2015 по этой инструкции делали Создание конфигурации high-availability с NAS-устройством Synology Да но только на основе 2 компов, а не на родном железе. Multipath iSCSI, а за синхронизацию данных тут отвечает сама Vmware? Достичь хочу как надежности, так и распределением нагрузки на чтение хотя бы. Мне нужен сторедж для порядка 20 нагруженных виртуалок VMware. Сейчас они все разбросаны по разным массивам зеркального рейда, но скорости зеркала уже не достаточно.
Bob the Builder Posted September 27, 2015 #8 Posted September 27, 2015 Достичь хочу как надежности, так и распределением нагрузки на чтение хотя бы.Мне нужен сторедж для порядка 20 нагруженных виртуалок VMware. Сейчас они все разбросаны по разным массивам зеркального рейда, но скорости зеркала уже не достаточно. так как требуется чистый storage/хранилище данных и при этом "free решение" то под этот проект больше подходит FreeNAS. Он в основном, используется для того чтобы сделать из обычного физического сервера с дисками Систему Хранения Данных, доступную по iSCSI. Выглядит процесс настройки следующим образом: берете сервер, прямо на голое железо устанавливаете FreeNAS, настраиваете. Затем можно подключать получившиеся в результате настройки дисковые разделы (LUN-ы) по локальной сети к VMware ESXi гипервизору (общий storage). Важно, что подключить такой LUN можно сразу к нескольким ОС и для них он будет общим, а это позволяет создавать отказоустойчивые кластеры. Тоже самое можно сделать и с DMS используя для лучшей отказоустойчивости всё то же подключение Multipath iSCSI Хотя FreeNAS и более прожорлив к железу по сравнению c DMS, но зато он благодаря файловой системе ZFS предоставляет достойную альтернативу аппаратным raid контроллером, которые кстати тоже стоят не дёшево. [spoiler=LUN презентованный с FreeNAS,тестовый стенд поднят на SSD диске]
crazych Posted September 27, 2015 Author #9 Posted September 27, 2015 Я уже тоже склоняюсь к freeNAS у меня есть рейд контроллер Адаптек на 8 дисков, но без батарейки. Вопрос: имеет ли смысл делать на контроллере рейд или же использовать JBOD? Вродей как raid 10 быстрее на апаратном нежеле на ZFS рейде. Но с другой стороны zfs очень хорошо все кеширует. Только не знаю, если создавать лун допустим на 2 терабайта он будет кешироватся или нет? И вообще имеет ли смысл использовать аппаратный рейд в этом случае. И как я понял мультипач это просто использование 2 путей для 1 диска. Ситуация то в чем, точка отказа у нас получается сам freenas мне же хочется что бы точки отказа не было вообще, но при этом по возможности если уж ставить второй сервак, то не просто в режиме отказоустоичивости, а еще и распределением нагрузки. Допустим у меня зеркало из 2 дисков на одном сервере freenas и зеркало на из 2 дисков на другом, а в сумме бы был 10 рейд. Таких решений не существует? При такой схеме по сути нет точки отказа и нет избыточности хранения данных.
Bob the Builder Posted September 27, 2015 #10 Posted September 27, 2015 (edited) лун допустим на 2 терабайта он будет кешироватся или нет? кешироватся будет и на 3 терабайта Важно: рекомендуюется использовать оперативную память стандарта ECC RAM общее правило такое: 1 GB оперативной памяти на каждый 1 TB объёма дисков И вообще имеет ли смысл использовать аппаратный рейд в этом случае. с freenas нет И как я понял мультипач это просто использование 2 путей для 1 диска. да, подключение к одной цели iSCSI, сервер ESXi использует два пути (через две подсети). Допустим у меня зеркало из 2 дисков на одном сервере freenas и зеркало на из 2 дисков на другом, а в сумме бы был 10 рейд. Таких решений не существует? Обычный минимальный набор — это два сервера(вычислительные мощности) и система хранения данных(СХД) В идеале конечно будет проект, построенный на технологии VMware vSAN. Отдельно нужно сказать, что отказоустойчивость систем построенных на технологии VMware vSAN выше, чем у систем со стандартной архитектурой, которая часто не защищена от выхода из строя системы хранения данных.Обычно принимается на веру то, что СХД сама по себе максимально надежна и крайне мала вероятность того, что она может сломаться. В случае с подсистемой хранения vSAN, файлы виртуальных машин всегда хранятся, как минимум в двух экземплярах, которые постоянно синхронизируются (синхронно). Поэтому в случае выхода из строя любого хоста, работа виртуальных машин, которые работали на нем, восстановится в течении минуты (время перезагрузки ВМ). Проект на vSAN Edited September 28, 2015 by Guest
crazych Posted September 27, 2015 Author #11 Posted September 27, 2015 Супер решение, то что нужно! А кряков нет для этой штуки? Но я так понимаю рейд там на основе аппаратного контроллера тока если в каждой ноде по разному? Не тестировали эту штуку?
Bob the Builder Posted September 27, 2015 #12 Posted September 27, 2015 А кряков нет для этой штуки? есть конечно, только для какой штуки вы имелли ввиду? vCenter server или VMware vSAN? для последнего я не встречал, да он и не очень то подходит по бюджету
crazych Posted September 27, 2015 Author #13 Posted September 27, 2015 VMware vSAN Почему не подходит?, я так понял, это программная часть, которую накатываешь поверх гипервизора в ноду.
Bob the Builder Posted September 27, 2015 #14 Posted September 27, 2015 VMware vSAN Почему не подходит? я имел ввиду по бюджету, но если устраивает то почему бы нет, я считаю это просто гениальная штука http://www.vmware.com/ru/products/whats-new-virtual-san.html
crazych Posted September 27, 2015 Author #15 Posted September 27, 2015 Эта штука есть по умолчанию оказывается в esxi 5.5 нужно только включить ))) Я знать не знал про такое.. Надо только разобраться как это работает не убив при этом работающий кластер. Ключик я тоже под это дело нашел...
Recommended Posts