Jump to content
XPEnology Community

Recommended Posts

Вот что нашёл: https://forum.ixbt.com/topic.cgi?id=109:182-33

27d9d13ea2b7554d405e1de7fd9dc14e.jpg

Цитата

"I finally found out what causes the switch to pink: it's the last option in chipset->southbridge->usb-settings->port-5-OHCI. It must be set to "disabled"."

Цитата

Наконец-то я выяснил, почему переключатель становится розовым: это последняя опция в чипсет->южный мост->настройки USB->порт-5-OHCI. Должно быть установлено значение «отключено».

Второй скрин, последний пункт

  • Thanks 1
Link to comment
Share on other sites

On 1/31/2024 at 5:44 PM, Chuvis41 said:

1. Происходит установка.
2. После загрузки того места, где у меня "зависало" устройство происходит перезагрузка.
3. Устройство грузится в direct boot какой-то и всё-равно не обнаруживается в сети.

У меня запустилось после этого

для HP N54.png

Link to comment
Share on other sites

О, пока собирается массив - вопрос.
4 диска по 2Тб объединяю в RAID 5 - система пишет около 12 часов им ещё объединяться.
Это нормальное время? А то может я такой всё настроил, а оно должно было за час собраться в хранилище?)

Из косяков - я забыл выделить виртуальной машине с DSM нормально оперативной памяти - всего 1Гиг оставил. Теперь уже после того, как хранилище соберётся добавлю. 

Edited by Chuvis41
Link to comment
Share on other sites

15 минут назад, Chuvis41 сказал:

система пишет около 12 часов им ещё объединяться.

Если первоначально и чистые, то быстро. Потом проверка в фоне, но это другое

Link to comment
Share on other sites

В 21.01.2024 в 22:49, LDiamond сказал:

Да так и есть. Только я 4 HDD отдал под хренологию чтобы было проще переезжать с системы на систему. Полный проброс sata контроллера. 

Т. Е при необходимости можно вынуть диски и сунуть их обратно в N54L без головной боли. 

Добрый вечер, а диски как то специально прокидывали в ESXi и на какой версии ESXi все настроили?

Link to comment
Share on other sites

Я когда установил ESXi сел было записать все шаги в гайд, чтобы потом поделиться с сообществом. Но так и не дописал, а сейчас уже и не вспомню всех деталей. Там есть нюансы. Диски я тоже прокинул целиком, у меня там уже была установлена хренология. Прокидываются командой из консоли, в интерфейсе нет такой опции. Ну и с ИБП тоже пришлось повозиться - немного через одно место 

Link to comment
Share on other sites

1 час назад, clarit сказал:

Ну и с ИБП тоже пришлось повозиться - немного через одно место 

Делитесь.....

Наработки прошлые, что обсуждались в теме или ещё какой вариант нашли ?

Link to comment
Share on other sites

14 часов назад, kodykov сказал:

Полный проброс sata контроллера

Если забыли, то скорее всего делали так:

1) Узнать через SSH данные контроллера SATA:

lspci -v | grep "Class 0106" -B 1

(например, будет …Class 0106: 8086:8d02)

 

2) Отредактировать через WinSCP файл /etc/vmware/passthru.map – добавить в конце строку (заменить на свой код адаптера):

8086   8d02    d3d0    false

 

3)      Перезагрузить сервер

Источник.

 

После этого контроллер становится доступен для проброски в ВМ через вебинтерфейс. Host - Manage - Hardware - выбрать строку с контроллером, нажать "Toggle passthrough"

При создании/редактировании ВМ для DSM: Add other device - PCI device - убедиться/поправить добавленное устройство - нужный контроллер. (ну и всегда, когда в ВМ есть проброшенные устройства - придётся в Memory включить "Reserve all guest memory (All locked)" - т.е. эту память DSM отберёт только на себя, с другими ВМ делиться не будет)

 

 

  • Like 2
Link to comment
Share on other sites

28 минут назад, dj_nsk сказал:

Если забыли, то скорее всего делали так:

1) Узнать через SSH данные контроллера SATA:

lspci -v | grep "Class 0106" -B 1

(например, будет …Class 0106: 8086:8d02)

 

2) Отредактировать через WinSCP файл /etc/vmware/passthru.map – добавить в конце строку (заменить на свой код адаптера):

8086   8d02    d3d0    false

 

3)      Перезагрузить сервер

Источник.

 

После этого контроллер становится доступен для проброски в ВМ через вебинтерфейс. Host - Manage - Hardware - выбрать строку с контроллером, нажать "Toggle passthrough"

При создании/редактировании ВМ для DSM: Add other device - PCI device - убедиться/поправить добавленное устройство - нужный контроллер. (ну и всегда, когда в ВМ есть проброшенные устройства - придётся в Memory включить "Reserve all guest memory (All locked)" - т.е. эту память DSM отберёт только на себя, с другими ВМ делиться не будет)

 

 

А если у меня щас для хреньки 5 дисков используются, то мне надо будет один контролер полностью пробрасывать (на 4 диска) + ещё 5ый диск? У меня просто тоже есть мфу (GDI), думал может для него Windows поднять.

Link to comment
Share on other sites

6 минут назад, kodykov сказал:

А если у меня щас для хреньки 5 дисков используются, то мне надо будет один контролер полностью пробрасывать (на 4 диска) + ещё 5ый диск? У меня просто тоже есть мфу (GDI), думал может для него Windows поднять.

а как вы диски пробрасывали? если каждый по-отдельности (RDM), то это -другое.

Когда делается проброска контроллера SATA, то ESXi вообще перестаёт знать, какие к нму диски подключены (если на одном из этих дисков была установлена сам ESXi или её datastore, то этот вариант - не для вас!!!). Все диски, которые к этому контроллеру подключены, сразу увидит ВМ DSM и работать с ними будет на уровне "железа" (в т.ч. SMART)

[UPD]: у меня так организовано - SATA-контроллер проброшен в основную рабочую DSM, а ESXI, datastore, прочие виртуалки - на NVME

Edited by dj_nsk
  • Like 1
Link to comment
Share on other sites

6 минут назад, dj_nsk сказал:

а как вы диски пробрасывали? если каждый по-отдельности (RDM), то это -другое.

Когда делается проброска контроллера SATA, то ESXi вообще перестаёт знать, какие к нму диски подключены (если на одном из этих дисков была установлена сам ESXi или её datastore, то этот вариант - не для вас!!!). Все диски, которые к этому контроллеру подключены, сразу увидит ВМ DSM и работать с ними будет на уровне "железа" (в т.ч. SMART)

[UPD]: у меня так организовано - SATA-контроллер проброшен в основную рабочую DSM, а ESXI, datastore, прочие виртуалки - на NVME

Да я ещё не делал, я некоторое время назад читал про то, что в 6.5 как раз есть нюансы в части дисков, но в итоге поставил хрень на голое железо, без виртуализации, но вот сейчас думаю - может перенастроить все через esxi

Link to comment
Share on other sites

3 минуты назад, kodykov сказал:

Да я ещё не делал, я некоторое время назад читал про то, что в 6.5 как раз есть нюансы в части дисков, но в итоге поставил хрень на голое железо, без виртуализации, но вот сейчас думаю - может перенастроить все через esxi

ну, это взвешивать ндо все "за" и "против". Меня подтолкнула тяга к знанием и желание задействовать избыточные для одной лишь DSM ресурсы железа.

С одной стороны - администрирование несколько сложнее. С другой - дополнительные возможности:

  • можно тестовых DSM сколько угодно насоздавать и экспериментировать с ними (проверять новые версии, загрузчики...)
  • можно несколько полезных виртуалок запустить (например, у меня виртуальная Windows запущена, которая ещё и на телевизор изображение выводить для домашних нужд)
  • за счёт виртуализации можно часть проблем по несовместимости железа для DSM решить
  • ...

но это обсуждение уже лучше в ветку по виртуализации тогда переносить, если  будет продолжение (к конкретному Microserver N54L оно не привязано)

  • Like 2
Link to comment
Share on other sites

5 часов назад, i926 сказал:

Наработки прошлые, что обсуждались в теме или ещё какой вариант нашли ?

Та не.. там другая засада - нельзя просто подцепить юпс чтобы он останавливал виртуалки и потом гасил сервер. Для поддержки юпс нужно либо разворачивать отдельную виртуалку с софтом типа power shutte либо мутить c nut в хренологии. Короче есть простор для творчества

Link to comment
Share on other sites

11 минут назад, clarit сказал:

Та не.. там другая засада - нельзя просто подцепить юпс чтобы он останавливал виртуалки и потом гасил сервер. Для поддержки юпс нужно либо разворачивать отдельную виртуалку с софтом типа power shutte либо мутить c nut в хренологии. Короче есть простор для творчества

у меня настроено. UPS (USB-порт) проброшен в виртуальную DSM, а уже она работает как Сервер сетевого ИБП для ESXi. Дополнительных виртуалок не надо.

Link to comment
Share on other sites

ну у меня тоже так настроено. Просто непонятно почему нельзя реализовать все это в самой ESXi как сетевой ибп для всех виртуалок

Link to comment
Share on other sites

2 часа назад, clarit сказал:

ну у меня тоже так настроено. Просто непонятно почему нельзя реализовать все это в самой ESXi как сетевой ибп для всех виртуалок

так VMWare позиционирует: "это у нас сервер, не суйте в него всякие любительские USB-устройства" :)

Link to comment
Share on other sites

15 часов назад, clarit сказал:

ну у меня тоже так настроено. Просто непонятно почему нельзя реализовать все это в самой ESXi как сетевой ибп для всех виртуалок

Почему нельзя можно, на проксмокс я поднял прямо в гипервизоре nut server в конфигурационном файле сделал сетевой порт и разал его для сино надо добавить пользователя специального, после в сино выбтраем сетевой ибп сино и пароль. Можно получить настройки сервера или использовать свои. Таким способом можно подключить любой линукс и виндовс централизовано дать команду на выключение.

Link to comment
Share on other sites

Всем спасибо за ответы. Получилось стартануть 7.2 23.11.13 на карте с реалтеком.

А есть ли способ от флешки избавится?

Link to comment
Share on other sites

6 минут назад, JBoB сказал:

А есть ли способ от флешки избавится?

До момента следующей перегрузки можно вытащить. Без загрузчика Хрень не стартует

И чем вам флешка мешает ?

Link to comment
Share on other sites

13 minutes ago, JBoB said:

А есть ли способ от флешки избавится?

Компактную флешку можно спрятать во внутренний USB разьем и запереть дверцу, что бы не торчала и случайно не вынимали.

Link to comment
Share on other sites

18 часов назад, XPEH сказал:

Компактную флешку можно спрятать во внутренний USB разьем и запереть дверцу, что бы не торчала и случайно не вынимали.

Точно. Совсем забыл про внутренний юсб. Спасибо!

 

А есть у кого распиновка куллера? хочу попробовать поменять на более тихий куллер.

Link to comment
Share on other sites

5 hours ago, JBoB said:

А есть у кого распиновка куллера?

 


    
Контакт      Описание             Цвет
1                  Speed control       Green
2                  GND                      Black
3                 +12V                      Red
4                  Sensor                 Yellow

 

4 pin SR male.gif

Spoiler

mb_2.thumb.jpg.57310aa6e02e81b5c54adf713ff73952.jpg

Edited by sevrod
Link to comment
Share on other sites

  • 1 month later...

Коллеги по сабжу, может, прозвучит глупо, но никто не сталкивался с переделкой сервера на другую мать? Чтоб, по большому счету, использовать его чудесный корпус и БП, а в остальное вдохнуть новую жизнь. Знаю, что форм-фактор не стандартный, на хоботе были вялые попытки обсуждения работы напильником. А вдруг кто-то либо заморачивался, либо видел удачные решения.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...