Jump to content
XPEnology Community

H_U_L_K

Member
  • Posts

    395
  • Joined

  • Last visited

  • Days Won

    5

Everything posted by H_U_L_K

  1. Некоторые из имеющихся винтов крутятся уже с 3-й версией загрузчика. Так что тут такое... В перспективе винты 2+2+3 будут заменены на 6. Итого будет 5*6тб в shr и один на 4 тб.
  2. Добавил я к 3+2+2 тб дискам еще 2 по 6 тб. Включил процесс расширения. Оно себе расширяло, писало остаток %%. Но вот уже часов 14 как проценты дошли до 100, и пропали, а фразу "Расширение (проверка соответствия четности)" пишет до сих пор. У кого-то так было? Соответственно расширить ничего не дает. В настройках группы дисков пишет 8,18 тб (доступно 4,55тб, использовано 3,63 тб), ну в принципе так и с самого начала расширения писало.
  3. Вот этот пакет запустился. Вопрос решен. Хотя даже на оригинальных железках с синокомьюнити встречаются такие приколы с незапуском.
  4. Ну оно то понятно, что 1000 и т.д., но 1,2ть - как-то дофига...
  5. Dsm 6.1.4-15217 up.5 Transmission из synocomunity. Ошибка - "Не удалось запустить службу пакета". На dsm 6.0.3-***** всё работало идеально. Юзер создан, разрешения прописаны. Курим гугл...
  6. Такой вопрос. Вот создал я SHR-1 с дисков 2+2+3, получилось в итоге 3,63 Тб. Ну ок.... Скинул инфу, хочу добавить 2 диска по 6 тб. А мне рисует что в итоге получиться примерно 11,81тб. При том что калькулятор рейда на сайте синолоджи пишет что в таком конфиге должно быть доступно 13 тб. Как так то? Куда делся 1 тб? Или это из-за диска в 3 тб, и на нём 1 тб нераспределенного, в виду частей по 2 тб? И когда я его заменю на диск 6 тб и сделаю ребилд то в итоге будет нормальные 16 тб?
  7. Вы читали мануал по ссылке в предыдущем посте? Там про grub расписано абсолютно всё, где и что искать, и что редактировать. Копирую именно тот пункт сюда. 4 - Now launch OSFMount. Select Mount New, then select the image file you downloaded earlier (i.e. .img extension file) to open. Now select partition 0 (the one that is 15 MB). Click Ok. Then at the bottom of the window make sure to un-tick the "Read only drive". Click Ok. The partition should now be mounted in file explorer. At this point you can navigate to the /grub directory and edit the grub.cfg file. If you need to replace the extra.lzma ramdisk with the custom ramdisk provided above then you will also need to mount partition 1 (the one that is 30 MB). Below is what you will see in the grub.cfg file. I am only showing below the portion of the code that is relevant for the purpose of this tutorial [...] set extra_initrd="extra.lzma" set info="info.txt" set vid=0x058f set pid=0x6387 set sn=C7LWN09761 set mac1=0011322CA785 set rootdev=/dev/md0 set netif_num=1 set extra_args_3615='' set common_args_3615='syno_hdd_powerup_seq=0 HddHotplug=0 syno_hw_version=DS3615xs vender_format_version=2 console=ttyS0,115200n8 withefi elevator=elevator quiet' set sata_args='sata_uid=1 sata_pcislot=5 synoboot_satadom=1 DiskIdxMap=0C SataPortMap=1 SasIdxMap=0' set default='0' set timeout='1' set fallback='1' [...] You want to modify the following: Change vid=0x090C to vid=0x[your usb drive vid] Change pid=0x1000 to pid=0x[your usb drive pid] Change sn=C7LWN09761 to sn=generate your sn here with DS3615xs or DS 3617xs or DS916+ model (this will depend on which loader you chose) Change mac1=0011322CA785 to mac1=[your NIC MAC address #1]. You can also add set mac2=[your NIC MAC address #2] and so on until mac4 if you have multiple NICs. However, this is not necessary. Recommended: Change set timeout='1' to set timeout='4' - This will allow you more time to make a selection in the Grub Boot Menu when it appears on screen. Once you are done editing the grub.cfg file, save it and close your text editor. Now in OSFMount click on Dismount all & Exit. You are now ready to burn the image to your USB drive.
  8. Вопрос в чём, Вам надо заставить хренолоджи работать или вытащить данные? Если заставить работать то перезапишите флешку с загрузчиком, для начала. И потом выполнить миграцию. Если вытащить данные то лучше снять жесткие диски и воткнуть в линукс-систему, или через прогу для винды, которая прочитает ext4. Ну и назначить разделу с данными букву.
  9. ОС на дисках записана, на всех сразу. Но на флешке должен быть записан загрузчик, чтобы эмулировать среду synology для dsm. Обычно, если проблемы с загрузкой, надо пепезаписать загрузчик на флешку. https://xpenology.com/forum/topic/5446-dsm-60-jun’s-mod/?page=1
  10. Это пишет при подключенном мониторе? Может стоит загрузчик заново прописать на флешку?
  11. Ну пока он создает рейд то не дает пользоваться.
  12. Дааа... На хардах 2+2+3 тб за 7 часов посчитало 16,4%. Представляю что будет когда туда по очереди начну добавлять еще 2 харда по 6 тб.
  13. Ну я выбрал ext4 вместо btrfs. А почему dsm 6.1? Потому что безопасность на голову выше, нежели в 5.2. И мощности железа хватить ее крутить.
  14. Ну это я в курсе что проверку чётности делает долго. Решал сначала объединить 3 харда, потом добавить 4-й, пересчитать рейд, и уже после слития инфы добавить 5-й.
  15. Тоже не особо сторонник облака... Пересобрал серв. Установил бутлоадер 1.02b, DSM 6.1.4-15217 upd.5. Так, по сабжу. Включил через SSH возможность создания SHR-1. Создал 2 группы дисков. 1 группа - 2+2+3 тб в SHR - на ней создал раздел SHR. Сейчас идёт проверка четности. Когда проверит добавлю еще один диск на 6 тб. Посмотрю как оно работает и потом солью всю инфу, и уже после того добавлю еще один 6 тб. 2 группа - 4 тб basic (WD purple) - на ней 1 раздел 4 тб basic.
  16. Таки да, но пока, тьфу-тьфу, всё нормально...
  17. И никто ли случаем не пользуеться SUA750I (Smart-UPS 750VA (SUA750I)). На сайте в списке совместимыз отсутствует, но на просторах гугл пишут что всё нормально работает и определяеться.
  18. Подниму тему. Как сейчас обстоят дела с BX650CI-RS? http://m.nix.ru/description.html?good_id=125812 Работает ли с DS3615xs и dsm 6.1?
  19. Ну, мелких файлов будет меньшинство. Читал что сама ФС btrfs под свои нужды сьедает не мало места. Так же читал что для нормальной работы raid (любого) крайне желательно иметь ИБП (которого нет) который будет нормально работать с DSM, ибо неправильное отключение NAS от сети чревато проблемами. С single дисками такого не наблюдаеться (во всяком случае у меня всн всегда стартовало без проблем).
  20. Ну я хочу еще почитать про SHR-1, на сколько надежен данный вид массива, и какую файловую систему лучше под него использовать, ext4 или btrfs, а так же на сколько он грузит процессор (не будет ли проц j3455 слабоват на всёчто от него требуеться). Может все же стоит создать shr и не парить мозги переносами, а только апгрейдить жесткие диски. Тем более что на данный момент всех данных на NASе около 8тб.
  21. Та в том то и нюанс что сложно определиться. Важных данных там около 1 тб на данный момент, они висят на отдельно жестком диске в 2 тб, и бекапяться на другой nas на отдельный жесткий диск на 2 тб. Всё остальное - фильмы/сериалы/музыка/и т.д. Если с raid/shr еще более/менее понятно, то о jbod вообще нифига, сколько ни читал - везде пишут поверхносно. И чётких ответов по типу: - Если из массива выдернуть один диск и подцепить его к пк на винде то в "мой компютер" появиться отдельный диск и на нём будут файлы, записанные на него. Или - Чтобы в jbod заменить один из дисков надо сделать "то" и "то", Вот такого нигде не встречал...
  22. Оно то так, но насиловать торрентами все диски жалко. В jbod в этом плане плюс что всё пишеться последовательно. И если раздаеться какой-то фильм то с одного диска, а остальные "курят трубку мира". В shr же впахивать будут все диски + проц. Минус в jbod в том, что заменить жесткий диск не так просто. Проще создать новый jbod, переносить туда инфу и добавлять диски, а потом изьять ненужный, нежели танцевать с бубном в консоли что бы нормально заменить диск.
  23. Собственно подъехали обновки... AsRock J3455-ITX + 4gb ram + StLab A480 (+2 sata). Ну и ко всему еще один жесткий на 6 тб. Буду апгрейдить имеющийся NAS. Возник вопрос выбора как запихнуть жесткие диски: SHR, Jbod или оставить синглами. Жестких будет 6 штук: 4тб (WD purple чисто для записи камер). И под данные 6+6+3+2+2 Тб (Все WD RED). Корпус Fractal Design Array R2. Сейчас все диски в синглах. Бекап важной информации делается на отдельный synology однодисковый, в котором установлен 2tb WD green. В перспективе диски под данные, которые 3+2+2 будут заменены на 6 тб. Но будет это не так скоро (места и так хватает). Но пользоваться ими как single не совсем удобно. Вопрос в том что если создать JBOD, и потом какой либо из дисков уйдёт в отказ как вытащить информацию с оставшихся? Если диск из jbod подключить к пк на нём будут показаны файлы, которые на него записаны? Понятно что в JBOD просто так заменить диск не получиться, и при замене одного диска на другой будет куча плясок с бубном что-бы этот самый jbod восстановить. Но и особо место при SHR терять не хочется (а при конфиге 6+6+3+2+2 на чётность уйдет 6 тб). RAID5 вообще не вариант на данный момент, ибо все диски разные.
  24. Та вроде бы апгрейд получаеться норм, но оставаться на встроенной сетевухе от риалтека вообще не камильфо... А слот pcie уже будет занят платой расширения sats. А в M.2 не встречал переходника под lan... Ну, что будет то будет, посмотрим. .. На крайняк буду думать о usb 3.0 сетевухе(сетевухах).
×
×
  • Create New...