Magnetic

Transition Members
  • Content Count

    15
  • Joined

  • Last visited

Community Reputation

0 Neutral

About Magnetic

  • Rank
    Newbie
  1. У меня 4 по 4tb. Точно знаю что возможно и по 8tb, где то читал что и 12tb работают.
  2. Заметил тут, 11 часов режется 10 рейд из 4х 4тб дисков, полез в мониторинг ресурсов, а там странность, 4 диск, который был заменён, утилизирован на 100% а другие нет. Сегодня утром переустановил Synology с нуля, устал ждать ребилд 10 рейда прошлой установки когда 4 диск обнаружил сбой. Почему такая разница? может с диском что не так?))) этот 4 диск отличается годом выпуска (2 года), он помоложе, и по часам наработал втрое меньше старых.
  3. А на Nginx нужно проксипасить на 5000 или 5001 порт, если галку поставить? Наткнулся на такую инфу: народ рекомендовал делать проброс порт в порт именно этих: 80 - 80 443 - 443 5000 - 5000 5001 - 5001 Но это если 80 и 443 порт никем не занят, а тогда и сертификат можно получать на самой Synology. А в моём случае, с отдельным Nginx внутри сети на который уже проброшены 80 и 443 порты снаружи, на роутере нужно пробросить только 5000 и 5001 порт на внутренний ip-адрес Synology? Или если поставить галку то вообще только 5001? Я всё правильно по
  4. Я проверял в мониторинге ресурсов, есть ли напруга на диски, нету. Так же смотрел и в File Station, рефрешил папочки в куда копировал, ничего нового не появлялось. Мне кажется что то я в настройках в это время ковырнул, оно и сбросилось, но это не точно)
  5. Нет нет, с авторизацией конечно. Страшновато, т.к. сертификат получен не в самой Synology, а на отдельном Nginx внутри сети, который публикует в мир доступ к DSM по https, ведь сама Synology никак не знает что к ней извне ходят по https. Если это учесть, галка предложенная вами, не оборвёт мне доступ к вебморде Synology? И нужно ли в Nginx проксипасить на 5001 порт, а не как сейчас у меня на 5000, или в моём случае это не принципиально?
  6. Диск заменил, вытащил из сервака с ProxMox, диск был в составе Raid1 исключительно для бекапов виртуалок. Synology диск принял, поругался, предложил восстановление массива, не стал возражать. Процесс восстановления очень удивил временем на восстановление, прошло уже пару часов, а процентики капают еле еле: Для такого объёма диска это нормально? А ещё заметил пару раз непоняточку, при копировании с внешнего диска внутри Synology, процесс копирования, который прятался в "Задача в фоновом режиме", спустя какое то время просто исчезал, как будто и небыло никакого копировани
  7. Ого какой заковыристый способ. Мне удалось методом тыка создать пользуна, ограниченного только на использование Video Station и только на чтение, в правилах доступа к приложению включил галку "включить пользовательский псевдоним" например "vs", итого получил ссылку "https://внутренний_ip/vs". Т.к. есть внутри сети Nginx, дополнительно ничего настраивать не пришлось, по внешней ссылке https://example.ru/vs попадаю на страницу авторизации, где захожу под ограниченным пользователем и сразу попадаю в Video Station и вижу все кИны. Нашёл досадный глюк в Video Station в любом браузере, если нав
  8. Понял, спасибо. Займусь заменой чуть позже, не хочется останавливать процесс копирования. А не подскажете по моему вопросу выше по Nginx? И можно ли опубликовать доступ сразу в Video Station минуя заход\авторизацию в DSM для пользователей которым хотел дать доступ исключительно для просмотра киношек?
  9. Добрый день. Построил 10 Raid из 4х дисков по 4 тб, заливая данные, обнаружилась ошибка ввода\вывода на одном из дисков. Подскажите, что будет, если заменю проблемный диск чистым таким же, как на это отреагирует Synology, она сама подскажет? Или нужно в диспетчере хранения его деактивировать, после заменить на исправный и что-то потом сделать чтобы диск встал на замену неисправному и синхронизировался в 10 рейде?
  10. Добрый день. Возникли сомнения, насчёт правильного proxy_pass на уже имеющимся в локальной сети Nginx сервера. Конфиг которого для для публикации Synology такой (секция location): location / { proxy_pass http://local_ip_synology:5000; #proxy_redirect http://local_ip_synology:5000 https://example.example.ru; нужна ли эта строка? proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; client_max_body_size 1000m;
  11. Спасибо за ответы, многое прояснилось. Жду когда сольются данные С WinSrv2019 (хоспаде наконец-то уйду от винды) на внешний 8 тб диск, что бы финально залить Synology и на на нужные харды залить инфу обратно. Впереди куча тестов, заочно прям не нарадуюсь.
  12. Скрипт отработал, кажет что теперь ксеон, 4 ядра, но ведь это не значит что он будет использовать всю мощь ксеона? будет использоваться 2 ядра? И по raid, у меня будут 4 диска по 4 tb, wd red, и они есть в поддерживаемом оборудовании, так вот, на сколько помню, в HP Microserver gen8 первые два слота в корзине 6 GB/s, 3 и 4 - 3 GB/s. Наверное тупо делать из всех 4х Raid5? И если память не изменяет Raid5 на больших объёмах так се затея, там ребилд одного из вышедшего из строя диска может ушатать весь массив.
  13. По видимости содержимого диска воткнутого на другие системы понял, проверю, нужно что бы это засело в память)) По Btrfs прочитал, буду пробовать. По тесту производительности дисков - у меня WD RED 1tb - модель хоть и рядом, но не такая что указана на приведённой вами ссылке "Список совместимых продуктов", с этим понятно. Хардов будет 4, под файловую помойку в основном и бекапы, ssd кеш наверное тут не очень нужен? виртуалок никаких не будет. Скрипт обязательно попробую. Спасибо за развёрнутые ответы и приведённые ссылки.
  14. Всем привет. Прошу совета. Установил последнюю DSM 6.2.3 На сервере включен ACHI режим дисков. В Synology созданы два массива Raid1. В "Диспетчере хранения", в "пул ресурсов хранения", во вкладке "Исправление ошибок данных" на обоих массивах - "Исправление ошибок данных не поддерживается", почему не поддерживается, потому что Xpenology? Или что-то не так настроил? Очень волнует вопрос, если один диск из массива Raid1 вдруг выйдет из строя, смогу ли я увидеть данные на выжившем диске подключив его к другому линуксу? Смотрел FreeNAS и OMV, Synology как то больше понравилась, но волнует