Jump to content
XPEnology Community

antihrist2002

Member
  • Posts

    221
  • Joined

  • Last visited

Everything posted by antihrist2002

  1. Когда пишет Перезагрузка и пошел отсчет нужно перезагрузить сервер руками(если сам не перезагрузился в течение 30-40 сек) и загрузиться с флешки. Потом напишет запись файлов конфигурации. Что пишет сервер сейчас при загрузке с флешки? Что пишет Synology Assistant?
  2. У меня было 4 таких камеры, но мало времени. Я не смог настроить. Щас нашел вот: Немного пришлось помучаться с Surveillance Station (SS) для Synology. Однако, мастер SS смог определить камеру только после того, как в качестве исходного порта я указал порт 8899. После этого SS смог определить RTSP порты и привязаться к камере. http://blog.kvv213.com/2015/08/domashni ... 0h10l_s39/ в середине примерно. эти камеры со сторонним софтом каждые 1-7 минут отваливались.
  3. Перед этим сообщением идет обратный отсчет. Сервер за это время успевает перезагрузится? Что написано на экране сервера после перезагрузки? Порт 23 нужен чтоб техподдержка синолоджи могла удаленно зайти на вашу железку и починить.
  4. эта утилита меня стороной обошла. Заценил, достаточно удобная штука.
  5. Разгоняем сеть! 1. Подключаем нужное количество сетевых карт. Втыкаем шнурки в коммутатор. 2. Заходим в DSM -> Панель управления. В правом верхнем углу переключаем в Расширенный режим. 3. Заходим Терминал и SNMP. Включаем службу SSH. 4. Слева ищем Сеть, заходим, переключаем на Сетевой интерфейс ->Создать -> Создать Bond. Выбираем сетевые карты которые не жалко Режим Бонд - адаптивное распределение нагрузки. Ждем. Через Synology Assistant смотрим новый IP DSM если выбрали все карты(не заходит по старому адресу). 5. Заходим в Центр Пакетов. Настройки(вкладка основное), внизу - уровень доверия. Переключаем на Любой разработчик. Переключаем на вкладку источник пакетов, Добавить -> Название: SynoCommunity, Расположение: http://packages.synocommunity.com. В левом столбце появляется строчка Сообщество. Жмем, ищем Midnight Commander, устанавливаем. 6. Качаем PuTTY. Запускаем. Вводим IP-адрес DSM. Переключаем Translation в UTF-8. Жмем открыть. Пишет много букв. Жмем - Да. 7. Логин: root. Пароль: пароль от вашей учетки админа. (при вводе нет звездочек. набрали пароль вслепую - нажали enter) 8. Набрали mc и нажали enter. (Norton Commander, ностальгия) 9. Курсор стоит на /.. нажать enter, пролистать вверх до /etc -> enter. Таким же образом идем в sysconfig, потом network-scripts. Видим там ifcfg-bond0. Ставим курсор на ifcfg-bond0 и жмем F4. Получаем: DEVICE=bond0 BOOTPROTO=dhcp ONBOOT=yes BONDING_OPTS="mode=6 use_carrier=1 miimon=100 updelay=100" USERCTL=no mode=6 меняем на mode=0, жмем F2, подтверждаем сохранение. Закрываем PuTTY. Перезагружаем DSM (желательно через веб интерфейс) 10. Радуемся. Придумываем как на Windows настроить агрегацию и получить себе 2 гигабита.
  6. Вот и финал: При установке В /etc/sysconfig/network-scripts/ifcfg-bond0 mode=0, качает через обе сетевухи.
  7. Вот и первые результаты: Адаптивное распределение нагрузки - качает только через одну сетевуху. В /etc/sysconfig/network-scripts/ifcfg-bond0 ставит mode=6. IEEE 802ad Dynamic Link Aggregation - протестировать не могу, нет коммутатора с поддержкой этой фичи. Продолжаю: Распределение XOR - качает только через одну сетевуху. В /etc/sysconfig/network-scripts/ifcfg-bond0 ставит mode=2. Активно/режим ожидания - качает только через одну сетевуху. В /etc/sysconfig/network-scripts/ifcfg-bond0 ставит mode=1. (как и ожидалось)
  8. Я рад, что дискуссия повернула в конструктивное русло. Последний раз тестировал агрегацию в DSM 5.0-4528 update 2. Сейчас нет под рукой таких дисков, чтоб получить 200 мегабайт/сек. Собрал тестовый конфиг с загрузчиком XPEnoboot_DS3615xs_5.2-5592.2 и DSM 5.2-5592 update 4. 2 сетевухи реалтек по 100 мегабит и жестяк сигейт на 250Гб. Протестирую и отпишусь.
  9. Начну с конца. 100+1000 в round-robin работают отлично. jumbo frame работает только при гигабитных линках. Как "шумит" сетевая карта мне не понятно. Есть старые гигабитные сетевухи которые жмут только 400-600 мегабит, но у них просто проц слабый. То что винда показывает гигабит - да, не говорит не о чем. Копирование файла в Far или Total Cammander со скоростью 95-102 Мегабайта/сек говорит обо всем остальном. В случае агрегации 195 Мегабайт/сек. Производительность порта в 3000 пакетов/сек это сильно! какой размер пакета? при виндовом пакете 1500 байт - это 4,5 мегабайта/сек... Если это jumbo frame 9000 байт - то 27 мегабайт/сек. какой-то странный гигабит у тебя. Оптика отличается от меди только физикой. Оптика может быть длиной несколько километров. На оптику не влияют электромагнитные волны. Все. Не надо приписывать оптике чудесных свойств. У оптики одно преимущество перед медью - ее длина. При гигабитных линках узкое место обычно это диски на сервере.
  10. ну, да. просто нужно 2 ОДИНАКОВЫХ сетевухи от 2000р. Gigabit CT Desktop Adapter И нет поддержки round-robin. (AFT) отказоустойчивость адаптеров Switch Fault Tolerance (SFT) Адаптивная балансировки (ALB)(Только основной адаптер получает входящий трафик. / Мультивещания и протоколы без маршрутизации передаются только через главный адаптер в группе) Прием (RLB) балансировки нагрузки (поддерживая прием через 2-8 портов с разных адресов. Может использоваться только совместно с ALB.) Я это все читал. Оно не настраивается. Нужно скачивать/ставить другие драйвера, спец прогу для управления этими драйверами. После объединения в Центре управления сетями и общим доступом в винде то ли пропадают две карты и появляется одна, то ли третья появляется, но трафик идет только через одну... кароче не заработало оно у меня ни разу. Сними видео с настройкой и работой я с удовольствием научусь.
  11. На никсах хорошо тем что можно втыкать любые сетевухи в бонд:100+100, 1000+1000, 100+100+100, 1000+100+100, например. Подходит любой свич. В винде агрегация называется nic teaming, но я не смог настроить на своем железе. По мануалам для винды читал что нужно 2 одинаковых интеловских сетевухи, Windows Server, и управляемый свич с поддержкой 802.3ad. Нафиг такое счастье. У себя использую round-robin в основном когда у сервера есть запас по скорости, а сетка в офисе 100Мегабит. Менять на гигабит нет смысла т.к. десктопы 100Мб. Тогда в сервер втыкается еще 2 100Мб сетевухи по 150р. И тогда получается: было 100Мб на 15 клиентов, а стало 300Мб на 15 клиентов. Хотя по факту все 15 одновременно не качают и получается для одного взятого клиента в среднем скорость с 40мегабит/с вырастает до 65.
  12. Десктопы жмут свой гигабит (упираются в скорость одного гигабитного линка). Я изменил диск в предыдущем сообщении. Есть у меня сервер на котором стоит 6 WD10EFRX в RAID-5. Скорость массива 500 мегабайт/сек. В сервере живет интегрированный реалтек и какая-то PCI-E x1 гигабитная сетевуха в round-robin. На десктопе БольшогоБосса убунту и 2 сетевухи в round-robin. фильмы с/на сервер копируются 195 мегабайт/сек. Если добавить еще по одной сетевухе скорость станет 280 мегабайт/сек. и так до тех пор пока не упрется в скорость дисков или производительность коммутатора. Есть небольшое уточнение. Файлы копируются с/на сервер с такой скоростью только при наличии на десктопе SSD.
  13. RAID-5 на четырех WD30EFRX вполне жмет 280 мегабайт/сек. На этом сервере материнка с SATA-II и больше выжать просто нельзя.
  14. Если скорость передачи упрется в скорость дисков - это будет видно в: Мониторинг ресурсов -> Диск (утилизация больше 90%) Естественно скорость нужно проверять на больших файлах (например фильмах). Проверить внутреннюю скорость массива можно подключившись по SSH. У меня, например: cd /volume2/1Tb/Movies/ ls cp Django.Unchained.2012.BDRip.AVC.mkv /dev/null и в веб интерфейсе посмотреть: Мониторинг ресурсов -> Диск -> выбрать скорость передачи справа (вместо Утилизация). Может кто знает как обойтись без веб интерфейса?
  15. Если вы делаете bonding через веб интерфейс синолоджи, то это бонд для отказоустойчивости. Защита от повреждения кабеля или выхода из строя порта/коммутатора. Для кратного увеличения пропускной способности нужно использовать режим Round-robin. Чтобы его включить идем: /etc/sysconfig/network-scripts/ifcfg-bond0 (при созданном bond интерфейсе) и видим : DEVICE=bond0 BOOTPROTO=static ONBOOT=yes BONDING_OPTS="mode=4 use_carrier=1 miimon=100 updelay=100 lacp_rate=fast" USERCTL=no IPADDR=192.168.1.20 NETMASK=255.255.255.0 Нас интересует mode=4. Для увеличения пропускной способности нужно сделать mode=0 и перезагрузится. Что интересно - данный режим также обеспечивает отказоустойчивость (подергайте линки при скачивании файлов). Подробнее можно почитать: Teaming (bonding) на Debian Linux (по русски) Using Balance-rr with synology (English) Для использования Balance-rr никакие специальные коммутаторы или сетевые карты не нужны. Работает даже на 100 мегабитных реалтеках. Для тестов нужно 2-3 компа которые будут тянуть с сервера и быстрый массив на сервере. Как сделать Balance-rr на принимающей стороне особенно на Windows я незнаю. Для проверки на windows я ограничивал скорость портов на сервере до 100 мегабит (3 сетевухи), а принимал на windows при включенном гигабите и получал 300 мегабит скорость.
  16. все отчеты настраиваются в Панель управления -> Уведомления. Почта/SMS, очень много галочек
  17. у меня на DSM 5.0-4528 Update 2 работает только обычные файлы. уровень блоков ни один ни второй у меня не подключаются с винды
  18. внешние/внутренние диски определяются /etc/synoinfo.conf /etc.default/synoinfo.conf esataportcfg="0x0000" internalportcfg="0x3fffff" usbportcfg="0xf000000" параметры подбирать в зависимости от конфига виртуалки
  19. наверное уже поздно, но пусть это будет в одном месте. https://www.synology.com/en-us/knowledgebase/faq/579 http://habrahabr.ru/sandbox/36821 http://serverfault.com/questions/568166/how-to-recover-an-mdadm-array-on-synology-nas-with-drive-in-e-state
  20. Внешние (USB) диски/флешки могут быть fat/ntfs. Внутренние мало того что в ext4 так еще и LVM. Как вариант один диск под систему, а про остальные диски можно заставить DSM думать что они внешние.
  21. Пользуюсь ippon smart power pro 1000 black. DSM 5.0-4528 Update 2
×
×
  • Create New...