Jump to content
XPEnology Community

toleeck

Member
  • Posts

    53
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by toleeck

  1. очень удачно у вас вышел докер! спасибо! осталось только чуть подчистить плейлист под свои нужды, убрав неиспользуемое, и названия групп каналов из скобок в названиях каналов перебросить в group-title="groupname"
  2. вот тут собственно инструкция, ссылки на патч в том же посте
  3. - Результат: Успешно - Версия до обновления: DSM 6.1.5-15254 - Версия текущая: DSM 6.1.6 - 15266 - Версия и модель загрузчика: JUN'S LOADER v1.02b - DS3615s - Дополнительные модули extra.lzma: NO - Тип инсталяции: На железе (hp gen8 xeon 1270v2) - Короткий комментарий: с перезагрузкой
  4. в итоге снести эту папку и установить всё с начала оказалось проще, чем лезть на антресоль. спасибо за помощь. теперь наблюдаю за этим разделом.
  5. я попробую оба варианта, спасибо ребята за подсказки. но вот почему-то не вижу папки defaults в etc ls /etc root@skyb0t:~# ls -lh /etc total 676K -rw-r--r-- 1 root root 423 Nov 10 18:34 afp.conf drwxr-xr-x 2 root root 4.0K Feb 1 23:28 apparmor drwxr-xr-x 6 root root 4.0K Mar 12 16:54 apparmor.d drwxr-xr-x 3 root root 4.0K Feb 2 07:31 avahi drwxr-xr-x 2 root root 4.0K Feb 1 23:28 bluetooth -rw-r--r-- 1 root root 7.2K Nov 10 18:46 ca-certificates.conf drwxr-xr-x 2 root root 4.0K Feb 1 23:28 cron.d -rw-r--r-- 1 root root 317 Mar 5 09:39 crontab drwxr-xr-x 3 root lp 4.0K Feb 2 07:30 cups drwxr-xr-x 4 root root 4.0K Feb 2 07:30 dbus-1 -rw------- 1 root root 106 Feb 1 23:28 ddns.conf -rwxr-xr-x 1 root root 4.3K Nov 10 18:33 ddns_provider.conf drwxr-xr-x 3 root root 4.0K Feb 1 23:28 debsig drwxr-xr-x 4 root root 4.0K Feb 2 07:30 dhclient drwxr-xr-x 2 root root 4.0K Feb 1 23:27 dhcpc drwxr-xr-x 2 root root 4.0K Feb 16 07:54 dhcpd -rw-r--r-- 1 root root 786 Nov 10 18:32 disk_adv_status.conf drwxr-xr-x 3 root root 4.0K Feb 1 23:28 dpkg -rw------- 1 root root 466 Mar 12 16:14 exports -rw------- 1 root root 985 Mar 8 21:31 exports_map -rw------- 1 root root 466 Mar 12 16:14 exports_syno -rw-r--r-- 1 root root 27 Nov 10 18:54 extensionPorts -rw-r--r-- 1 root root 25K Nov 10 18:34 extmap.conf drwxr-xr-x 2 root root 4.0K Nov 10 18:38 firewall -rw-r--r-- 1 root root 233 Mar 12 16:53 fstab -rw-r--r-- 1 root root 27 Feb 17 2017 ftpusers -rw-r--r-- 1 root root 212 Nov 10 18:44 fuse.conf drwxr-xr-x 3 root root 4.0K Feb 2 07:30 fw_security drwxr-xr-x 2 root root 4.0K Feb 1 23:28 gogoc -rw-r--r-- 1 root root 742 Mar 12 16:53 group -rw-r--r-- 1 root root 676 Mar 8 23:41 group- -rw------- 1 root root 742 Mar 12 16:53 group.cfgen.bkp -rw-r--r-- 1 root root 742 Mar 12 16:38 group.cps -rw-r--r-- 1 root root 163 Mar 12 16:38 group_desc -rwxr-xr-x 1 root root 840 Nov 10 18:32 gssapi_mech.conf drwxr-xr-x 3 root root 4.0K Feb 2 07:30 hostapd -rw-r--r-- 1 root root 17 Nov 10 14:14 host.conf -rw-r--r-- 1 root root 7 Mar 8 22:45 hostname -rw-r--r-- 1 root root 145 Mar 8 22:45 hosts -rw-r--r-- 1 root root 161 Nov 10 14:14 hosts.allow -rw-r--r-- 1 root root 347 Nov 10 14:14 hosts.deny -rwxr-xr-x 1 root root 3.5K Nov 10 18:33 idmapd.conf drwxr-xr-x 2 root root 4.0K Feb 2 07:30 ImageMagick-6 -rw-r--r-- 1 root root 56 Nov 10 14:14 inetd.conf lrwxrwxrwx 1 root root 15 Feb 2 07:30 init -> /usr/share/init drwxr-xr-x 4 root root 4.0K Feb 2 07:30 iproute2 drwxr-xr-x 10 root root 4.0K Feb 1 23:28 ipsec.d drwxr-xr-x 2 root root 4.0K Feb 1 23:28 iscsi -rw-r--r-- 1 root root 3.5K Nov 10 18:46 lftp.conf lrwxrwxrwx 1 root root 40 Mar 12 16:54 libvirt -> /var/packages/Virtualization/etc/libvirt -rw-r--r-- 1 root root 1.6K Mar 8 22:30 localtime -rw-r--r-- 1 root root 164 Jan 15 04:48 logrotate.conf drwxr--r-- 2 root root 4.0K Feb 2 07:30 logrotate.d drwxr-xr-x 2 root root 4.0K Feb 1 23:28 lsyncd drwxr-xr-x 3 root root 4.0K Feb 2 07:30 lvm -rw-r--r-- 1 root root 974 Nov 10 18:32 mke2fs.conf -rw-r--r-- 1 root root 206 Nov 10 14:14 modules.conf lrwxrwxrwx 1 root root 17 Mar 12 16:53 mtab -> /proc/self/mounts drwxr-xr-x 2 root root 4.0K Feb 1 23:49 netatalk -rwxr-xr-x 1 root root 767 Nov 10 18:33 netconfig drwxr-xr-x 2 root root 4.0K Feb 2 07:55 nfs drwxr-xr-x 2 root root 4.0K Mar 12 16:54 nginx -rw-r--r-- 1 root root 283 Nov 10 14:14 nsswitch.conf -rw-r--r-- 1 root root 183 Mar 8 22:31 ntp.conf -rw-r--r-- 1 root root 0 Nov 10 18:49 ntp.conf.user drwxr-xr-x 2 root root 4.0K Feb 20 07:33 pam.d -rw-r--r-- 1 root root 1.7K Mar 12 16:38 passwd -rw-r--r-- 1 root root 1.5K Mar 5 09:43 passwd- -rw------- 1 root root 1.7K Mar 12 16:38 passwd.cfgen.bkp drwxr-xr-x 2 root root 4.0K Mar 8 22:31 php drwxr-xr-x 2 root root 4.0K Nov 10 18:32 portforward drwx------ 3 postgres postgres 4.0K Mar 12 16:54 postgresql drwxr-xr-x 2 root root 4.0K Mar 8 22:35 ppp -rw-r--r-- 1 root root 532 Feb 17 2017 profile -rw-r--r-- 1 root root 398 Nov 10 14:14 protocols -rw-r--r-- 1 root root 140 Mar 8 22:45 proxy.conf -rwxr-xr-x 1 root root 19K Feb 2 07:31 rc -rwxr-xr-x 1 root root 1.2K Nov 10 14:14 rc.check_device_busy -rwxr-xr-x 1 root root 2.9K Nov 10 14:14 rc.check_device_busy2 -rwxr-xr-x 1 root root 2.3K Nov 10 18:42 rc.fan -rw-r--r-- 1 root root 575 Feb 1 23:28 rc.modules -rwxr-xr-x 1 root root 50K Dec 8 00:05 rc.network -rwxr-xr-x 1 root root 9.0K Nov 10 14:14 rc.network_dualhead -rwxr-xr-x 1 root root 393 Feb 17 2017 rc.network_routing -rwxr-xr-x 1 root root 3.5K Nov 10 18:42 rc.sas -rwxr-xr-x 1 root root 4.7K Nov 10 14:14 rc.scanusbdev -rwxr-xr-x 1 root root 37K Feb 1 23:28 rc.subr -rwxr-xr-x 1 root root 6.3K Nov 10 14:14 rc.volume -rw-r--r-- 1 root root 148 Nov 10 18:54 rc.wifi -rw-r--r-- 1 root root 38 Feb 16 07:35 resolv.conf -rw------- 1 root root 38 Feb 16 07:35 resolv.conf.static -rw-r--r-- 1 root root 141 Nov 10 18:48 rsyncd.conf -rw------- 1 root root 1 Nov 10 18:48 rsyncd.secrets drwxr-xr-x 3 root root 4.0K Mar 13 09:28 samba lrwxrwxrwx 1 root root 58 Mar 12 16:54 sasl2 -> /var/packages/Virtualization/target/etc/sasl2/libvirt.conf -rw-r--r-- 1 root root 155 Nov 10 14:14 securetty drwxr-xr-x 2 root root 4.0K Feb 1 23:28 security -rw-r--r-- 1 root root 20K Nov 10 14:14 services -rw------- 1 root root 1.5K Mar 12 16:38 shadow -rw------- 1 root root 1.5K Mar 12 16:38 shadow.cfgen.bkp -rw-r--r-- 1 root root 98 Nov 10 14:14 shells drwxr-xr-x 2 root root 4.0K Feb 2 07:57 snmp drwx------ 2 root root 4.0K Mar 12 16:53 space drwxr-xr-x 2 root root 4.0K Feb 2 07:57 ssh drwxr-xr-x 4 root root 4.0K Feb 2 07:30 ssl drwxr-xr-x 2 root root 4.0K Feb 1 23:28 ssmtp -r--r----- 1 root root 438 Jan 15 04:41 sudoers -rw-r--r-- 1 root root 6.7K Nov 10 18:31 support_ssd.db -rw-r--r-- 1 root root 11K Mar 12 16:17 synoappprivilege.db -rw------- 1 root root 5.0K Feb 1 23:35 synoautoblock.db -rw-r--r-- 1 root root 8.5K Mar 12 23:05 synoinfo.conf -rwxr-xr-x 1 root root 2.6K Nov 10 18:36 synopackageslimit.conf drwxr-xr-x 2 root root 4.0K Feb 1 23:28 synosyslog -rw-r--r-- 1 root root 968 Nov 10 18:43 synotoprc -rw-r--r-- 1 root root 77 Mar 12 16:38 synouser.conf drwxr-xr-x 4 root root 4.0K Feb 1 23:28 sysconfig -rw-r--r-- 1 root root 99 Nov 10 18:54 sysctl.conf drwxr--r-- 3 system log 4.0K Mar 12 16:53 syslog-ng drwxr-xr-x 2 root root 4.0K Feb 2 07:30 tc -rw-r--r-- 1 root root 2.8K Nov 10 14:14 termcap -rw-r--r-- 1 root root 6 Mar 8 22:30 TZ -rw-r--r-- 1 root root 142 Nov 10 18:33 uniconf.conf drwxr-xr-x 2 root root 4.0K Feb 1 23:28 ups -rwxr-xr-x 1 root root 156 Jan 26 03:32 VERSION -rw-r--r-- 1 root root 784 Jan 15 04:42 vimrc -rw-r--r-- 1 root root 4.8K Nov 10 18:49 wgetrc Hide
  6. хотелось бы сказать, что ничего не делал, что "оно само". на самом деле я возвращался с esxi на голое железо, система свеженькая, меньше недели крутится. microserver gen8 xeon 1270v2, корзина в ahci, в odd лежит ssd. пара небольших виртуалок в vmm, трансмишн, докер и клаудсинк, больше ничего. я конечно могу предположить, что на каком-то из жёстких дисков остались следы той xpenology, которая стояла внутри виртуалки на esxi, и в какой-то момент synology assistant даже показал третий сервер без опознавательных знаков (без версии, без ip, без предложения восстановиться, но с таким же именем), но сейчас их два (сервер двумя проводами воткнут в домашнюю сеть) и всё работает штатно. возможно эта ошибка вылезла в момент инициализации этого самого диска с следами старой виртуальной xpenology? но сейчас я не могу повторно выйти на эту же ошибку, то есть "оно само" и прошло. просто тогда вдогонку вопрос: на dsm 6.1.5 df -h от рута что выдаёт у общественности? у всех /dev/md0 такого размера и забит на 100%?
  7. есть очень сильно похожее обсуждение, но в архиве, и там пятая dsm, а у меня шестая. пробовал включать/выключать виртуалки - этот раздел не меняется, как был 100% (2,3 Гб) так и остался. ### работает одна вм с 512 озу root@skyb0t:~# df -h Filesystem Size Used Avail Use% Mounted on /dev/md0 2.3G 2.3G 0 100% / none 5.9G 0 5.9G 0% /dev /tmp 5.9G 804K 5.9G 1% /tmp /run 5.9G 3.3M 5.9G 1% /run /dev/shm 5.9G 4.0K 5.9G 1% /dev/shm none 4.0K 0 4.0K 0% /sys/fs/cgroup cgmfs 100K 0 100K 0% /run/cgmanager/fs /dev/md4 1.8T 78M 1.8T 1% /volume2 /dev/mapper/cachedev_0 2.7T 1.6T 1.2T 58% /volume1 tmpfs 1.0T 512M 1.0T 1% /dev/virtualization shm 64M 0 64M 0% /volume1/@docker/containers/c9318eb370e71f52b94961eedfdfe774e9497ffa55ccf96f595197835d551675/shm ### работает две вм в сумме 2 гб озу root@skyb0t:~# df -h Filesystem Size Used Avail Use% Mounted on /dev/md0 2.3G 2.3G 0 100% / none 5.9G 0 5.9G 0% /dev /tmp 5.9G 808K 5.9G 1% /tmp /run 5.9G 3.3M 5.9G 1% /run /dev/shm 5.9G 4.0K 5.9G 1% /dev/shm none 4.0K 0 4.0K 0% /sys/fs/cgroup cgmfs 100K 0 100K 0% /run/cgmanager/fs /dev/md4 1.8T 78M 1.8T 1% /volume2 /dev/mapper/cachedev_0 2.7T 1.6T 1.2T 58% /volume1 tmpfs 1.0T 2.0G 1022G 1% /dev/virtualization shm 64M 0 64M 0% /volume1/@docker/containers/c9318eb370e71f52b94961eedfdfe774e9497ffa55ccf96f595197835d551675/shm может этот раздел в шестой версии dsm и должен быть всегда под 100%? а та ошибка с которой я столкнулся (и которая в точности описана в архивном сабже) связана с чем-то другим?
  8. изначально столкнулся с невозможностью войти в веб-интерфейс xpenology с убеждением, что системный раздел переполнен. из консоли тогда перезагрузился. проблема осталась. но больше в консоль меня не пускало под этим пользователем. глянул, а там такое: root@skyb0t:~# df -h Filesystem Size Used Avail Use% Mounted on /dev/md0 2.3G 2.3G 0 100% / none 5.9G 0 5.9G 0% /dev /tmp 5.9G 796K 5.9G 1% /tmp /run 5.9G 3.8M 5.9G 1% /run /dev/shm 5.9G 4.0K 5.9G 1% /dev/shm none 4.0K 0 4.0K 0% /sys/fs/cgroup cgmfs 100K 0 100K 0% /run/cgmanager/fs /dev/mapper/cachedev_0 2.7T 1.6T 1.2T 58% /volume1 tmpfs 1.0T 2.0G 1022G 1% /dev/virtualization shm 64M 0 64M 0% /volume1/@docker/containers/c9318eb370e71f52b94961eedfdfe774e9497ffa55ccf96f595197835d551675/shm shm 64M 0 64M 0% /volume1/@docker/containers/2b5e5b20733192285a9c862cc9da1d1ecd53479824298174cc714ee66b662717/shm shm 64M 0 64M 0% /volume1/@docker/containers/26a9acfa58ce3e1b3e0c87b8a4584f54fc57abfc77afaa77e02b7733f20b473f/shm shm 64M 0 64M 0% /volume1/@docker/containers/f0259bfd4236c03028895df41804ae16176bdb6ee81e1d61b86cadf5d79fa744/shm /dev/md4 1.8T 77M 1.8T 1% /volume2 du выдаёт root@skyb0t:~# du -sh /* 0 /1 0 /bin 0 /config 2.1G /dev 8.2M /etc 7.3M /etc.defaults 4.0K /initrd 0 /lib 0 /lib32 0 /lib64 4.0K /lost+found 4.0K /mnt du: cannot access ‘/proc/23668/task/23668/fd/4’: No such file or directory du: cannot access ‘/proc/23668/task/23668/fdinfo/4’: No such file or directory du: cannot access ‘/proc/23668/fd/4’: No such file or directory du: cannot access ‘/proc/23668/fdinfo/4’: No such file or directory 0 /proc 152K /root 3.3M /run 0 /sbin 0 /sys 768K /tmp 861M /usr 51M /var 5.8M /var.defaults 1.6T /volume1 596K /volume2 1.3G /volume3 16K /volumeUSB1 то что в в /dev там /dev/virtualization/libvirt/qemu/ два файла, типа оперативка виртуалок, насколько я понимаю. грохнуть их чтоли? впервые с виртуалками на vmm столкнулся ) или куда копать, почему раздел забился так?
  9. сорян, ошибся веткой видимо. изначально показалось что антресольные хранилища обсуждаем. сервак за миллион думаю лучше вообще не гасить, а организовать инфраструктуру с бесперебойным питанием.
  10. да, я именно это и имел в виду, только в отношении винды на виртуалке, то есть я бы не доверил ей такого
  11. да, завести отдельную виртуалку с виндой для управления питанием видимо нормальное дело. ещё есть apcupsd, ещё есть более универсальный, в плане совместимости с ибп, nut. можно на отдельный хост это добро вынести, например raspberry доверить это дело. но как-то это не правильно я считаю. меня, когда я с этим столкнулся, очень сильно удивило.
  12. спасибо за внимание товарищи. обдумываю теперь пути возврата с esxi на железо )) как теперь малой кровью подготовить данные которые внутри vmdk для того, чтобы впоследствии увидеть их на железной xpenology? добавлю ещё один минус использования esxi для домашних нужд начинающими пользователями - из коробки система не умеет взаимодействовать с ups. то есть система не потушит корректно виртуальные машины и саму себя после отключения электричества по сигналу от ибп.
  13. (извините много букв, прошу разъяснить про виртуальные машины новичку) я изначально использовал xpenology на голом железе в hp microserver gen8 (стоковый celeron 4+8 Гб ram). пара первых рейдов с ext4 организованных самой xpenlogy были, ssd-кэш для чтения пробовал делать. c btrfs экспериментов не проводил. в целом всё выглядело вполне надёжно: загрузчик на sd-карточке, с неё грузился, в случае чего, карточка менялась, на неё залилвался такой же загрузчик. сама xpenology получалась какбы размазана по всем hdd, то есть если какой-то выходил из строя, то даже установленные пакеты не переставали функционировать после устранения неполадки. недавно был заменён процессор на xeon 1270v2. с установкой нового процессора решил расширить горизонты своих познаний и перейти на esxi. для этого у hp есть даже спец образ. его прекрасно установил на sd-карточку, с которой система загружается. не то чтобы сразу, но всё что хотелось реализовать получилось: крутится xpenology, рядом пара debian'ов. с rdm и прочими толстыми виртуальными дисками кое-как разобрался. в производительности hdd немного сомневаюсь, но для текущих нужд пока это не критично. usb 3.0 не работает - вот это засада, но пользуюсь им не часто, поэтому пока не обращаю внимание на это (хотя когда надо, хочется, конечно, чтобы "оно" побыстрее копировалось). так вот вопрос: я понимаю, общественность утверждает что esxi в отличие от proxmox больше заточена под установку на sd-карточки. но всё же, сдохнет карточка, ну не через месяц, но через полгода точно. и что меня ждёт? как-то можно снимать образы с этой карточки, чтобы в случае чего восстановить всё "как было"? тут конечно кто-то скажет, что можно нагородить рейд для esxi, но в моём случае это слишком расточительно. и я размышляю дальше. есть ведь virtual machine manager. который synology, позиционируют как гипервизор. судя по всему там имеют место проблемы с динамическим распределением ресурсов оперативной памяти. но если прикинуть, так, на вскидку, если завести это дело на raid1 с btrfs на текущем железе (3,5 ггц 4 ядра, 8 потоков, 12 гб озу) и крутить там 3-4 виртуальных машины на линуксе для домашних экспериментов, хватит ведь ресурсов (им ведь будет выдаваться отдельные ip роутером? свобод докера, кажется, мне не хватает)? в целом я конечно склоняюсь к xpenology на чистом железе, но сомневаюсь из-за поверхностных знаний. спасибо за внимание.
  14. это dell mx714. на ебее много их. может будет кто-то заказывать в краснодар, я б приобщился
  15. вы видео-то смотрели которое прикрепили (06:50)? и вы плохо поняли для чего нужен ilo, через него вы не сможете управлять своим nas. ilo может вообще никогда и не понадобится, так зачем тогда порт занимать в роутере? а вообще, смотря какие задачи у вас. можно и трёмя патчкордами прицепить, чтобы обе сетевые карты как одна молотили, или развести разные сервисы на разные интерфейсы. а так, да, одного патчкорда вполне достаточно.
  16. для gen8 последняя версия ilo4 - 2.55. ilo5 не поддерживает gen8. да, только который 8.1 (5,44 Gb). вот это всё можно вообще и не трогать. так, для спокойствия души разве что.
  17. устанавливайте всё последних версий: dsm 6.1.5, программные потроха можете обновить с помощью hpe spp. для нашего микросервера он сейчас как-то типа spp gen8.1 называется (там образ, его на флешку и с неё загрузиться). загрузчик тот который для 3615 берите, его на sd-карточку заливайте и с неё грузитесь. мануал тут же на форуме в теме с jun's mod.
  18. товарищи, а подскажите: у меня есть мысли обновить свой gen8 (G1610T) с 6.0.2-u8 на текущую 6.1.3. проделывал похожую операцию около года назад и с тех пор не возвращался к этому вопросу, а сейчас смотрю, у некоторых без бубна не обходится. как делали вы, что у вас всё прошло удачно? sd-карточку (которая на мат плате) делаем загрузочной с jun's mod 1.02b (возможно редактируем vid/pid из предыдущего загрузчика, quickconnect не интересует) и далее через ассистента, запущенном на каком-нибудь другом компьютере, обновляемся с ручным указанием пути к dsm_ds3615xs_15152.pat, так, по-старинке? или через удалённую консоль ilo суёте загрузчика (тоже такие методы попадались на глаза)?
  19. на dot.tk можно бесплатно зарегистрировать на год (с последующим бесплатным продлением при активности) домен второго уровня в экзотических географических зонах. мб кому-то пригодится.
  20. да. аналогичная ситуация с этим ИБП. не ясно в чём проблема, но ведёт именно так: после отключения электричества сервер выключается, тушит ИБП, а тот через несколько секунд включается и запускает сервер, и так пока не разрядится полностью.
  21. возможно стоит обновить сам микросервер. есть загрузочные образы HP SPP, которые позволяют скопом обновить всё. последняя версия вроде 2016.10.0. там делается загрузочная флешка, с которой запускается процесс обновления. на рутрекере есть раздача. даже без монитора/клавиатуры обойтись можно (по умолчанию из меню запускается обновление, которое занимает минут десять), а потом уже по ilo можно проверить как обновления накатились на биос и т.д.
  22. с чего вы взяли что я знаток и гений? здесь форум, люди делятся своим опытом и я высказал своё мнение по поводу вашего решения, а не придирался. извините, если задел ваше самолюбие.
  23. и что с того что я тут только что появился? продуктами synology я пользуюсь тоже с 2013 года, а сюда пришёл когда решил отказаться от пропиретарного железа, но от dsm отказываться не стал. а так у меня вообще 49,5 см. но речь ведь об этом? зачем вы даёте людям заведомо проигрышные советы с костылями из дополнительных хранилищ и компьютеров? для вас это вероятно удобнее, но предлагать решения для позапрошлых версий и выдавать их как актуальные считаю не правильным. поэтому два раза и уточнил к чему такие ухищрения.
×
×
  • Create New...