Jump to content
XPEnology Community

Recommended Posts

ASRock N3150-ITX вряд ли лучше, если и покупать эту фирму, то более современную, например ASRock Q1900-ITX

позволте мне вас поправить уважаемый wowan_zh

как раз таки ASRock N3150-ITX более современнее чем ASRock Q1900-ITX, по сути N3150 является "старшим братом" и продолжением успешной сериии.

 

ASRock Q1900-ITX вышел в 2013г. на базе Bay-Trail архитектур а ASRock N3150-ITX в этом году на базе уже Braswell Prozessor

[spoiler=сравнение]3150.png?psid=1

 

Edited by Guest
Link to comment
Share on other sites

3150 современнее и экономичнее чуть. Но 1900, я так понимаю, более производительнее должна быть.

http://cpuboss.com/cpus/Intel-Celeron-N3150-vs-Intel-Celeron-J1900. У меня разница в цене около 10 долларов. Не существенно. Вот и думаю пока. То ли "психануть" и взять новую 3150 или 1900, то ли D2700 б/у (говорят хватает с головой)

Link to comment
Share on other sites

Зато на Маркете она вдвое дороже ASRock Q1900-ITX.
на маркете их вообще в продаже нет, а если и появятся то с "неправильными ценами"

 

У нас разница в цене тоже около 10€

Материнские платы с процессором Intel

 

на cu если заказывать то без НДС, в тоже время внутри страны стоит естественно дороже(без учёта пересылки)

 

по производительности N3150=J1900 почти одинаковые

другие модификации

Q2900 +

N3700 +

N3050 -

 

[spoiler=новая серия Braswell поддерживает AES-Ni шифрование]asrock_n3150-itx_test_4.jpg

 

[spoiler=SATA3 Performance(Raid1)]asrock_n3150-itx_test_8.jpg

 

[spoiler=transfer speed]nas_eigenbau_2015_fr_4_hdds_7.jpg

 

[spoiler=Internal RAID Benchmark(Raid5)]nas_eigenbau_2015_fr_4_hdds_8.jpg

 

[spoiler=Самосбор по цене G8]

 

имеется ввиду или расширение sata разъёмов до 10, или расширяем сеть до 2 портов

мини PCI-E разъём как разменная монета

10 sata:

  1. 4 на плате
  2. 4 от котроллера, допустим от этого Marvell 88SE9215 4 порта - $ 43.50
  3. 2 от 2 в мини PCI-E разъём

 

nhw.png?psid=1

 

 

Воспроизведение видео H265 с 4K на ASRock N3700-ITX

Link to comment
Share on other sites

ну тогда ещё проще, не забудь черкнуть здесь потом как карта встанет

 

Прикол, продавец написал, что он ошибся и карта на самом деле не EXPI9402PTBLK, а EXPI9404PTBLK, то есть четырехпортовая, но таки low profile (специально переспросил), типа не против ли я если он мне такую пошлет. Я сказал, что не против, хотя вряд ли мне четырехпортовка реально понадобится, но за такие деньги пусть будет :smile:

Link to comment
Share on other sites

ну тогда ещё проще, не забудь черкнуть здесь потом как карта встанет

 

ДокладАю - карта пришла, встала в корпус N54L нормально, хотя немного пришлось потрахаться.

Фотки карты:

http://sergeskor.no-ip.org/Files/Tech/intel-net4-1.jpg

http://sergeskor.no-ip.org/Files/Tech/intel-net4-2.jpg

 

Самый прикол, что теперь у меня видятся все пять карт - родная и четыре новых :smile:, и все работают:

http://sergeskor.no-ip.org/Files/Tech/net5-basic-info.png

http://sergeskor.no-ip.org/Files/Tech/net5-interfaces.png

 

Пока слепил четыре новых порта в adaptive bond, естественно - со своего одного компа с обычным линком никакой разницы в скорости не увидел, поиграюсь позже с несколькими компами (своим и детскими), отпишусь, где-то наверное на неделе, уезжаю на выходные.

 

p.s. А на компе, на вин8.1, adaptive bond без проблем делается?

Link to comment
Share on other sites

А на компе, на вин8.1, adaptive bond без проблем делается?

 

у меня под рукой железа нет, интеловские карты поддерживают режим adaptive bond, инфа здесь:Использование адаптеров Intel® Advanced сетевых служб (Intel® ANS)

Link to comment
Share on other sites

А на компе, на вин8.1, adaptive bond без проблем делается?

 

у меня под рукой железа нет, интеловские карты поддерживают режим adaptive bond, инфа здесь:Использование адаптеров Intel® Advanced сетевых служб (Intel® ANS)

 

Да, я уже пожалел, что сразу две таких карты не купил :wink:

Link to comment
Share on other sites

А на компе, на вин8.1, adaptive bond без проблем делается?

 

у меня под рукой железа нет, интеловские карты поддерживают режим adaptive bond, инфа здесь:Использование адаптеров Intel® Advanced сетевых служб (Intel® ANS)

 

Купил еще одну, двухпортовую, но уже полноразмерную, для компа...

Link to comment
Share on other sites

поставил DSM 5.2-5592 на Gigabyte AMD GA-E350N http://www.gigabyte.ru/products/page/mb/ga-e350nrev_10

все завелось с первого раза,только CPU определяется как INTEL Core i3-4130 -не правильно!

 

P.S. корпус Chenbro SR30169 не кто не продает можно и Б/У чтоб по дешевле

Link to comment
Share on other sites

поставил DSM 5.2-5592 на Gigabyte AMD GA-E350N http://www.gigabyte.ru/products/page/mb/ga-e350nrev_10

все завелось с первого раза,только CPU определяется как INTEL Core i3-4130 -не правильно!

 

P.S. корпус Chenbro SR30169 не кто не продает можно и Б/У чтоб по дешевле

 

У меня тоже самое. на двух системниках

Link to comment
Share on other sites

поставил DSM 5.2-5592 на Gigabyte AMD GA-E350N http://www.gigabyte.ru/products/page/mb/ga-e350nrev_10

все завелось с первого раза,только CPU определяется как INTEL Core i3-4130 -не правильно!

 

P.S. корпус Chenbro SR30169 не кто не продает можно и Б/У чтоб по дешевле

 

У меня тоже самое. на двух системниках

 

мать такая же?

Link to comment
Share on other sites

А на компе, на вин8.1, adaptive bond без проблем делается?

 

у меня под рукой железа нет, интеловские карты поддерживают режим adaptive bond, инфа здесь:Использование адаптеров Intel® Advanced сетевых служб (Intel® ANS)

 

Купил еще одну, двухпортовую, но уже полноразмерную, для компа...

 

Пришла двухпортовая сетевушка, поставил себе в комп и начал эксперименты. Так как свич самый обычный, не поддерживает всякие lacp, то сделал на насе (четверной) и на своем компе (двойной) adaptive bond. Потом три эксперимента:

1) с одного компа тяну один файл одним потоком (пробовал и на своем компе с бондом, так и на компе ребенка).

Дает честный гигабит, хоть на моем компе, хоть на компе ребенка, хать на насе с бондом, хоть без. Что как бы и ожидается.

2) с одного компа тяну несколько файлов в несколько пареллельных потоков. Опять же суммарная скорость есть честный гигабит, хоть на моем бонданутом компе, хоть на компе ребенка, хоть на бонданутом насе, хоть нет. Опять же - что как бы и ожидается.

3) тяну один файл на свой бонданутый комп и одновременно на компе ребенка тяну другой файл. И вот тут непонятно, общая скорость все равно честный гигабит, ну может иногда чуть, процентов на 10 выше, скорее в пределах погрешности, и вот это не совсем то, что ожидается... И какой то особой разницы в случае бонданутого наса или не бонданутого - я не увидел...

 

Я немного удивился, но решил продолжить эксперименты, пошел в магазине взял "напрокат" managed switch TP jet stream TL-SG3216, подключил и нас и комп через него и продолжил эксперименты. Пробовал statis bond и lacp, делал две группы, одну на четыре порта для наса и другую на два порта для своего компа. Самое интересное, что как и в случае adaptive bond с "обычным" свичем - я какой то уж сильно заметной разницы не заметил, ну может быть не 10% суммарно, когда на двух компах (третий случай) тянешь, а целых 20%... Все равно это где в пределах точности измерений и как мне кажется овчинка выделки не стоит. Или я что-то делаю не так? :wink: Switch еще с недельку, другую подержу, поиграюсь, так что если будут какие идеи - могу потестировать.

Link to comment
Share on other sites

прирост должен быть в 3 варианте, и ещё пару факторов от которых зависит скорость это:

файлы, массивы, чем больше по количеству и объёму тем больше эффект

и конечно остальное железо, такое как проц и память могут быть узким местом

 

тесты конечно разочаровывают, хотелось бы видеть немного другие результаты.

 

а что показывает в другом направлении: с сервера на компы?

 

и с бондовского компа тянуть одновременно на другой комп и на сервер, если есть то ёщё и на другие клиенты

Link to comment
Share on other sites

Если вы делаете bonding через веб интерфейс синолоджи, то это бонд для отказоустойчивости. Защита от повреждения кабеля или выхода из строя порта/коммутатора.

Для кратного увеличения пропускной способности нужно использовать режим Round-robin.

Чтобы его включить идем: /etc/sysconfig/network-scripts/ifcfg-bond0 (при созданном bond интерфейсе) и видим :

DEVICE=bond0
BOOTPROTO=static
ONBOOT=yes
BONDING_OPTS="mode=4 use_carrier=1 miimon=100 updelay=100 lacp_rate=fast"
USERCTL=no
IPADDR=192.168.1.20
NETMASK=255.255.255.0

 

Нас интересует mode=4. Для увеличения пропускной способности нужно сделать mode=0 и перезагрузится.

Что интересно - данный режим также обеспечивает отказоустойчивость (подергайте линки при скачивании файлов).

Подробнее можно почитать:

Teaming (bonding) на Debian Linux (по русски)

Using Balance-rr with synology (English)

 

Для использования Balance-rr никакие специальные коммутаторы или сетевые карты не нужны. Работает даже на 100 мегабитных реалтеках.

Для тестов нужно 2-3 компа которые будут тянуть с сервера и быстрый массив на сервере.

Как сделать Balance-rr на принимающей стороне особенно на Windows я незнаю. Для проверки на windows я ограничивал скорость портов на сервере до 100 мегабит (3 сетевухи), а принимал на windows при включенном гигабите и получал 300 мегабит скорость.

Link to comment
Share on other sites

Далеко не все механические диски, даже собранные в массив могут обеспечить достаточную скорость передачи данных. Если посмотреть какое железо используют сами Synology для тестов, то на мощных десктопах у них стоят массивы RAID-0 из SSD.

Link to comment
Share on other sites

Если скорость передачи упрется в скорость дисков - это будет видно в: Мониторинг ресурсов -> Диск (утилизация больше 90%)

 

Естественно скорость нужно проверять на больших файлах (например фильмах).

 

Проверить внутреннюю скорость массива можно подключившись по SSH.

У меня, например:

cd /volume2/1Tb/Movies/
ls
cp Django.Unchained.2012.BDRip.AVC.mkv /dev/null

 

и в веб интерфейсе посмотреть: Мониторинг ресурсов -> Диск -> выбрать скорость передачи справа (вместо Утилизация).

 

Может кто знает как обойтись без веб интерфейса?

Link to comment
Share on other sites

Далеко не все механические диски, даже собранные в массив могут обеспечить достаточную скорость передачи данных. Если посмотреть какое железо используют сами Synology для тестов, то на мощных десктопах у них стоят массивы RAID-0 из SSD.

 

RAID-5 на четырех WD30EFRX вполне жмет 280 мегабайт/сек. На этом сервере материнка с SATA-II и больше выжать просто нельзя.

Edited by Guest
Link to comment
Share on other sites

Далеко не все механические диски, даже собранные в массив могут обеспечить достаточную скорость передачи данных. Если посмотреть какое железо используют сами Synology для тестов, то на мощных десктопах у них стоят массивы RAID-0 из SSD.

 

RAID-5 на четырех WD3000FYYZ вполне жмет 280 мегабайт/сек. На этом сервере материнка с SATA-II и больше выжать просто нельзя.

Согласен. Сервер возможно и жмет при определенных условиях. А десктопы?

Link to comment
Share on other sites

Десктопы жмут свой гигабит (упираются в скорость одного гигабитного линка). Я изменил диск в предыдущем сообщении.

 

Есть у меня сервер на котором стоит 6 WD10EFRX в RAID-5. Скорость массива 500 мегабайт/сек.

В сервере живет интегрированный реалтек и какая-то PCI-E x1 гигабитная сетевуха в round-robin.

На десктопе БольшогоБосса убунту и 2 сетевухи в round-robin. фильмы с/на сервер копируются 195 мегабайт/сек.

Если добавить еще по одной сетевухе скорость станет 280 мегабайт/сек. и так до тех пор пока не упрется в скорость дисков или производительность коммутатора.

 

Есть небольшое уточнение. Файлы копируются с/на сервер с такой скоростью только при наличии на десктопе SSD.

Link to comment
Share on other sites

я так понимаю что все это справедливо только для никсов - так как на винде даже при наличии у обоих компов быстрых рейдов и по паре серверовых интеловских сетевух скорость больше гигабита не выходит. только при подключении точка-многоточка поднимается до 140-160мбайт

Link to comment
Share on other sites

  • Polanskiman pinned this topic
  • XPEH locked, unlocked and locked this topic
Guest
This topic is now closed to further replies.
×
×
  • Create New...