Пользователь
0,0
рейтинг
29 октября 2012 в 19:06

Опыт сборки eGPU и его взаимодействие с ноутбуком из песочницы

Введение



Добрый день, уважаемое хабро-сообщество. По профессии я человек далёкий от IT, однако, практически все, так или иначе касающиеся данной сферы статьи мне очень интересны, поскольку в душе я тот еще гик.

Как вы, наверное, уже успели заметить, данная статья далеко не первая, посвящённая теме eGPU. Вполне возможно, что в моей статье вы найдёте мало интересного, но, тем не менее, я хочу поделиться своим опытом, результаты которого меня впечатлили. Прошу под кат (внимание трафик!)…

Однажды вечером, после трудового дня, поигрывая в «лефтов» со своими друзьями, мне в голову пришла идея, навеянная давным-давно прочитанными статьями, о том, что можно существенно повысить производительность графической составляющей ноутбука. Располагая свободным временем и средствами, было принято решение купить все комплектующие и опробовать на практике то, что может дать система eGPU, несмотря на ограниченную пропускную способность экспресс порта.

Немного о теории и компонентах eGPU



Итак, вы хотите рискнуть и провернуть операцию “eGPU”, но не знаете с чего начать? У вас много вопросов типа: «Подойдёт ли к ноутбуку eGPU?, «Какую видеокарту выбрать?», «Какой блок питания приобрести?» и т. д. Тогда вы можете смело обращаться сюда(в качестве непосредственного общения с владельцами) и к материалам этого сайта (в качестве справочника, поскольку идейный вдохновитель движения eGPU – nando4, после несправедливого бана, и другие важные участники переехали на techinferno).

Говоря в двух словах, система на eGPU – это своеобразный тандем из ноутбука, стационарного блока питания и дискретной видеокарты, соединённых между собой посредством интерфейса ExpressCard \ слота mPCIe и ключевого компонента – адаптера, за счёт которого происходит конвертация в PCI Express. Делая небольшое отступление, стоит отметить, что на рынке существует исполнение для порта Thunderbolt как в DIY варианте – TH05, так и в готовом – Echo Express SE Thunderbolt Expansion Chassis, однако, на сегодняшний день такая покупка была бы не совсем резонной, поскольку при использовании порта Thunderbolt не активируется режим компрессии PCI-E, что сказывается на общей производительности. Однако на горизонте мелькает перспектива ещё более быстрого поколения Thunderbolt порта, который обеспечит производительность PCI-Express 3.0. Возвращаясь к основной нити повествования, приходится констатировать, что остаётся выбирать между исполнениями на основе ExpressCard и mPCIe, среди которых есть дешёвые – PE4L


и PE4H


, а также не совсем дешёвые, более эстетичные и менее энергозатратные варианты – Magma ExpressBox

и ViDock.


Как только мы решили для себя, какое eGPU решение лучше, следующим этапом будет выбор видео карты. Принимая во внимание то, что видеокарта будет использоваться на ограниченном, по пропускной способности, порту, свой выбор нужно делать на картах средней и высшей категорией любой из серий GTX 460/470, GTX 560/570, GTX 660/670. Причём, сравнивая родственные категории видеокарт, например GTX 570 и GTX670, разница в производительности будет не очень существенна. Вы можете проанализировать данный вопрос более подробно, используя данную таблицу в качестве образца.

Допустим, ваш выбор пал на линейку nVIDIA GeForce 670 GTX. Следующим шагом будет – изучение потребляемой мощности и силы тока, которые необходимы для нормального функционирования видео карты. Так, для серии GeForce 670 GTX необходим источник питания, дающий на выходе мощность 12 В с силой тока минимум 30А. Несоблюдение данных условий может стать причиной быстрого выхода из строя вашей видеокарты.

В свою очередь, исходя из выше упомянутых параметров видеокарты, должен выбираться блок питания(прим. далее БП). Рекомендуемая мощность БП для серии GTX 670 колеблется в приделах от 500 до 600 Вт. Лучшим ориентиром будет выбор БП с запасом по мощности +50 Вт. Таким образом, для работающей на стандартных частотах GeForce 670 GTX это будут БП 550-600 Вт, для карт с заводским разгоном желательно 650 Вт.

Любителям высоких разрешений придётся дополнительно растратиться на внешний монитор. Здесь стоит отметить то, что eGPU может использоваться как с внешним монитором, так и с дисплеем ноутбука. И если с подключением внешнего монитора всё ясно как день, то при использовании дисплея ноутбука не всё так просто, а для некоторых владельцев ноутбуков и вовсе невозможно в плане реализации.

Всего существует три, широко используемых на практике, способа:

1) С использованием технологии nVIDIA Optimus. Основными условиями являются: естественно, наличие видеокарты nVIDIA (начиная с последних карт на архитектуре Fermi и более новыми) и встроенного видео Intel моделей 4500MHD/HD/HD3000/HD4000. При использовании данного метода, драйвер nVIDIA клонирует изображение с внешней видеокарты на дисплей ноутбука, при этом данный процесс оказывает незначительное влияние на производительность видео подсистемы. Другими словами – скорость видеокарты, подключённой напрямую к внешнему монитору, будет несколько выше, нежели чем при использовании дисплея ноутбука.

2) Метод Ultramon/Chung Gun . Данный метод подойдёт владельцам видеокарт фирмы ATI и ранних моделей карт nVIDIA. Он схож с вышеописанным, за исключением того, что 3D программы могут запускаться только в оконном режиме.

3) Третий способ основан на использовании HDMI ExpressCard конвертера – HD80E HDMI Express Video Capture Card. Плюсом данного варианта является то, что он лишён скоростных ограничений двух предыдущих, однако, для его применения, вам потребуется свободный слот mPCIe, к которому будет подключаться eGPU.

Ну и конечно последний компонент, без которого вся операция была бы бессмысленна, это – ноутбук. Как уже было упомянуто выше, если вы планируете использовать eGPU только с дисплеем ноутбука, лучшим вариантом будет видеокарта от nVIDIA и ноутбук с интегрированным видео моделей 4500MHD/HD/HD3000/HD4000. Для того, чтобы получить максимальную производительность, желательно чтобы процессор вашего ноутбука был основан на микроархитектуре Sandy Bridge, или ещё лучше Ivy Bridge. Так, в случае Sandy Bridge ноутбуков, вы получаете ExpressCard интерфейс второго поколения с пропускной способностью 500 MB/s, что в купе с компрессией драйвера nVIDIA Optimus даёт очень и очень неплохую производительность.

Обобщим. Для системы, основанной на eGPU, нам потребуются:

– Прямые руки и светлая голова.
– Ноутбук.
– Адаптер eGPU (выбираем в зависимости от ноутбука, потребностей, бюджета и т.д.).
– Видеокарта (аналогично…).
– БП (незабываем о мощности и силе тока, а также рекомендациях производителей конкретных карт касательно энергозапросов той или иной модели).
– Внешний монитор (опционально).

Покупка и процесс сборки



Итак, вы определились с комплектующими, заказали, получили заветные коробочки, распаковали, разложили, изучили руководство. Приступаем к сборке!



Сразу отмечу, что во время покупки не преследовалась цель – сэкономить, поэтому видеокарта одна из самых лучших в своей категории и БП не подкачал. Причиной тому были некоторые опасения – не заработает, не понравится и т. д. и т. п., в случае чего, всё можно было продать или вернуть (некоторые продавцы дают семь дней на пробы) без существенных убытков. Покупалось всё на TaoBao. Но, забегая вперёд, скажу, что всё работает и скорее всего, ничего возвращать, или продавать я не буду.

Всё тестировалось с использованием адаптера eGPU PE4L 2.1b на ноутбуке Lenovo X220, чьим счастливым владельцем я и являюсь. Конфигурация максимальная, выражаясь точнее – i7-2640M\8GB\HDD320GB.

Помимо основных компонентов, был куплен акриловый корпус, от той же компании, которая производит адаптеры PE4L и PE4H. С него мы и начнём.



Распаковываем и достаём, аккуратно размещаем компоненты. Каждая акриловая деталь корпуса для защиты от царапин обклеена плотной бумагой, которую можно содрать или оставить как есть, в любом случае – это никак не повлияет на поток воздуха или работоспособность готовой системы. Я решил содрать.



Собираем ножки и крепим к днищу корпуса. Здесь стоит пожурить создателей за то, что не просверлили по два отверстия на каждом из рёбер, так готовая конструкция была бы монолитнее. После прикручивания к днищу, рёбра без отверстий немного шатаются. Однако в конце сборки общий вес конструкции исправляет ситуацию.



После того, как готова опора, переходим к самому тяжёлому компоненту – БП. В акриловом днище просверлены отверстия для разных вариаций БП, так что проблем с совместимостью быть не должно. Для своей системы я использовал БП на 660 ватт фирмы Seasonic, серия Х. Подробнее об этом БП можно почитать здесь. Всё крепится на довольно прочные на вид болты.


Пришёл черёд компонентов адаптера eGPU, среди которых: SWEX-гнездо для блока питания, кабель питания, соединительный кабель для адаптера и переключателя питания и, непосредственно, сам адаптер PE4L.



Извлекаем адаптер из обёртки. Адаптер выполнен на куске текстолита темно-синего цвета, к которому дополнительно прикручен текстолит зелёного цвета. Такое «сэндвич» решение не случайно, так как в процессе продолжительной работы данный элемент eGPU может существенно нагреваться. Сначала нужно отвинтить идущие по умолчанию винтики и гайки. Затем, попутно подложив что-нибудь на решётку вентилятора БП (прим. гайки и винтики маленькие, легко уронить), привинчиваем адаптер к днищу корпуса. Во время сборки был замечен ещё один недочёт – два из четырёх отверстий по диаметру были несколько больше винтиков, поэтому в качестве решения были использованы идущие в комплекте с адаптером картонные изоляционные шайбы.

Прежде чем перейти к следующему шагу, рассмотрим подробнее устройство адаптера.



На нём находятся:
1. Порт USB 2.0.
2. Разъём питания для подключения внешнего БП.
3. Floppy разъём питания.
4. Переключатель принудительного обнаружения PCI карт со скоростями выше первой (т.е. x2,x4, x8, x16).
5. PCI-гнездо.
6. Переключатель CLKRUN# (в описании говорится, что переключатель используется для того, чтобы избежать обнаружения BIOS'ом PCI карты для конкретного промежутка времени. Если я не прав или описание врёт, прошу поправить. Как бы там ни было, у меня всё отлично запустилось на параметре 500ms).
7. Разъём для подключения провода, соединяющего адаптер eGPU и переключатель питания SWEX-гнезда.


Следующий шаг – установка опор для видео карты. Ничего сложного. В том случае, если планируется использование монитора и одна из опор будет загораживать видео выход, тогда можно оставить лишь одну. В моём случае ничего не убиралось, поскольку изначально планировалось использовать только дисплей ноутбука.





Переходим к подключению БП к SWEX-гнезду, адаптеру eGPU, и затем, соединяем адаптер eGPU с переключателем питания.
Важный момент – при подключении соединительного кабеля для адаптера eGPU и переключателя питания необходимо соблюдать полярность.



Почти готовая конструкция выглядит так. Осталось подключить последний компонент – видеокарту. Ах! Этот восхитительный запах свежего текстолита!





Вставляя карту в гнездо, нужно быть осторожным с проводами и потуже затянуть винтики на опорах. Дело за малым – установить последние акриловые панели и начать тестирование.



Стоит отметить, что производитель корпуса не стал просверливать в стенках отверстия для последующего их закрепления с помощью винтиков, а просто ограничился специальными выступами, которые вставляются в пазы днища. На мой взгляд, это тоже просчёт. Даже если принимать во внимание то, что это было сделано с целью невозможности переноски корпуса, держась за боковые панели (прим. в сравнении с весом внутренностей корпуса, акриловые панели выглядят не настолько прочными. По этой причине, даже если бы они были закреплены винтами, существует большой риск поломки и последующего выпадения днища).



Когда я сосредоточенно разглядывал уже собранную систему в процессе работы, мой сосед удачно пошутил, сказав: «Теперь у тебя на столе персональное IT-порно».

Установка и запуск системы



Итак, мы подходим к завершающему и самому волнующему для меня моменту – запуску системы.

Предварительно, нам необходимо скачать последние драйвера для видеокарты. После чего запускаем процесс установки, в процессе которого программа рапортует, что не обнаружено ни одного подходящего видеоадаптера. Переводим ноутбук в спящий режим. Необходимо заметить, что переводить в спящий режим нужно только в процессе установки драйверов. В будущем, можно вставлять ExpressCard адаптер в соответствующий слот после включения eGPU, прямо в процессе работы ноутбука. В свою очередь, перед отсоединением обязательным является использовать функцию «безопасного извлечения устройств».



Передвигаем переключатель на БП (если есть) и SWEX-гнезде в положение ВКЛ. О том, что всё идёт как надо, будут свидетельствовать работающие вентиляторы видеокарты, БП и оранжевый с зелёным диоды на плате адаптера eGPU. Подключаем ExpressCard адаптер к гнезду, выводим ноутбук из спящего режима. Программа установки должна определить подключение видеокарты, нажимаем далее и выполняем чистую установку. Перезагружаемся. Мы готовы к тестированию!



Тестирование



Хочу подчеркнуть, что все тесты проводились с использованием дисплея ноутбука, что вносит свои коррективы в получаемые результаты. При использовании внешнего монитора результаты будут намного лучше. Кроме того, система не была никоим образом оптимизирована (надстройки реестра, предварительная дефрагментация, отключение визуальных стилей ОС и пр.).

Тестовый стенд:

Lenovo x220 i7-2640M\8GB\HDD320GB
Display IPS native resolution 1366x768
ZOTAC GeForce GTX 670 AMP! Edition 2 GB (без разгона)

Программы для тестирования:

3DMark 11 Basic Edition
Resident Evil 5 Benchmark Version
Sleeping Dogs Benchmark Mode
Battlefield 3 (FRAPS)
Left4Dead2 (FRAPS)

Для того, чтобы было с чем сравнивать, тесты проводились на интегрированном видео от Intel (в моём случае это Intel HD Graphics 3000). Итак, результаты:


По понятным причинам, на интегрированном видео последний 3D Mark не запускается, поэтому результаты только для GTX 670. Базовая версия, все настройки по умолчанию. Итого получилось 6034 очков.



Следующим идёт «фиксированный тест» RE5. Настройки изображения выставлены на максимум, сглаживание х4 (поскольку интегрированное видео поддерживает только его, поэтому для GTX 670 значения будут такие же во всех тестах), V-Sync отключен (аналогично во всех тестах), разрешение 1366х768.

– Intel HD Graphics 3000 18,2 fps

– ZOTAC GeForce GTX 670 AMP! 74,6 fps




Sleeping Dogs – игра этого года. При соответствующих настройках графики, вполне сносно идёт даже на интегрированном видео, однако ситуация меняется кардинально если выставить всё по максимуму. Смотрим скриншоты:

– Intel HD Graphics 3000


– ZOTAC GeForce GTX 670 AMP!




Пришёл черёд тяжёлой артиллерии. Battlefield 3 – пожалуй, одна из самых ресурсоёмких игр на сегодняшний день. Очень жаль, что разработчики не включили в игру простенький бенчмарк, было бы очень кстати, пришлось использовать FRAPS. Для тестирования была выбрана миссия «Братья по оружию». Настройки для обоих видеоадаптеров следующие:


Результаты:

– Intel HD Graphics 3000 Min: 1fps — Max: 5fps

– ZOTAC GeForce GTX 670 AMP! Min: 30fps — Max: 93fps



Завершает цепочку программ для тестов игра Left 4 Dead 2 – адреналиновый экшн с кусками отлетающей плоти. При средних настройках, игра, довольно таки быстро, работает на встроенном видео, за исключением некоторых кампаний, таких как Swamp Fever, где наблюдаются небольшие лаги. Для теста была загружена начальная миссия кампании The Parish, которая относительно не требовательна к ресурсам. Были использованы следующие настройки:


Результаты, опять же, были получены с помощью FRAPS:

– Intel HD Graphics 3000 Min: 11fps — Max: 37fps

– ZOTAC GeForce GTX 670 AMP! Min: 48fps — Max: 101fps

Итог



Вот и подошло к концу моё небольшое тестирование eGPU системы. Честно признаюсь, впечатления самые наилучшие. Невозможно передать тот неописуемый восторг от того, что одним движением руки простой ноутбук может превратиться в рабочую станцию, а ведь при использовании внешнего монитора можно добиться ещё лучших результатов! И всё это, без каких либо ошибок, синих экранов и пр. Кроме того, все затраты на покупку комплектующих можно существенно сократить купив б\у или более дешёвые аналоги, ранние модели комплектующих и пр. А при наличии материалов, инструментов и прямых рук можно сделать eGPU адаптер и бокс к нему самостоятельно, благо на сайте производителя есть схемы. Более того, если вы постоянно переезжаете и при этом испытываете недостаток в мощности видеоподсистемы, то вам действительно стоит попробовать eGPU, ведь намного проще перенести ноутбук и разобранный eGPU, нежели чем полноценный, стационарный компьютер со всеми его клавиатурами, мониторами, системными блоками и прочей периферией.

Плюсы:

— Дешевизна (если поставлена такая цель)
— Мобильность выше, чем у стационарной системы (можно даже в пластиковый чемоданчик всё сложить)
— Достаточная производительность, позволяющая запускать все современные игры на высоких настройках и разрешениях (в зависимости от видеокарты)
— Простота в сборке и подключении
— Возможность использования дисплея ноутбука.
— Возможно использовать другие PCI девайсы (например звуковую карту)
— Возможно подключение нескольких мониторов одновременно

Минусы:

— Рекомендуется использование видеокарт nVIDIA – с ними меньше мороки.
— FPS, получаемые при использовании монитора, выше, чем при использовании дисплея ноутбука.
— Ограниченность интерфейса PCI. Opt. 1.1 — 250 MB/s, Opt 1.2 — 500 MB/s (для систем на базе микроархитектуры Sandy Bridge и Ivy Bridge, при использовании видеокарт nVIDIA микроархитектур Fermi или Kepler)
— Обязательное использование стационарного блока питания для энергоёмких видеокарт (однако есть примеры использования eGPU с обычным внешним БП от Xbox первого поколения, который обеспечивает 203 ватт)
— Использование eGPU невозможно с некоторыми моделями ноутбуков

В нагрузку, я хотел бы порекомендовать для ознакомления несколько видео, показывающих работу eGPU системы:

Battlefield 3



Crysis 2



TES: Skyrim



The Withcer 2



Благодарности



Прежде всего, благодарю участников форума Techinferno АР27 и nando4 за молниеносные и доходчивые ответы на мои вопросы, сообществу eGPU пользователей было бы очень сложно без вас. Thank you guys!
Спасибо форумам Techinfreno и Notebookreview – это настоящие кладези IT информации о различных гаджетах и устройствах, здесь вы можете найти и получить ответы на любые интересующие вас вопросы.
Спасибо всем создателям eGPU адаптеров.
Спасибо и вам, уважаемые хабра-пользователи за то, что выкроили немного своего времени на прочтение моей статьи.

Ссылки



В статье были использованы материалы следующих сайтов:
forum.notebookreview.com – портал, посвящённый различным моделям ноутбуков и всем, что с ними связано.
www.3dmark.com – известная компания, выпускающая бенчмарки на протяжении многих лет.
console.hardocp.com – портал, посвящённый обзору различных комплектующих и их обсуждению.
www.pcworld.com – крупный портал посвящённый различным аспектам IT индустрии.
forum.techinferno.com – отличный портал, связанный с IT тематикой.
forum.techinferno.com/diy-e-gpu-projects/2109-diy-egpu-experiences-%5Bversion-2-0%5D.html – ветка посвящённая eGPU.

P.S.: Вот и всё. Цель данного поста – поделиться опытом. Надеюсь, хоть кому-нибудь было интересно. Готов ответить на любые вопросы касательно темы.

Upd:

С момента покупки прошёл почти месяц. Решил дополнить свой обзор, а именно касательно тонкостей включения и выключения eGPU.

— При первом подключении вставляем адаптер в экспресс порт, включаем ноутбук. На данном этапе, происходит конфигурация системы и для eGPU выделяется диапазон свободной памяти.

— После того, как наигрались \ намоделировались и т.д., и работа eGPU не требуется, отключаем его через функцию «безопасное извлечение устройства» (всегда!).

— Если после работы за компьютером используется функция «спящего режима» или «гибернации», то после восстановления работы (или при повторном подключении eGPU без перехода в вышеописанные режимы \ перезагрузке \ выключении), напрямую подключаем eGPU и, через рабочий стол переходим к графическим функциям драйвера nVIDIA. Если есть вращающийся трёхмерный значок nVIDIA, то всё в порядке, если его нет и происходит постоянный крах драйвера, то извлекаем eGPU через функцию «безопасное извлечение устройства» и подключаем снова, смотрим значок (обычно случаи с крахом драйвера единичны).

— Если после работы компьютер выключается без использования функций «спящего режима» или «гибернации», необходимым условием работы eGPU при следующем запуске, является его подключение к ноутбуку до включения \ прохождения «POST».

— В случае если, по не понятным причинам, не удаётся подключить ранее нормально работающий eGPU, попробуйте перезагрузить ноутбук, подключив eGPU к ноутбуку до прохождения POST, в моём случае это всегда помогает.

Несмотря на вышеописанные тонкости, ещё раз подчеркну, что я доволен как слон и ни капли не сожалею о своей покупке.
@Semit
карма
7,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (45)

  • 0
    Отличная вещь, спасибо. Что по цене? (либо прочел не внимательно, либо её действительно нет)
    • +2
      Здравствуйте. Цену я действительно не указал, поскольку не было цели сэкономить, боялся я :). Напрасно причём. А расценки такие:

      Видеокарта 2799 юшек
      БП 1063 юшек
      Адаптер+корпус 798

      Цены на всё в юанях, грубо 1 юань = 5 рублей, с учётом доставки. Т.е. вышло 23165 рублей. Не дёшево, да, но, как я уже написал, можно легко уложиться в 9-10 тыс. если купить б\у или позднюю модель видеокарты + БП попроще, или тоже б\у.
      • +2
        По-моему, за такие деньги проще полноценный системный блок купить и подключить его к телевизору по HDMI.
        • 0
          Можно и полноценный, но так уж получается, что я переезжаю часто. Согласитесь, перевезти стационарный компьютер несколько проблематичнее нежели чем eGPU + ноутбук.
          • 0
            А может стоило бы посмотреть в сторону Xbox 360? Стоит он ~17 000 (это с кинектом и парочкой игр), можно найти еще дешевле. Удобно перевозить…
            • +2
              Извините, я не любитель приставок.
            • 0
              К тому же, как мне кажется, гораздо интереснее собрать вот такой вот конструктор. ИМХО.
              В общем каждому своё. Могу сказать, что ни капли не сожалею о израсходованных средствах.
            • 0
              >>это с кинектом и парочкой игр
              Во даете, без этого он в два раза дешевле. Не думаю что ТС нужен кинект.
              • 0
                ну я брал по максимуму, это как вариант, так как автор денег тут не пожалел))
                а так, слышал о eGPU, но не видел, а тут еще и красиво все выглядит
  • +1
    Извините, опечатка вышла, конечно же «раннюю модель видеокарты».
  • 0
    Есть ли смысл в такой дорогой видяхе, если большинство игр будут упиратся в далеко не самый быстрый процессор?
    Интересной была бы сборка GTX 660 + какой-нибудь TFX блок питания :)
    • 0
      Я думаю они раньше в шину PCI x1 упрутся.
    • 0
      Трудно сказать, где та граница, пройдя за которую мегагерцы, память и прочие атрибуты карт перестают играть существенную роль. Я бы сказал так, несмотря на то, что, скажем по существу мы не заметим разницы между GTX560 и GTX660, проведя тесты разница будет в несколько сотен попугаев, тоже самое и для 660 vs 670. Как я говорил, если данный вопрос интересен, можно ознакомиться с этой таблицей.
      Но суть не в этом. В моей статье я говорил, что были куплены самые лучшие комплектующие по причине того, что в случае неудачи, их можно было бы легко продать :).
  • 0
    А что делать тем у кого нетбуки с атомами и нет ExpressCard?
    • 0
      Основное условие — miniPCI ExpressCard Thunderbolt(можно, но лучше не надо). Если у Вас не ни того не другого, тогда не судьба.
  • 0
    А нельзя ли сделать такую же систему но на Macbookpro через Thunderbolt, будет ли в OS X работать экран ноутбука через внешнюю видеокарту?
    • 0
      Насколько мне известно, нет.
      • 0
        Я только что «побегал» по форумам, если у вас с английским всё в порядке, то почитайте это. Удачи
    • 0
      можно но есть свои подводные камни, пока только через Express\Thunderbolt адаптер, костыли но работает.
      очень конечно хочется полноценного решения на болте. подключил к эиру и у тебя рендер ферма)
  • –3
    Вот чем биткойны-то ковырять надо…
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Спасибо большое, исправил.
  • 0
    Это все заведется под линукс?
    • 0
      Можно! Есть умельцы. Ноутбук такой же, как у меня причём.
  • 0
    Вот ещё один прямой ответ на вопрос, схожий с Вашим. Точно можно.
  • 0
    А насколько падает производительность при использовании порта mPCIe? Давно думал использовать этот порт, предварительно вынув wifi-адаптер.
    • 0
      P.S. можно конкретные ссылки на лоты самого адаптера и акрилового корпуса
      • 0
        Извините, рекламу я делать не буду. В статье указаны конкретные модели, гуглите сами.
        • 0
          Можно ссылки в личку?
    • 0
      Всё напрямую зависит от его пропускной способности, чем она выше, тем лучше. Другими словами, если у Вас SandyBridge ноутбук или позже, то свои 500 MB/s Вы получите, разницы куда выткать eGPU, насколько я понимаю, между mPCIe и ExpressCard нет.
      • 0
        Еще вопрос, как я понял если взять модель адаптера PE4H, у него есть возможность задействовать сразу mPCIe и ExpressCard, т.е. получить PCIe со скоростью 2х?
        • 0
          Где Вы такое прочитали? Либо то либо другое, либо mPCI либо ExpressCard, сразу два порта задействовать не получится. Если вы внимательно читали статью, скорости 500 MB/s, т.е. Opt. 1.2 можно достичь только с ноутбуками на микроархитектуре SandyBridge и позже, а также используя nVidia карту на архитектурах Fermi, Kepler или более поздние модели.
  • +1
    Все ничего но блока питания хватило бы и ватт на 350 за глаза. Потребление энергии nvidia 670 — 170 W (офф документация). Там написано 500 но это для всей системы а вам только видяху кормить, да и видяху можно было взять 560-570 — производительность такой же была бы, в связи с медленным интерфейсом.
    • 0
      350 точно бы не хватило. Я специально посмотрел с десяток БП, ни один из них не обеспечивает минимальные 30А на 12В, на 450 ватт, да, вполне возможно бы хватило. И видяху можно было бы по проще, но, как я уже говорил, повторю ещё раз, покупалось всё на «попробовать», пойдёт\понравится оставляем, нет — возвращаем, практически без потерь.
  • 0
    Очень очень круто! Спасибо за статью. Возможно за подобными системами будущее. И это актуально не только для ноутбуков, но и для стационарных машин, т.к. иногда смена видеокарты влечет за собой смену БП, а иногда и материнки с процессором. А здесь просто можно будет докупить черный коробочек, подключить и не бояться что не хватит БП или еще чего.

    Единственный вопрос — есть ли какие-то реальные тесты показывающие насколько сильно деградирует производительность карты подключенной через PCI, в сравнении с такой же картой подключеной через современный PCI Express?
    • 0
      1)Ну на счёт будущего Вы, на мой взгляд, немножко загнули, всё же, как ни крути eGPU — это костыль, намного лучше когда всё в одном, а не наоборот. Однако мощные, производительные и доступные ноутбуки — не очень выгодно производителям, ИМХО. Будем надеяться, что хоть Thunderbolt третьего поколения появится как можно скорее, а может и ещё более быстрый порт.

      2) Не совсем понял Ваш вопрос. Тесты есть тут. Что значит “подключенной через PCI" и «современный „PCI Express“? PCI Express, он же PCI-E и PCIe — один, просто генерации разные, соответственно и скорости. На сегодняшний день, на eGPU используя PCIeадаптер, максимальной скорости, которой можно добиться это 500 MB/s, что соотевтсвует PCI Express 2.0.
      • 0
        Извините, не силен в терминологии. Я имел ввиду насколько действительно отличатеся производительность при внешнем подключении (т.е. PCI-E 2.0), чем если бы мы такую же карту вставили в стандартную материнку с PCI-E 2.0 x16 (насколько я помню еще имеет значение количество линий PCI-E).
        • 0
          Как было упомянуто в статье, если вы используете SandyBridge ноутбук (или поздние модели), вместе с картами от nVIDIA на архитектуре Fermi Kepler или более поздние, то вы получите скорость PCIe второго поколения — 500 MB/s, т.е. PCI Express 2.0
          • 0
            Ок, понятно. Сформулирую по-другому вопрос тогда — есть ли реальная разница в производительности будет между данной картой подключеной по PCI-e 2.0 x1 (500 mbs), и картой вставленной в стандартный слот PCI-e 2.0 x16 (8 gbs)? Т.е. насколько таки критично такое урезание пропускной способности шины?
            • 0
              Вот сравнение. Таким образом, если Вы будете использовать eGPU с opt 1.2, т.е. 500 mbs, играя, скажем, в Обитель Зла 5, на разрешении 1280x800 (видеокарта HD3850-256MB), разница с PCIe x16 будет составлять -20.4%, однако при использовании старшей видео карты HD4870-1GB разница будет чуть ниже — -14.1%
              • 0
                Вобщем, лучшим вариантом будет система Opt 1.2. Crysis, Metro, и пр. идут очень гладко.
                • 0
                  Спасибо, теперь понятно. Хорошая альтернатива.
                  • 0
                    Очень рад, что смог Вам помочь. Я сам очень доволен этой альтернативой, просто класс.
  • 0
    Меня попросили задать вопрос:
    «Сильно ли греется процессор ноута при использовании внешней GPU?»
    • 0
      По моим замерам подключение eGPU ни в коей мере не влияет на температуру процессора. Температура зависит от того, насколько тяжёлыми приложениями мы загружаем ноутбук, а в некоторых случаях eGPU помогает перенести часть нагрузки процессора на себя, что положительно сказывается на температурном режиме (имхо).

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.