Пользователь
0,0
рейтинг
26 декабря 2010 в 21:41

Апгрейд видеокарты ноутбука

Здесь расскажу о том, как из 5ти летнего Samsung R45 с видеокартой ATI Radeon Express 200M, у которой нет Pixel Shader 3.0, на которой современные игры либо вообще не идут, либо идут с 2 FPS на минимальных настройках, сделать достаточно мощную машину для игр и экспериментов по программированию.

image

Итак, имеем Samsung R45:
1. видеокарта ATI Radeon Express 200M
2. штатный объем памяти 512МБ
3. процессор Intel Core 2 Duo 1.6GHz T5500

Задача: выжать по максимуму из малыша.

Решение:
Предварительные операции:
1. Апгрейд ОЗУ. Максимум возможной памяти 2ГБ из которой до 256МБ предоставляется для видеокарты.
Выкидываем старые 2x256 и докупаем 2x1ГБ.
2. Замена CPU. Ищем какой из CPU подходит в замену старому — это Intel Core 2 Duo 2.3GHz T7600. Важно чтобы шина, ватность и сокет совпадали (FSB, TDP, Socket).
3. Замена HDD. Покупаем любой SSD HDD, ноутбучный винт на 320ГБ, 4USB переходник и еще 2 USB винта по 500ГБ… — здесь кому как нравится.
Эти 3пп — дело техники, ничего интересного.

Теперь, когда подготовка завершена, можно приступать к созданию монстров.

Подход 1. Замена видеокарты.
В сети на тему замены видеокарты есть кое-какая информация, и в основном все считают что замена невозможна или крайне сложно осуществима. В моем случае на R45 видеокарта впаяна в материнскую плату и замена невозможна. Копаем дальше.

Подход 2. Использование внешней видеокарты.
Поиск по сети на тему «внешняя видеокарта» дал много результатов, например ViDock или AMD XGP. Подключается через ExpressCard слот на шину PCI Express x1, чем и ограничивается скорость передачи данных. Но стоимость такого блока с видеокартой стоит более 200$ и выше.

На этом подходе и останавливаемся. Но цена слишком высока, да и видеокарту поменять нельзя.
Зато знаем, чего хотим. А хотим чтобы было вот так

image
и видео при этом не тормозило.

Далее, в сети нашел тайваньскую контору, которая делает переходники с PCI-E x1 на ExpressCard.
Называется серия PE4H. Выглядит вот так:
image

Теперь абсолютно уверенно идем на Ebay и находим в продаже нашу платку PE4H за 82$ с дополнительным шиппингом 15$.
Заказываем, оплачиваем и следим через www.track-trace.com/post за перемещением: вылетела посылка 26.11.2010, 10.12.2010 уже была дома.

В комплекте шла плата ATX-включателя БП:
image
также основная плата:
image
, провод PCI-Ex1 — PCI-Ex1, и специальный ExpressCard со слотом для PCI-Ex1.
Отмечу, что дисков с драйверами не было вообще. Как в последствии оказалось — они для платы и не нужны.
Из внешнего вида и мануала выясняю, что плата может подключаться и через 4 PCI-Ex1 интерфейса, питание может получать через внешний БП, через USB, и через мини 4-pin разъем от БП.

Выбор видеокарты. Так как передача данных будет происходить не на PCI-E x16 а на медленной PCI-E x1, то слишком быстрая видеокарта прироста производительности не даст, так как шина будет забита доверху. Зато если при загрузке софта (игры) сразу скопировать максимум необходимой памяти (текстур), то она может справиться. Значит, нужна быстрая не топовая видеокарта с большим объемом памяти. Выбор пал на Palit GTX 460 2GB.

Далее в ближайшем магазине и покупаем указанную видеокарту:
image

А также БП к ней (с 4ю кабелями питания 6-pin: два кабеля для этой видеокарты и два кабеля на будущее...).
image

Подключаем все это дело по схеме:
image

и… что удивительно — сразу все нашлось!
image

Обновляем драйвера на свежие от NVidia (здесь было интересно, как будут дружить драйвера ATI и NVidia, но никто ни на кого не жаловался).

image

image

image

Подключаю монитор, он чудесно обнаруживается (1|2 — это второй слот DVI на ноутбуке).

image

CUDA, DirectX и т.д. — все работает ОК.

Пара тестов на 3DMark06 (все делать было лень, результат предсказуем):
image
image

Вывод — как и ожидалось, GTX460 справляется на бешеном разрешении (для моего ноута) с поставленной задачей мгновенно, но процесс копирования заметно замедляет FPS. На кадрах, где происходят взгрывы, дым, игра шейдеров — все происходит без замедлений, но в местах где камера двигается по карте и происходит ее дозагрузка — иногда слегка дергает при очень больших количествах текстур.

Игровые тесты:
1. Alien Swarm на максимальных настройках, но экране 1024x768 (большое разрешение — много текстур, потому много не ставим). Отзывчивость 100%. Экран не дергал ни разу, до этого было 2-6 FPS и такие лаги, что не передать.
2. NFSMW. Программисты сделали абсолютно правильно все с текстурами. Сначала все в память, дозагрузки по минимуму, как результат — на 1920x1080 такой красоты я еще не видел. Лагов нет вообще.
3. Далее запускал все что видел — все работало ОК при не очень больших разрешениях экрана (до 1400x900). Либо более низких настройках, но в HD.
4. Фильмы в HD вели себя по разному. Раз в 5 секунд пропадал кадр, что было заметно и нервировало. Причина опять та же — в эту секунду происходила передача буфера на видеокарту. Через некоторое время порешалось настройкой буферизации в плеере и выбором правильного плеера.

Что самое интересное — так это процесс переключения приложения между видеокартами, которые работают одновременно.
Для этого просто тащим окно с фильмом направо — ATI Radeon 200M с этим справится, а игру — на левый монитор (причем одновременно, слева — alien swarm или что там еще, а справа — фильм).

Внешне дракон выглядит так (убран на подоконник чтобы не мешал):
image
На толстом хвосте дракона находится ATX-плата включения БП.

Радует факт, что на видеокарте остались еще 2 свободных слота HDMI, и на самом ноутбуке — слот DVI.
Итого можно сделать ап до 5 мониторов, среди которых один — дефолтовый экран ноутбука.

Из минусов хочу отметить, что при копировании больших массивов данных слышно тихое трещание дешевых тайваньских элементов на плате. Уровень трещания в 31дб — раза в 2 громче чем вентилятор на видеокарте. Среди общего фонового шума в доме почти незаметно.
Из плюсов радует тот факт, что раньше сидел за ноутом и думал «лишь бы потянул», «лишь бы заработало». А теперь сижу и думаю «чтобы еще запустить?».

Схема платы (PDF). Мануал (PDF).

Удачного апгрейда!

P.S. Как выяснилось, GTX460 достаточно мощная видеокарта для экспериментов. А также приятно стало, что браузеры (флэш) наконец-то стали использовать видеокарты для ускорения прорисовки, теперь The Settlers Online вообще не тормозит (это когда он на мониторе слева, а когда тащишь направо — то там поселенцы дергаются).

UPD: Думаю для такого — дракончик будет в самый кайф:


UPD2.
В комментах был вопрос о вынимаемости видеокарты на горячую.
Подтверждаю о вынимаемости лапы дракона из ноута!

Порядок такой:
1. В трее отключаем адаптер как будто usb-носитель. В результате тут же происходит выгрузка драйвера и основным монитором стал тот, что на ноуте.
2. Выключаем питание основной платы с помощью удобной кнопочки на мини ATX плате (а не разматываем провода).
3. Вытаскиваем ExpressCard. Винда издает «тылынь» о подтверждении вынимания.
4. ОС работает ок.

P.S. Ранее пробовал без 1пп. В итоге все замирало и только хард-ресет укладывал ноут спать. Приходилось вырубать ноут не вынимая ExpressCardPCIe.
Дмитрий @edeldm
карма
49,2
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (141)

  • +77
    Да вы, батенька, извращенец! (В хорошем смысле ))
    • +1
      ага, еще и добил ссылкой на убийцу времени.
    • 0
      Маньяк, как минимум.
  • 0
    Интересно а с mac mini такой трюк пройдет?
    • 0
      А втыкать то там некуда это все дело, так что не пройдет.
      • 0
        Интересно а пройдет ли с Macbook Pro старенький не юнибади с GF8600?

        Пожалуй можно попробовать, осталось найти владельца видяхи и БП :)
        • 0
          Macbook Pro с GF8600 — спешу вас предупредить, в чипах Нвидии это серии (GF8400-8600) определённого года выпуска (по-моему 2008) заводской брак, они вылетают. У нас вылетело так 2 ноутбука, один из которых — именно Macbook Pro. Сервисный ремонт очень проблемный — чип впаян на материнку, да и купить его уже не реально.
          • 0
            В курсе, но бог миловал пока, тьху-тьху-тьху :)
  • +11
    Вау, чудны китайские умельцы. Никогда б не подумал, что существует такой переходник.
  • +4
    MAD SKILLZ
  • 0
    [извиняюсь за маленький офф-топ]
    Интересует нагрузка на видеокарту при подключении столь большого монитора. «Сдохнет» ли карта быстрее при таком использовании? Есть ли разница в DVI и HDMI смотря с той же стороны «нагрузки»?
    • +6
      Монитор как монитор. Разве есть разница в сроке службы в зависимости от размеров монитора?
    • +2
      Ээ… у меня к одной Radeon 5850 подключены три монитора (Eyefinity рулит), суммарноe разрешение системы — 4368 * 1080. Полтора года уже живет без проблем, разве что один раз вынимал кулер от пыли продуть :) Каким образом карточка от этого должна «дохнуть»?
      • +1
        ну как же — три моника, значит напруга должна быть большая, карта быстрее изнашивается!
        /irony
        • +1
          Не напряжение, а поток данных! Изнашиваются контакты разъема видеокарты, по ним в три раза больше данных пролетает!
  • +27
    во-первых, мне одному кажется, что вся смысловая нагрузка поста может быть высказана одним предложением типа «Используйте внешнюю видеокарту через переходник %модель% с внешним БП»?
    во-вторых, непонятно, почему пост в DIY.
    в-третьих, стоило бы сказать в начале поста, что мы не «апгрейдим видеокарту ноутбука», а делаем из ноутбука десктоп.
    • +20
      в-четвертых, БП с больщой мощностью вообще не требуется, мы питаем только видео среднего класса, а не десктоп вместе со всеми процессорами-хардами-материнками
      в-пятых, платка с переключалкой для ATX тоже является излишеством, ее можно было реализовать прямо на самом ATX коннекторе, причем вручную. достаточно замкнуть зеленый(обычно) на черный, что бы БП начал подавать ток.
      • +2
        подписываюсь под каждым словом.
        • +1
          1 вот и делай посты с одним таким предложением. они будут очень интересны!
          2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
          3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
          4 БП — для будущего компа. если брать — то хорошее.
          5 про АТХ — напишите им в тайвань чтобы в мануале показали какие проводки надо замыкать вручную на БП :-D

          *уже набежали, я вас ждал. :-D
          **хоть в открытую пишите что не нравится. уважение вам за это!
          • +2
            >1 вот и делай посты с одним таким предложением. они будут очень интересны!
          • +4
            Каждый должен знать какие проводки замыкать на блоке питании для теста его работоспособности.
            • –5
              Там на платке маленький переключатель. А сделана она для того, чтобы маленьких детей при включении компьютера током при «ручном замыкании» проводов не ударило. Это банальные правила безопасности.
              • +7
                там нечему бить током
                • –4
                  Просто у вас нет детей. И потому пофиг.
                  • +4
                    детей нет не спорю. но дело не в этом, просто я радиотехник по образованию и мастер по ремонту железа на работе. максимальное напряжение на «хоботе» к мамке 12 вольт, сила тока там тоже не большая и то это не на проводах которые закорачиваются для включения. Ну и вообще если вы переживаете за детей — не стоит оставлять разобраную(бп это внутренняя деталь, не предназначеная для шаловливых ручек) технику в доступном для них месте. Шанс что ребенок всунет пальцы в вентилятор БП намного больше чем то что его стукнет током.
          • +5
            >1 вот и делай посты с одним таким предложением. они будут очень интересны!
            мой тезис был тоооненьким намеком на то, что не нужно захламлять один из лучших блогов хабра унылейшими фекалиями, которые к тому же ни разу не соответствуют тематике
            >2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
            Вы неадекватны. каким образом Ваш тезис отвечает на мой вопрос «Почему _это_ в DIY»?
            >3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
            Вы обманули аудиторию Хабра, снабдив унылый вы^W пост «желтым» заголовком. Видеокарту ноутбука Вы никоим образом не проапгрейдили, как обещали в начале поста.

            И моя карма еще недостаточно заминусована Вами, друзей позовите, а то я ж не замолчу, пока в минус не уйду.
            • –10
              Дык я за пост в минусе, не волнуйтесь. Хабробыдло побеждает.

              А если пост не нравится — его отхабрят, а не будут +29 за 40 минут ставить.

              P.S. разве такого дракона сделает адекватный? :-DDD))))))
              • +3
                а не будут +29 за 40 минут ставить.

                Если Вы помните, недавняя недостатья про regexp-ы тоже на главную вылезла. Сейчас автор её сам удалил.
                • –1
                  Не знаю. Не видел. Тоже удалю, как карму меньше 15 сделаете. Уже -20 за пост. Фигли.

                  Может в результате поста в магазинах купить можно будет такие платки, а не искать на другом краю света.
                  • +2
                    Платки и сейчас в магазинах купить можно (простите за этот искрометный бред).
                  • +1
                    Какой Вы добрый сегодня. Будете каждому несогласному карму сливать? Как это по-взрослому.
                    • –3
                      3 камента. в карме -3. Какие выводы? Кто их поставил? )))

                      Кстати, за этот пост меня mydoom благодарить должен. У него за пост +5 уже. У меня -15. )))

                      Да и какая разница? Перестанем посты просто писать. И станет хабр демотиватором и местом ссылок. ))
                      Это мой 4 пост, и уже таааак демотивирует. ))))

                      А вообще тенденция печальная на хабре. Шо пезец просто. Не знал, пока первый пост не сделал.
                      • 0
                        «Мама я не виноват! Он первый начал! :'-(»
                      • +5
                        Вы всегда скобочками абзацы заканчиваете?
            • –3
              А друзей позвали вы. Я вам вернул ваш минус. Не более.
              Так что вместо со своим хабрабыдлом радуйтесь.
              • +9
                Плюсы, минусы… Какая разница? Развели черт знает что на целую ветку…
    • –3
      Надо же. +3 поставили комменту.
      Неужели и вправду надо было сделать одним предложением этот пост???

      Все так и считают???

      А как же дракона посмотреть? :-D
      • +6
        Да не, не все. Интересный пост, не парься. :)
      • +1
        а) не парьтесь, не в карме счастье
        б) посту я поставил плюс — работа всё же была проделана
        в) в карму я поставил минус — в комментариях Вы ведёте себя крайне неадекватно

        У меня всё.
        • –2
          1 счастье я ловлю при постройке драконов
          2 ему пофиг на это
          3 а я в карму в ответ ничего не поставил.

          Карма — это не комментарии. Комменты при минусовой карме вы и пишите.
          Карма — это показатель, на основе которого система хабра определяет, можно автору посты дальше писать или нет.
          Потому и удалю при минусе.

          И останетесь с одними корпоративными блогами. Да будет рекламохабр — демотиватор!
          • +2
            Карма это отношение пользователей к конкретно данному человеку. Вы действительно себя проявляете крайне неадекватно. Не нужно строить из себя Нострадамуса, предсказывая что будет дальше и что произойдет с Хабром.
  • +2
    осталось состряпать к этому монстру какой-нить корпус, дабы выглядело не так страшно, ну а так конечно гуд, гораздо более дешёвое решение, нежели то предлагается под ключ (я так думаю, ибо ни Amilo Sa 3650, ни ViDock Gfx на ебее не нашёл)
    • +2
      Тоже было первой мыслью — видеокарточку с адаптером и небольшой БП (полноценный ATX-монстрик тут действительно нафиг нe нужен) поставить в небольшой корпус, в него же вделать кнопку включения. В перспективе — сделать в корпусе отверстия под VESA-крепления и прикрутить сзади на монитор, как неттопы.
      • +2
        да, мысль пожалуй очень верная, правда не знаю на тему крепления этого «ящичка» на монитор (вопрос в ширине этого ящичка). В общем я думаю как продолжение темы будет интересно почитать
        • –2
          В продолжение темы сделаю пост с парой фоток.
          Будет называться «кабина боинга на дому»… с 5ю иллюминаторами. :)

          www.youtube.com/watch?v=k0Us-OaSNo0

          www.youtube.com/watch?v=25bWtiHuNiU
          • –2
            видео не вставилось (
            сделал UPD посту.
  • +1
    Проще было бы купить новый ноут. Лучше даже десктоп — по деньгам тоже было бы, а по времени в разы меньше.
    • –1
      Как раз нет. Сэкономил на материнке (UD5), корпусе(5т.р.), ОЗУ (3x2GB) и процессоре (i930). Если брать — то хорошее. А это минимум 20 килорублей надо.
      • +2
        Могли бы взять 925ый феном, мать на 790ом, 8 гиг рам 1600 на семерках и видяху — для игр и экспериментов — за глаза на 3-4 года.
        • –2
          мог бы, но не взял :-D
      • +10
        Бурум, перелогинься. Твое железо уже обсудили.
        • +3
          Фу, хомм, толсто ;)
        • +10
          Перелогинился. На чем мы там остановились? )
      • +1
        Вы совершенно не разбираетесь в выборе комплектующих…
  • +1
    А зачем настолько мощную видюху? Мне кажется проц из неё всё не выжмет и можно было вполне обойтись экземпляром подешевле.
    • 0
      Для программирования на CUDA. Сказал же. Данных мало, думать много.
      Как усилитель Matlab — хреновина классная же. :)
      А то что PCI-E x1 — не влияет. Там не текстуры пересылаются.

      Если б только играться то конечно, можно самый дешевый БП и GT9800 и будет счастье школоте)))
  • –3
    ппц
    Вызывает уважение!
  • +7
    Адовый топег!
  • +3
    Любопытно, возьму на заметку. Внешние видеокарты — это интересно.
  • +1
    Задумка и реализация на 5, но практический смысл нулевой)
  • +1
    видяху и бп вы взяли слишком мощные для поставленой задачи и возможностей pci-ex1. а смысла в смене проца на древнем офисном буке вообще не вижу. Думаю за потраченные вами на весь этот апгрейд деньги можно было взять современный игровой ноут.
    • –2
      Уже писал про мощность и зачем.
      А потратил всего 8+4+3 = 15т.р.

      Там под столом Кормен, Ривест, Штайн лежит. ;)

      Не всем же играть то за компьютерами! :-D
      • 0
        15т.р. это у нас 500$ если не ошибаюсь, продаем еще старый ноут за 200-300$ и получаем бюджет для вполне неплохого ноута. Но если стояла задача наростить вычислительную мощность в плане CUDA/Stream/итд или для подключения большого количества моников тогда ваше «творчество» имеет право на жизнь.
  • +2
    для откомментировавших выше:

    — мощная видяха обычно и не нужна. обычно задача — подключить к буку 3-4 экрана при одном штатом DVI/DP. тут какаянть quadro nvs на pci-e x1 справляется на ура

    — если нужен эстетический вариант в корпусе — magma.com/expressbox1.asp например

    — IBM (lenovo) давно уже выпускает (возможно к современным моделям не катит) t6x advanced dock со слотом x16 для видеокарты и pci-e x1 на нее через док-разъём.

    основная беда всех этих решений, впрочем в том, что нормального «андока» этой видеокарты просто нет и при желании отключить внешние экраны и унести бук в другое место, приходится делать ребут. потому имхо они и не прижились так сильно — в писюках pci(e) hotplug очень печальный.
    • +1
      Кстати забыл сказать!
      1. Включаем ноутбук (отдельно).
      2. Затем питание БП, затем платы, вставляю в ExpressCard — и оно схватывается на лету!

      Через 3 сек ставится драйвер и тут же переключается режим показа на 2 монитора.
      • +1
        А при выключении ExpressCard что происходит? Она же, как я понимаю, плаг-энд-плей?
        • 0
          Да. Есть обычная SSD ExpressCard 4ГБ. Она как флэшка на лету определяется.
          Также и эта ExpressCardPCIe. Подключил ее — и драйвер nvidia цепляется, основной экран идет влево на большой монитор.
          Сначала как моргнуло все — аж испугался что все, хана ноуту, а потом оно чудесным образом ожило на соседнем экране.

          Вот только выключить так не разу не получилось. Попробую как «извлечь устройство».
          В трее сейчас обнаружил нового поселенца — называется «видеоконтроллер VGA-совместимый».

          Если при включении ноута ExpressCard был включен то он не получает верной инициализации и не видится в ОС. Приходится после выключения ноута вытаскивать его. А при загрузке winlogon — втыкать обратно. Порядок запуска питания платы тоже важен.
          • +1
            отож. выключить — главная проблема :)
            • 0
              попробую из трея вырубить. завтра напишу результат.
              • 0
                Подтверждаю о вынимаемости лапы дракона из ноута!

                Порядок такой:
                1. В трее отключаем адаптер как будто usb-носитель. В результате тут же происходит выгрузка драйвера и основным монитором стал тот, что на ноуте.
                2. Выключаем питание основной платы с помощью удобной кнопочки на мини ATX плате (а не разматываем провода).
                3. Вытаскиваем ExpressCard. Винда издает «тылынь» о подтверждении вынимания.
                4. ОС работает ок.

                P.S. Ранее пробовал без 1пп. В итоге все замирало и только хард-ресет укладывал ноут спать. Вриходилось вырубать ноут не вынимая ExpressCardPCIe.
                • +2
                  Мне кажется, это нужно добавить в топик. Я, например, еще ни разу не слышал о видео-картах plug&play :)
                  • +1
                    сделано
    • 0
      Магма стоит денег довольно много. Вместо магмы действительно лучше купить новый компьютер/ноутбук.
      • +1
        согласен. но к ноуту подключить 4 экрана — других вариантов нет.
        • 0
          Именно! +1
  • 0
    Странно…
  • 0
    Сие творение уже мало похоже на ноутбук. Интересно было бы сходить с этим мутантом в макдак :D
    • 0
      угу, и запитать видеокарту от автомобильного аккумулятора
      • 0
        Который заодно с ноутбуком и монитором носить с собой в рюкзаке.
        • 0
          каждый раз доставать из авто)
    • +1
      Или в самолёт :-)
  • 0
    1. Имхо — как минимум удачное решение при необходимости подключать к ноуту с малым количеством видеовыходов несколько мониторов. Но если на ноуте есть DVI / HDMI / RGB (любых два из них), то этот момент в ценности уже отпадает.

    2. Надо порыть дилэкстрим и прочих — может, подешевле найдётся аналог.

    3. Вопрос: "… плата может подключаться и через 4 PCI-Ex1 интерфейса ..." — означает ли это, что эта плата, подключенная через n интерфейсов, будет в n раз быстрее передавать данные на видеокарту?
    • +5
      Есть разновидности комплектации платки PE4H.
      Вместо ExpressCard они могут использовать переходник на материнку.

      Вот о чем речь:



      • 0
        а уних нет наоборот, даунгрэйда — переходник платы с AGP2x воткнуть в мать с pci-e 16x, 4x или 1x
  • 0
    А как система выбирает на какую карту подавать полноэкранную 3D-игру?
    • 0
      В Винде один из мониторов выбирается «основным», на нем же система и цепляет таскбар, экран логина и т.д.
      • 0
        Не, ответ на его вопрос будет такой:

        Тащим игру за окошко на тот монитор, который подключен к нужной видеокарте. И все! :-D
        Например тащю alien swarm влево — 32 FPS, тащю на ноут окно его — 3 FPS…

        Винда смотрит позицию окна и какой моник отвечает за эти координаты, ну и говорит нужной видюхе api вызовы directx.
        Что приятно — так это что в 7ке все это происходит на лету и абсолютно незаметно для пользователя.
        • 0
          Он о играх без окошек, которые стартуют сразу в fullscreen. Оконныe приложения можно таскать туда-сюда, это понятно :)
          • 0
            Тогда согласен.
            Но в некоторых случаях просто тащу окно на нужный моник и в настройках выставляю fullscreen — он цепляется за тот моник, куда был перетащен.
            • +1
              Так ведь далеко не во всех полноэкранных играх есть оконный режим вроде. Или в современных во всех?
          • 0
            Более того, пока на экране больше половины окна — та видяха и рисует картинку для обоих мониторов.
            • 0
              «та видяха» — это которая?
              • 0
                У которой большая половина. Проверено. Более того, стояли рядом R5830 и N260ка и к каждой было по одному монитору.
  • +2
    ахренеть!
    респект )
  • +2
    Корпус бы чтоль человечий сколхозил. Так то идея интересная. Превратить таскабельный бук в мощную числодробилку там где это надо (на работе, например). Про матлаб хорошо вспомнили, ага.
    • +1
      Корпус будет. Выпилю. :-D
  • –3
    UPD добавил…

    P.S. не ставьте ↑ статье. Статье на это пофиг.
  • +10
    >не топовая видеокарта
    >>Palit GTX 460 2GB.
    Не знаю как это назвать
  • –1
    Видяшку с блоком питания и переходником оформить в корпус бы точно не помешало.
  • +1
    А у меня такой небольшой дурацкий вопрос, где можно мобильный процессор найти отдельно?
    Не отказался бы от апгрейда.
  • 0
    Для игр на офисном ноуте это извращение, но пост всё-таки надо было сделать как обзор платы самой.
    За плату с переходником на x4 спасибо, искал подобное решение, но конечный итог не нашёл, теперь мои поиски закончены :) Буду держать на заметке.
    Почему-то все уперлись в применение в качестве переходника для видео. А никто не думал, что можно тестировать raid контроллеры, перепрошивать то, что упало при прошивке в обычной системе, применять там где нету ничего кроме x4 разъема например, а вставить надо x8 или x16, для тестировщиков, для сервис центров и т.д.
    Люди смотрите шире, а вы уперлись в игрушки. Глупо.
    Автора конечно не поощряю за сам пост, так как стоило бы рассказать про сам переходник, а не видяху и игры, а в остальном спасибо за наводку по переходникам.
  • 0
    Точно такое же проделал со своим HP DV9690en, правда я взял GTX460 768MB. Работает также — на ура. <a href=«habrahabr.ru/blogs/DIY/104046/'>Тут писал об этом.
    Только я брал не PE4H, а PE4L, я решил что незачем переплачивать за режим 2x который мой ноут всёровно не потянет — обошлось в 65$ с доставкой.
    Плата точно также при 100% нагрузке трещит. (Кстати, это нормально?) Сама плата очень интересно сделана, текстолит-резина(?)-тесктолит, и скреплена болтами, такой трехслойный бутерброд.
    • +1
      Трещит или свисто-писко-трещит? Последнее — звук дросселей, нормально, для китайщины / дешевухи.
      • 0
        Скорее второе. А со временем это не может перерасти во что-нибудь большее? Так как помойму БП у меня тоже издаёт не самые приятные звуки.
        • +1
          Перерасти? Разве что в головную боль или депрессию. Или бессонницу.

          Приличный БП стоит достаточно смешных денег, 2.5к за Thermaltake TR2 на 550+- ватт, которого за глаза большинству — не так много, а учитывая его КПД и бесшумность — так и вообще копейки.
        • +1
          На оверклокерах можно поискать, как такие дроссели заливают лаком внутри, чтобы не пищали. Сам не видел инструкций, только упоминание о них, но смысл понятен — найти пустоты, в которых болтаются проводки дросселей, залить и высушить. Если дроссель открытый, то это совсем просто. Можно ещё найти похожий на сгоревшей матплате или в магазине и поменять.

          (Удивительно, почему некоторые статьи (я об этой и Вашей) о том же самом привлекают огромное внимание, а точно такие же — нет? Может быть, день публикации был неудачный? Но то и то — выходные. Может, здесь более наглядно — что хотим и что получили?)
          • 0
            Просто моя статья сначала была в песочнице, я за неё инвайт получил, поэтому не все видели :)
    • +1
      Ух ты. Поздравляю! GTX460 — вещь, да? :-D
      — Intel Core 2 Duo T7500 2.2Ghz
      — 3GB RAM
      завидую. у меня всего 2ГБ потолок. и стоковый камень был слабее значительно.
      • +1
        GTX460 действительно вещь :)
        Не жалею что взял её.
        Камень к сожалению греется очень сильно (50 в простое), пришлось программно понизить вольтаж — помогло, скинул 10 градусов.
        Ну и ноутбук то у вас изначально был не предназначен для этого, офисные как никак.
        Вас ещё повезло что у вас можно нормально включать-выключать, у меня только в Спящий режим и обратно, а то замучаешься обратно включать потом. Нечему завидовать :)
        • +1
          Кнопка «спящий режим» в винде же программируемая.
          Любое из событий выключения можно повесить на нее.
          Разве не так?
          • 0
            Так и сделал, просто дело в том что если его не выводить из спящего режима, а включать, то он сначала рухнет в BSOD и только со второго раза загрузится. Не знаю с чем это связанно.
    • +1
      Вопрос: а карту PCIe x16 можно ведь вставить в слот x1 (от PE4L) и спокойно работать?
      • +1
        Можно. Вот мануал www.youtube.com/watch?v=gVBD-M_STsc
      • 0
        Да, можно, с этим проблем не возникнет, PCIe x1-16 обратно совместимы, тоесть можно втыкать x1 в x16 и наоборот.
        Только если хотите всунуть полный (Или больше чем x1) в слот x1, смотрите чтобы он был на конце открытым, и чтобы нечего не мешало ему дальше слота.
      • +1
  • +1
    Ого, не слышал о таком решении вообще. Уже вижу, куда мог бы применить. Спасибо!
  • +2
    Помоему, это уже было…
    Вы знаете, там у производителя китайского еще и схемы плат и полностью все есть… Я дома такую сам собрал: помогло наличие запчастей, дохлая материнка и умение делать печатные платы
    • +1
      Действительно было — выше автор коммент сделал.
      Но когда надо было — поиск в сети на тему «апгрейд видеокарты ноутбука» — не дал нужных результатов.
      Было все не то. Потому и название топика такое. Чтобы те, кому надо — сразу нашли.
  • +3
    Большое спасибо за пост. Очень дельно и понятно, сделаю себе также, т.к от стационарника отказался, живу и работаю на ноуте, а когда нахожусь дома хочется больше 2х мониторов и производительности.
  • –3
    И всё это вместо того, чтобы за те же деньги пойти и купить нормальный десктоп.
    Всегда подозревал, что у ноутбукофагов что-то не в порядке с головой…
  • +9
    Эта статья гораздо интереснее, чем заказные высеры Бумбурума и несёт полезную информацию, в отличие от обзоров ноутбуков, псевдо-насов и дорогих компьютеров которые покупают в Юлмарте.
    Я всё, сливайте.
    • +1
      Батальон хомяков главнокомандующего минусует постепенно, в течении недели, пока никто не видит. Проверенно.
      • +2
        да похуй, сюда и в рид-онли уже заходить противно становится
  • 0
    Ну не знаю, что-то это попахивает расстройством психики:-) Из знакомых если кто и берет ноут как замену десктопу, то только в случае частых переездов, либо им достаточно мощности, в игры не играют, а на фильмы хватает. Но взять и из ноута сделать замену десктопу для игр, купить для него клавиатуру, блок питания, видяху и монитор, какой смысл, перевозить так же громоздко, как и обычный десктоп.
    • +2
      Есть разные задачи.

      Когда нужно перевозить его — а это явно не для игр — там видеокарта и монитор не нужны. Берем и перевозим т.к. ноут целый.
      А когда приехали домой — то дома можно и оторваться на полную :-D
  • 0
    вместо одного слабого места получили два слабых места возведенные в квадрат.
    Это я о размышлениях из серии, а что случится если у одного из БП (АТХ или штатный от ноута) начнется утечка по току на минус. Минус то простите теперь у обоих БП общий. Получим разность потенциалов на разных БП и в лучшем случае сработает защита в БП, в худшем похороним весь этот огород. Даже по фото видно, что в нескольких сантиметрах от этой конструкции еще и батарея — здравствуй земля.
  • 0
    habrahabr.ru/blogs/DIY/104046/

    Нашел что «Необходим внешний монитор». Можно ли заставить внешнюю видеокарту отображать на монитор ноутбука?
    • 0
      Не знаю таких способов. Экран ноутбука имеет на выходе тонкий шлейф, втакающийся в спец. гнездо на материнке.
      У него нет DVI\HDMI входа. Возможно в некоторых ноутах и есть такие экраны типа KVM, но я не встречал.
      Даже если и есть DVI вход у экрана, то одновременно может быть только один видеовход.

      Для внешней видеокарты желательно иметь внешний монитор. Иначе вы получите только CUDA\Stream ускоритель.
    • 0
      Можно заставить это работать на мониторе ноутбука, но для этого надо чтобы изначально в ноуте стояло видео от Intel. Тогда можно добиться связки а-ля Optimus, там в статье есть ссылка на форум, на нём для этого есть дрова. Но я бы это крайне не советовал этого, так как поток PCIe x1 и так не очень велик, а если его ещё и обратно гнать, то он станет ещё медленнее, и тогда вообще не будет в этом смысла.
  • +1
    Я в шоке! :-)
  • 0
    Блин, найти не могу, на www.overclockers.ru/ был материал, как самостоятельно такую штуку сделать, со схемой
  • 0
    Автор, просто чуточку скромнее будь) и будет тебе счастье) уверяю)
  • 0
    я наверное извращенец, но всё же спрошу:
    есть старый ноут с Linux на борту — хватает на всё что нужно, но иногда (прям совсем иногда) очень нужна 3д акселерация (на Intel 945GM особо не получается) в VirtualBox, в которой другая ось. И вот вопрос — можно ли с этой штукой забабахать 3д ускорение в виртуальной машине (можно с монитором в видяху)?
    • 0
      Да. Окно ВМ должно быть на мониторе, присоединенной к внешней видюхе.
      • 0
        Прошло 5 лет, но вот ответ неправильный. В линуксе не важно где у тебя окно, ускорение идет выбором устройства. В линуксе можно пробросить PCI физически в виртуалку. Таким методом можно макось запустить и на ней рендредить на внешней видеокарте видео, к примеру.
        Ну или винду и там в игрушки играть.
  • –1
    Клиника доктора Изврата…
  • –1
    На фотке под надписью «Подключаем все это дело по схеме:» ноут делл 1535, я свой родной ноут везде узнаю) Статья о ноута самсунговском, а картинка с деллом.
  • 0
    И зачем столько возни?
    Хай энд видеокарта + не самый мощный ноутбук + китайский контроллер, который сложно достать + низкая пропускная способность, следовательно низкий профит.
    И это только ради кучи мониторов. Смысл?
  • 0
    Дороговато что то все таки 100 баксов за контролер

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.