Пользователь
0,0
рейтинг
2 октября 2010 в 07:12

Ставим вторую видеокарту в разъём PCI-Express x1

Если в компьютере имеются 2 видеовыхода и захотелось подключить 3 монитора, то с некоторой вероятностью сделать это просто добавлением второй видеокарты не удастся — не все материнские платы имеют 2 разъёма PCI Express X16, а в многочисленные разъёмы PCI Express X1 видеокарты обычного размера не встанут из-за несовместимости по разъёму. Не все знают, что на самом деле установка длинного разъёма X16 в короткий слот возможна, поэтому не обязательно для 3-го монитора покупать другую и более дорогую материнскую плату. Способам расширения потенциальных возможностей компьютера посвящена эта статья, а также она развеивает сомнения и опасения о том, что что-то при доработке платы напильником не получится. Час работы — и 3-й монитор к Вашей системе будет подключен.

Проблема установки 2 видеокарт существует из-за того, что большинство слотов PCI-Express x1 имеют пластмассовый бортик на конце, дальнем от стенки корпуса компьютера, а видеокарты не имеют прорези для совместимости с бортиком. Как показывается ниже, проблема решается простым прорезанием этого бортика.

Для чего это может понадобиться?

1) Для установки 3-го монитора в систему.

Существуют, конечно, решения с 3-м монитором без хирургических операций с разъёмами.
1.1) Купить материнскую плату бюджетного типа с видеоразъёмом, установленным на плате. Внимание! Нужно быть уверенным, что BIOS платы не отключает автоматически встроенное видео, если видит установленную видеокарту. Для некоторых, особенно, бюджетных плат, такое решение встречается. Как убедиться в неотключении встроенного видео? Скорее всего, только опытом установки (видеокарты и 2 видеодрайверов), потому что в инструкциях к плате об этом могут не написать. (Например, я когда-то подключал для проверки 3 монитора к бюджетной плате Intel (на G31), но бюджетные платы Gigabyte с 2 слотами для ОЗУ имели функцию автоматического отключения встроенной графики.)
(рис.1)
1.2) Купить видеокарту с разъёмом PCI-Express x1. Таких видеокарт немного, но они есть. news.softportal.com/nitem-5729.html, www.oszone.net/print/9646, www.oszone.net/11230/Club3D_PCIe_x1_Radeon_HD_4350.
(рис. 2)
1.3) Купить материнскую плату с 2 или более разъёмами PCI-Express x16 (многие платы не нижней ценовой категории).
(рис. 3)
1.4) Отрезать лишний текстолит от видеокарты, как, например, здесь:
www.invisiblerobot.com/pcie_x1
(рис. 4)
(в какой-то степени шутка — зачем портить видеокарту, но здесь тоже так делали:
www.overclockers.ru/hardnews/22289.shtml )
1.5) Сильно не заморачиваться, а купить матплату, на которой стоит побольше PCI-Express x16-разъёмов:
(рис. 5)
(ещё большая шутка).

Все способы предполагают материальные затраты и более ограниченный выбор вариантов конфигурации. Если уже имеется плата со свободным слотом PCI-Express x1 и видеокарта с разъёмом PCI-Express x16, проще поступить так, как описано ниже.

Способ 1.6) Сделать прорезь на любом разъёме PCIe X1, удобном для установки видеокарты.
(рис. 6)

Спецификация требует включения линий питания и заземления карты расширения, даже если используется меньшее количество соединений. Поэтому, теоретически, после подключения мы можем получить проблемы из-за неполного подключения к питанию, но на практике их нет, потому что все линии питания на видеокарте просто объединяются в одну, а на маломощных видеокартах (не выше 3850) токи питания и частоты не настолько велики, чтобы это было критично. (Для решения проблемы есть адаптер uk.startech.com/product/PEX1TO16-PCI-Express-x1-to-Low-Profile-x16-Slot-Extension-Adapter, но он не понадобится.) По крайней мере, можно так надеяться, а более мощные видеокарты уже нет оснований так включать, потому что для них начинает сказываться ограниченная пропускная способность шины (в конце статьи — ссылка, дающая ответ на вопрос, видеокарту какой мощности разумно ставить в PCIe X1, а если в 2 словах, то ничего не теряем для видеокарт уровня GF8600GT/ATI 2600XT). Да и карта становится тяжёлой, что опасно для целостности такого небольшого разъёма.
UPD 2.10.2010 13:25 Читатели в комментариях напомнили ещё несколько способов подключения 3-го монитора, от известных древних до новых.
1.7) Купить видеокарту PCI. Так подключали мониторы во времена AGP и ранее. Такие карты существуют не только очень старые — есть инициативные производители, выпускающие их сейчас на современных чипах (обычно с фантастическими ценами):
www.3dnews.ru/news/audio_videokarta_asus_pod_shinu_pci_s_podderzhkoi_hdmi_1_3a
www.newegg.com/Product/Product.aspx?Item=N82E16814131082
www3.pny.com/8400-GS-512MB-PCI-Low-Profile-P2679C269.aspx
www.thg.ru/technews/20070820_110407.html
Исключение: как указал читатель Silent forest, нельзя добиться результата, если PCI-карта и PCI-Express-карта будет от одной и той же фирмы VNidia из-за банальной неподдержки драйвера для старой карты NVidia одновременно с новой (установка ATI PCI-Express разрешила конфликт).
1.8) Купить адаптер USB 2.0 to VGA (цены тоже довольно сильно кусаются, не менее 40$ — продукция ведь не массовая, выпускается некрупными партиями, с высокой долей себестоимости разработки):
www.nix.ru/autocatalog/adapters_switches/STLab_U470_USB_to_VGA_Adapter_88604.html
www.nextag.com/Startech-USB2VGAE2-USB-To-669150066/prices-html
(Наверное, есть проблемы с драйверами под немассовые операционные системы.)
1.9) Воспользоваться технологией ATI Eyefinity (для 3-го монитора требуется адаптер DisplayPort и видеокарта с поддержкой Eyefinity — Radeon 5xxx (чип RV870) и, разумеется, третий монитор с разъёмом DisplayPort) — для тех, кто хочет поддержать материально развитие инновационных технологий :)
www.amd.com/ru/products/technologies/eyefinity/Pages/eyefinity.aspx
www.nix.ru/computer_hardware_news/hardware_news_viewer.html?id=159707&page=10

2) Для подключения видеокарт в режиме Crossfire.

Строго говоря, для этого режима предусмотрены специальные материнские платы. Но, возможно, решение будет работать и с любой парой разъёмов PCIe (не проверялось).

Процесс доработки разъёма.

Перед работой убедитесь, что на материнской плате действительно будет свободное место для установки свободно висящего «хвоста» разъёма PCI-Express x16. Могут быть детали (конденсаторы, другие разъёмы), которые, в лучшем случае, удастся перепаять, разместив в другом положении.

Прорезание стенки достаточно просто, но требует соблюдения нескольких технических моментов в плане аккуратности операции.
1) материнскую плату лучше вынуть из корпуса, так как неосторожным движением можно повредить целостность разъёма или окружающих деталей;
2) прорезание выполнять так, чтобы не треснула пластмасса разъёма в основании. Поэтому, не использовать кусачки, резать острым скальпелем или лезвием для строительного ножа, соскабливая мелкими кусками или дремелем (машинкой для боров с установленной циркулярной пилой или наждачным диском), но осторожно, чтобы не повредить контакты. Нарушение целостности пластмассы тоже может привести к раздвиганию контактов, ненадёжному соединению.
3) срезая кусочки пластмассы острым ножом, следует быть очень осторожным, чтобы не срезать пружинящие контакты, которые находятся буквально в миллиметре от места операции. Если резать неострым ножом, на процедуру уходит времени 25-30 минут, а контакты, вероятнее, оказываются более защищены тем, что неострое лезвие их не перережет. На практике, у меня один контакт отогнулся вовнутрь, в пространство для текстолита карты, но затем его удалось подогнуть обратно.
4) пластмассу срезать до уровня дна разъёма; на фото показан процесс последовательного выскабливания стенки разъёма до нужной глубины:
(рис. 7)
5) перед установкой видеокарты внимательно проверить, что контакты не загнуты вовнутрь и видеокарта их не повредит.
6) при установке видеокарты — проверить, не прикоснётся ли оголённый разъём видеокарты проводящих поверхностей (радиаторы, детали). Если есть такая опасность, изолировать разъём или поверхности хотя бы скотчем или толстой бумагой, прикреплённой к карте.
(рис. 8)

7) После установки 2-й видеокарты — закрепить её за корпус, так как точка крепления за один маленький разъём PCIe довольно опасна для целостности самого разъёма.

На практике, я игнорировал рекомендацию (1), потому что места для работ внутри корпуса хватало и пользовался неострым б/у-лезвием. Стружки изнутри разъёма выдувал через трубку от шариковой ручки (использование офисных инструментов).
(рис. 9)
Столь незначительный набор инструментов (лезвие, трубка, возможно — скотч) и около часа времени на установку — небольшая плата за возможность подключения 3-го монитора. Может быть, он окажется лишним, но проверить удобство работы с ним и без него лишним не будет.
(рис. 10)

Пример процесса прорезания стенки разъёма, заснятый на видео, используя нагретое лезвие кухонного ножа: www.youtube.com/watch?v=gVBD-M_STsc (другой автор; на ютубе видео выложено 19.10.2009).
(рис. 11)
Такой способ тоже приведёт к результату, даже быстрее минут на 10, но «холодный» способ удобнее тем, что пластмасса не деформируется и не понадобится счищать наплывы, приводя к презентабельному виду.

Другой пример решения через удлинитель-переходник PCI Express x1 на PCI Express x16 — в статье автора SilentF people.overclockers.ru/SilentF/record4.
(рис. 10a)
Здесь же решён вопрос, нерешение которого может привести к незапуску видеокарты: соединён контакт PRSNT #2 на конце разъёма PCIe x16 с таким же сигналом на разъёме PCIe x1. Он отвечает за определение «полноценной воткнутости» карты в слот: при неполностью вставленной карте определённый бит PRSNT (Piin-based Presence Detector) аппаратного регистра говорит «0» — «не вставлена». Если на видеокарте эти линии не замкнуты, без этой доработки регистр так и будет отмечать: «не вставлена», а что на основаниии него решит система — можем проверить. В любом случае, отсутствие сигнала не должно приводить к нестабильной работе: он влияет на этот аппаратный бит, а переход из 0 в 1 ещё создаёт аппаратное прерывание (hot plug карты расширения — «вставка во время работы»). Что оно делает в системе, заблокировано ли (по идее, должно, т.к. в компьютере PCIe — не «hot-plug» разъём) — тоже не известно, но опыт показывает, что без перемычки видеокарта 8300GS в PCIe x1 работает. (Если будет подозрение на некорректную работу вследствие PRSNT #2, можно сделать перемычку тонким проводом прямо на видеокарте.)

Установка 3-го монитора в системе (Windows XP)

При включении компьютера на вторую карту видеосигнал сначала не подаётся, дисплей сообщает о неподключённом кабеле. Операционная система без проблем обнаруживает видеокарту и подключает драйвер, если это карта того же производителя, что и первая, ранее установленная. WinXP просит перезапустить себя после автоустановки драйвера без каких-либо специальных действий для этого. После перезапуска система стала видеть монитор на второй видеокарте, а монитор обнаружил подключение кабеля.
(рис. 12)
(Интересно, что 2-й монитор на 1-й видеокарте пронумеровался в системе третьим.)

После активации монитора в свойствах дисплея (возможно, потребуется запуск мастера подключения мониторов, зависит от драйвера) на нём появляется фон рабочего стола.
(рис. 13)
Остаётся настроить разрешение и частоту подключения. При установке монитора ЭЛТ не забываем установить частоту развёртки не менее 70 Гц, чтобы не пользоваться 60 Гц по умолчанию. Для LCD-мониторов такое действие не нужно.
(рис. 14)
Если производители чипов (NVidia, ATI, Matrox) разные, нужно установить второй драйвер — обычно, по отзывам из других статей, они уживаются вместе (UPD: по подсказке Jeditobe и подтверждению guessss_who, Windows Vista не поддерживает одновременно драйверы разных производителей видеокарт. XP и Win7 этим не страдают.). В настройках дисплея из системы подключается нужное количество дополнительных мониторов. Результат:

(рис. 15)

В других статьях были неоднократные измерения производительности видеокарт на разъёме PCI-Express x1, в которых показано, что все видеокарты уровня ниже ATI 3850 / GF 9800 в любых режимах и играх ведут себя практически одинаково по сравнению с разъёмом PCI-Express x16 — им хватает предельного потока данных через 1 канал PCI-Express, равного 250 Мбайт/с в одну сторону (500 Мбайт/с в обе).

Приведём статью, в которой рассматривается падение производительности на 15-20% в тестах на ATI 3850 при PCIе x1, х4, х8, х16.
www.tomshardware.com/reviews/pci-express-2.0,1915-9.html
На GF 9800 GX2:
www.tomshardware.com/reviews/pci-express-2.0,1915-10.html
Статья большая; на разных страницах описано, каким образом ставились опыты.

Выводы

Если для видеокарты не стоят игровые задачи или она маломощная, то решение на PCIе x1 почти не будет уступать другим решениям с более дорогой материнской платой (кроме некоторых очень требовательных приложений наподобие Microsoft Flight Simulator, Crysis, Call Of Duty 4).
spmbt @spmbt
карма
140,5
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое

Комментарии (100)

  • +10
    Еще одно «бескровное» решение забыли: купить видеокарту ATI HD 5xxx с поддержкой Eyefinity :)
    • +3
      или попросту купить видеокарту которая поддерживает 3 одновременно подключенных монитора.
    • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Не поверите, но ни одна видеокарточка от nVidia физически не позволяет подключить три монитора. Физически — в смысле три кабеля (DVI*2 + HDMI) просто невозможно туда воткнуть из за очень продуманного расположения разъемов.
        • 0
          я мне кажется там один из DVI и HDMI являются взаимоисключающими. Вряд ли там 3 RAMDAC'а стоят.
          • –3
            Скорее всего, но это не исключает того что туда физически нельзя воткнуть кабеля от трёх мониторов.
          • +2
            зачем ramdac для цифрового dvi?
          • НЛО прилетело и опубликовало эту надпись здесь
          • 0
            У меня два монитора подключено — по DVI и HDMI, без проблем работают одновременно. При этом свободен ещё D-Sub разъём. Надо будет попробовать к нему подключить третий монитор ради интереса :)
            • +3
              Я подключил. Работают любые два канала. Из трёх.
        • 0
          Глупость говорите. У меня на GTX 460 прекрасно втыкаются одновременно 3 разъема. Если не верите, могу сфотографировать.
        • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      Активный display-port->dvi переходник стоит весьма дорого. Дешевле купить вторую/третью видюшку начального уровня.
      Да и кого сейчас проблемы с количеством pci-ex x16 слотов?
  • +1
    Очумелые ручки :) И как оно в деле?
  • +11
    Элт рядом жк, у меня глаза не вытекают?
    • +8
      у вас*
    • 0
      Когда у меня не было денег на нормальное железо, я тоже как только не извращался :)
      Ни коим образом не хочу оскорбить автора, но похоже, что он сейчас проходит через эту же стадию. И это здорово на самом деле :)
      • 0
        Не совсем угадали. Эти 3 монитора — для работы в офисе, а там трудно и долго доказывать необходимость выделения для работы 3 мониторов, когда другие пользуются максимум двумя :). А для работы (IDE Eclipse + тестированите в фронтенда в браузерах) 3 монитора, причём с не менее 1600 пикс — довольно полезны.

        (2Aquahawk) C ЭЛТ есть один очевидный секрет: чтобы они были по качеству не хуже LCD, сведение должно быть идеальным. Мониторы подобраны (и настроены) именно такие.
    • 0
      у ЭЛТ есть одно примемущество: На них можно МЕНЯТЬ РАЗРЕШЕНИЕ, а для тестирования иногда это удобно.
  • –5
    Красавчик! Автору «пятерка».
  • 0
    Как называется этот зверь с 7-ю 16x?
  • +1
    В ХР и Семерке возможна установка видеокарт разных производителей, а вот Виста такого не поддерживает — можно только одного производителя.
    • 0
      пруф?
      • +1
        А попробуйте, вот и будет вам пруф.
        • +10
          Отличный ответ. «Бросьте все ваши дела, найдите материнскую плату с 2 портами PCI-Express 16x, минимум 3 видеокарты (две одного производителя и еще одну другого), установите туда Windows Vista и проведите тестирование, чтобы убедиться, что мое утверждение ложно (или правдиво). А кто этого не сделал — тот тупой хомяк».

          Даже не знаю, что мне делать. То-ли бежать вприпрыжку искать всё это железо и софт. То-ли впредь верить вашим словам безоговорочно. :)
          • –3
            Отличный ответ, да. Интересно — проверяйте, нет — проходите мимо. Это вам решать, я вас не заставлял.

            1. Для проверки нужно 2 видеокарты, а не три.
            2. Гугл и Яндекс никто не отменял.
            3. То, что я не привел доказательств, это еще не значит, что мое утверждение ложно и меня нужно минусовать.
            • +1
              Да не минусовал я вас. И мой вопрос не был «наездом» — по-моему, нет ничего зазорного в том, чтобы попросить у оппонента привести ссылки на доказательство или просто более подробную информацию по его утверждению.

              Кстати, о вашем утверждении. Под «производителями видеокарт» обычно подразумевают фирмы, которые производят видеокарты. Это Sapphire, PowerColor, HIS, Leadtek, XFX, ASUS, Gigabyte и т.п. Понимаете, к чему я веду? Если бы вы сразу привели ссылку, например, на статью в википедии о WDDM 1.0 — недопонимание было бы устранено в зародыше, на этом вопрос был бы исчерпан и вам не на кого было бы обижаться. :)
              • +1
                А я не обиделся,
                «я потому такой злой, что у меня на велосипде сиденья нету» (с) Почтальон Печкин

                Ссылку сразу не дал, т.к. не мог вспомнить, где читал.
                • +3
                  Минусование стимулирует память.

                  Обидно же, когда вы правы, а вас минусуют.
                  Народу нужны аргументы.
                  • +1
                    Минусы сливают мою карму и стимулируют никому ничего не писать вообще.
                    • +1
                      Не те выводы.
                • 0
                  «2. Гугл и Яндекс никто не отменял. » ©
          • +1
            • +1
              Уважаемый, то что нельзя запустить PhysX, это еще не значит, что данная конфигурация не работоспособна.
              • +2
                Новая модель драйверов требует, чтобы графическая аппаратура поддерживала по крайней мере Shader Model 2.0 (fixed function pipeline is now translated to 2.0 shaders). Однако, по информации Microsoft, на 2009 год только около 1-2 процентов аппаратуры использовало модель драйверов Windows XP[5], а остальные уже являются WDDM-совместимыми. Модель также требует наличия некоторых других аппаратных возможностей (по этой причине, например, аппаратура, поддерживающая SM 2.0, такая как Intel GMA 900, не проходит сертификацию на WDDM [6]).

                Одно из ограничений драйвера WDDM версии 1.0 в том, что он не поддерживает одновременно несколько драйверов в многоадаптерном многомониторном окружении. Если у многомониторной системы более одного графического адаптера, оба адаптера должны использовать один и тот же драйвер WDDM. Если используется более одного драйвера, Windows выключит один из них.[7]. У WDDM 1.1 уже нет такого ограничения.
              • +4
                На самом деле он все-таки прав. :) Если верить википедии, спецификация WDDM 1.0, которая использовалась в Windows Vista, не позволяла использовать одновременно несколько видеодрайверов, эта возможность появилась только в WDDM 1.1 в Windows 7. Модель драйверов, которая использовалась в XP, такого ограничения тоже не имела.

                Естественно, если видеокарты от разных производителей используют один и тот-же драйвер (например, если у нас Radeon-ы от Sapphire и PowerColor, или nVidia Leadtek и XFX) — всё будет отлично работать. :)
    • –12
      Тупые хомяки снова минусуют то, в чем не разбираются.
  • +4
    интересно, теперь можно будет сделать 4 рабочих места из 1 компа?
    • 0
      и раньше можно было. это от ОС и софта зависит, а не от типа видеокарт.
      • 0
        с pci и agp видеокартами это было настолько геморно, что проще было купить 4 отдельных компа.
        • –4
          Можно запихнуть две-три материнки в один корпус.
          • 0
            молотком
  • 0
    Как вариант, если есть мать на чипе AMD, то можно встроенный радеон использовать в hybrid crossfire с дискретной AMDшной графикой. Вот тебе и третий монитор и плюсом немножко производительности в играх
    • +1
      Кстати кто нибудь знает как задействовать этот hybrid crossfire? Специально купил ати, чтобы встроенная помогала при обработке, но включить обе не удалось
      • 0
        Там не все подряд матери работают в hybrid режиме. Какая мать и какая дискретная карта?
  • +3
    Да божеш ты мой! Покупаем десяток www.nix.ru/autocatalog/adapters_switches/STLab_U470_USB_to_VGA_Adapter_88604.html — и у нас десять отдельных выходов под мониторы. Второй раз вижу на хабре статью про подключение третьего монитора, но везде: Eyefinity, напильники и прочая ерунда.
    • 0
      ты знаешь как комп будет тормозить?? хотябы с одним адаптером попробуй поработать. там 2d-ускорения никакого нет, не говоря уже о 3d
      • +1
        Уважаемый, я не советую то, чем не пользовался. У меня стоит именно та что по ссылке. На этом мониторе постоянно Media Player Clasic, портебление памяти 2 метра, загрузка ЦП: 0. Да, в кризис популять не выйдет, но для «работы» — вполне.
        • 0
          еще у подобных девайсов есть серьезные проблемы с хендлами. видео кажут тудым сюдым, но если содерживое окна меняется(по результатам рассчетов) без перерисовки самого окна, в лучшем случае получите слайдшоу, со скоростью обновления равной скорости клика по заголовку окна.
          • +1
            Возможно, но за полтора года юзания (MPC, фотошоповские тулбары) ничего подобного.
        • –1
          Думаю USB to DVI будет актуальней.
        • 0
          2д не нужно медиаплееру. 0% загрузки цп — это ложь. у меня медиаплеер тоже умеет кучу фильмов открывать с загрузкой пара процентов ЦП. хех
        • +1
          А как насчет Aero, например? И что с поддержкой не-в-Windows?
    • 0
      Спасибо, добавил в статью как возможность, но статья несколько не об этом, что подчёркивает шутка в пункте 1.5. Если есть желание потратить деньги на апгрейд, есть 8 способов сделать это с разной степенью изощрённости. И только один (ну или два-три, если валяется видео PCI или если есть встроенная графика на матплате), который условно-бесплатен: если валяется без дела маломощная видеокарта PCI-e (что намного более вероятно, чем адаптер), денег вообще не понадобится.
  • 0
    Если я правильно понял то компьютер на такой видеокарте не стартует? Тоесть биос на нее инфу не выводит? Просто был недавно случай, выгорел главный PCI-E порт на мамке, я вот так выпилил PCI-E 1x но видео не поднялось…

    И в решениях на подключения 3-го монитора вы забыли о простой PCI карточке. Если игры не играть то и какой-то ATI на 4 мб вполне хватает… Конечно можно и что-то покруче, например у меня есть GeForce4 64 мб под PCI
    • 0
      Если у вас выгорел PCI-E разъем то скорее всего он утянул за собой еще и коммутатор. А так работать оно должно. Вторая часть разъема где варьируется количество контактов отвечает за шину передачи данных и она может варьироваться.
    • +1
      Matrox выпускают еще кучу забавных видюх, и под PCI и под PCI-Ex1. конечно куда менее бюджетно нежели выпилить дремелем, но менее коленочное решение.
    • 0
      Не пробовал. При старте первый раз мелькнул экран биоса на 2-м компьютере, поэтому, скорее всего, карта запустится. Не нарушился ли случайно разъём при выпиливании? Это более вероятная причина незапуска. Или, как говорили выше, выгорело ещё что-нибудь.

      Второй PCIE X16 работал с одиночной видеокартой (опыт был на чипсете nVidia с сокетом A.939).

      PCI дописал в статью. Его не вспомнил, потому что решения на новых картах очень дорогие, а на доступных по цене старых — не поддерживают большие мониторы из-за ограниченности памяти.
  • +14
    Чувак, ты гений, так расписать фразу «спилите задний бортик разъема» не каждому дано :)
    • +2
      Да, я тоже удивляюсь, но у массы народа есть опасения о том, что так делать возможно. Далеко не все читали статьи об архитектуре PCIe и слова о том, что количество линий PCI express для протокола обмена не имеет значения. Поэтому надо показать, доказать, да и процесс работы, оказалось, имеет массу оговорок.
  • +2
    У меня стоит 2008R2, в мамке встроенная видюшка с двумя выходами, и Radeon HD4850 с двумя выходами. Система прекрасно определяем 4 выхода и поддерживает 4 монитора. По логике семерка должна уметь также. Можно обойтись и без напильника.
  • 0
    Я правильно понял, что любая видеокарта аппаратно совместима с х1 (со спецификацией на pci-x не знаком), и ограничения исключительно физические?

    Странно в таком случае, что их не сделали совместимыми на физическом уровне (чтобы в этом месте на «старших» pci-x была выемка)
    • +1
      Да. часть призводителей делает открытые PCIe x4 в которые можно ставить полноценную видеокарту.
      • +1
        Они их еще защелками комплектуют, а вот если оные не удается поставить, то очевидней лучше поставить закрытый разъем.
    • 0
      Да. Это написано хотя бы в Википедии. Не полностью совместимо — требуются все контакты питания для карт расширения с длинными разъёмами, об этом упомянуто в статье. Но на практике это ни на что не влияет (разве что какой-то производитель видеокарты ошибётся и не замкнёт все эти линии накоротко).
  • +2
    Можно разориться на Matrox M9188 и на 8 мониторов… =)

    О таком способе не знал, может когда-нибудь и пригодится =)
  • 0
    Огромное спасибо! :) На работе нескольким коллегам неповезло с системниками — там PCIe только 1x, а к интегрированному видео от Intel 2 монитора не подключишь. Похоже, на следующей неделе будем пилить порты. :)
  • 0
    Забавно, забавно.
    А если к GT240 на PCI Ex 16x по этому способу добавить GT7600 на PCI ex 1x — на одномониторной конфигурации профит будет?
    • 0
      Не будет, т.к. 7600GT даже для PhysX не использовать, к сожалению =\ Не говоря уж об SLI, где даже GT/GS заводятся в тандеме исключительно после перепрошивки биоса и выравнивания частот.
      • +1
        В смысле, что даже разные индексы одного видеочипа работают вместе лишь после существенных шаманств.

        У самого GT240 установлена — и 7900GS артефактная в ящике стола. Думал о PhysX, был разочарован. Если кто подскажет возможное применение этого полудохлика — буду весьма благодарен :)
      • 0
        Гм, это про всю серию или конкретно про 7600GT?
        • 0
          черт, случайно отправил. Я к тому, что у меня 8800GT разных производителей и с разными частотами прекрасно работали в SLI, никаких шаманств.
          • 0
            Я, если честно, доподлинно не знаю — критично ли выравнивание частот, может они и сами выравниваются, черт знает.
          • 0
            1. SLI на плате без аппаратной поддержки SLI — не пойдёт. Поэтому для процессоров c2d SLI будет работать только на чипсетах NVidia.
            2. Если плата с чипсетом NVidia, SLI пойдёт только для 2 одинаковых моделей видеокарт. Если видеокарты — серии 7xxx то ещё официально требовалась одинаковость производителя, для 8xxx и старше такого ограничения нет. Но практически, карты 7xxx работали от разных производителей в SLI.
  • 0
    Теперь у меня не возникает вопроса как сделать из одного монитора три.
  • 0
    Порадовал пункт «1.4) Отрезать лишний текстолит от видеокарты, как, например, здесь:».
    Выглядит очень брутально.
  • 0
    А ведь есть еще и USB-мониторы ссылка.
    • 0
      а на них играть в 3d игры можно?
      • 0
        на USB 2.0-видеокартах можно максимум посмотреть кинцо, примерно в таком же качестве как по RDP в GE.

        по сабжу — пилите, шура, пилите. не проще брать видео изначально с pci-e x1? опять говно и палки.
  • 0
    Пробовал работать с тремя девятнашками, в итоге откатился на два 23". Неудобно с тремя.
    • 0
      А у меня сейчас дома 21.5" + 22", и тоже не сказал бы, что удобно. Жаль, что ни один из моих мониторов нельзя развернуть на 90° — было бы гораздо лучше.
  • +1
    А чем 1.3 отличается от 1.5?
    • 0
      Различным отношением к деньгам.
      • 0
        1.3) Купить материнскую плату с 2 или более разъёмами PCI-Express x16 (многие платы не нижней ценовой категории).
        1.5) Сильно не заморачиваться, а купить матплату, на которой стоит побольше PCI-Express x16-разъёмов:

        Купить материнскую плату != купить материскую плату?
        • 0
          www.evga.com/products/moreInfo.asp?pn=270-WS-W555-A1&family=Motherboard%20Family&series=Intel%205520%20Series%20Family
          (MSRP: $599.99 — «цена в минимальной конфигурации»)
          Сравните с ценой на эту
          • 0
            Честно говоря я все еще не понял в чем соль
          • 0
            www.evga.com/products/moreInfo.asp?pn=270-WS-W555-A1&family=Motherboard%20Family&series=Intel%205520%20Series%20Family
            (MSRP: $599.99 — «цена в минимальной конфигурации»)
            Или такую www.ulmart.ru/goods/202091/?head=1&from=rambler_price_msk.
            Сравните с ценой на эту
            www.flashcom.ru/market/product.php?ELEMENT_ID=86382&SECTION_ID=1698
            (3315 р. в России). Может, действительно для кого-то никакой разницы. Но это и есть различное отношение к деньгам.
            • 0
              Уважаемый, а причем тут цена?
              Т.е. 1.5 это тот же вариант что 1.3 но дороже? :)
              • 0
                Не только. Смотрите внимательнее. Вам придётся потратиться не только на матплату, но и на всю периферию. Плата с 8*PCIex x16 отличается совершенным пренебрежением к оставшимся у Вас картам расширения, а значит, и к Вашим деньгам.

                К тому же, я написал, что 1.5 — это шутка. В направлении цены. Если быть совершенно серьёзным, на этом месте я должен был бы написать: «Если у Вас есть (желание потратить) деньги на апгрейд, то Вам совершенно не надо читать дальше, хватит и тех 9 способов, тем более что есть платы с 8*PCIex x16. Покупаете их, меняете все карты на PCIex, и Вы впереди планеты всей».

                Тут уже были несколько возгласов: зачем делать, если можно купить? Смысл статьи — в противоположном: зачем покупать, если можно делать. Пункт 1.5 — самое яркое отражение противоположного подхода, поэтому он выделен отдельно. (К нему ещё карту Eyefinity 5870 6 Edition: www.amdclub.ru/novosti-hardware/radeon-hd-5870-eyefinity-shest-vichodov-mini-displayport-v-komplekte .)

                www.thg.ru/graphic/amd_radeon_hd_5870_eyefinity_6_edition/
                В этой статье где-то нашли мониторы 1920x1080 за 229$, и всего у них получилось вместе со стойками 1374$ за 6 мониторов. Очень дёшево.
  • 0
    есть мониторы со встроенными видеокартами ))
    www.ixbt.com/monitor/samsung-ld220g.shtml
    • 0
      Будем считать это разновидностью USB2VGA.
  • 0
    Сейчас не так мало плат которые имеют на борту несколько пси-е разьемов ( даже среди бюджетных решений) + есть специально для таких задачей карты с разьемом PCI.

    Хотя автору респект за труд, не часто встречаются нынче компьютерные маньяки :)
  • 0
    Цитата: «кроме некоторых очень требовательных приложений наподобие Microsoft Flight Simulator, Crysis, Call Of Duty 4» [я не достоин вставлять теги]

    Т.е. при подключенных двух мониторах в полноэкранном режиме (в игре) производительность будет ниже, чем в той же самой игре, с теми же настройками, только без второго монитора? Даже если во втором монике исключительно AIMP и Seesmic?
    Я с недавних пор счастливый обладатель двух ЖК, поэтому интересуюсь :) И да — Call of Duty 4 — далеко не требовательная.
    • 0
      Посмотрите тесты в статье (на tomshardware.com). На карте x1 сильно падает производительность на CoD4. Требовательность здесь — к объёму потока данных. Если поток в среднем за какое-то время превышает 250МБ/с — будет торможение.
  • 0
    Я ведь правильно понимаю, что если воткнуть в PCI-E 1x карту типа такой, то она справится с проигрыванием видео 1080p?
    • 0
      Если заработает — то да
      • 0
        Спасибо, уже работает)

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.