Юлмарт ulmart.ru
Компания
82,21
рейтинг
24 марта 2015 в 19:42

PC Buyer's guide: выбор видеокарты

Привет, Geektimes! Мы продолжаем наш цикл статей о выборе железа для компьютера. В прошлых выпусках мы затрагивали тему материнских плат, процессоров и чипсетов, систем охлаждения, жёстких дисков и блоков питания. Сегодня же говорим о том, что выводит ваш любимый ресурс на мониторы: о видеокартах.



Собственно, все видеокарты можно поделить на два больших лагеря: профессиональные и потребительские. Нет, профессиональные видеокарты нужны не профессиональным игрокам, а тем, кто работает с 3D графикой: аниматорам, мультипликаторам, моделлерам и используются они обычно при создании видеороликов, фильмов и потрясающих декораций к ним. Как правило, такие видеокарты стоят запредельно много.

Потребительские же видеокарты (о которых мы, в основном, и будем говорить) бывают двух типов: встроенные и дискретные. Отличаются они в первую очередь производительностью и ценой: если «встроенные» решения, по большей части, нужны, чтобы офис с браузером на экран выводить, и крутую трёхмерную графику тянут с трудом, то «выделенные» в отдельное устройство видеокарты, наоборот, заточены именно под игры и работу в «тяжёлых» приложениях.

Встроенная графика


Изначально, встроенные видеоадаптеры были частью т.н. «северного моста»: большой микросхемы на материнской плате, которая выступала «хабом» между CPU, оперативной памятью, видеоадаптером и «южным мостом», который отвечал за устройства ввода-вывода: жёсткие диски, USB-порты, сеть, звук и слоты расширения PCI-X и PCI-Express. Постепенный «переезд» функций северного (а сейчас и части южного) мостов непосредственно в CPU повлёк за собой и перенос графического ядра.

В продуктах Intel вы можете столкнуться со следующими графическими адаптерами:

Сравнительно актуальные модели
Шестое поколение, 2011-2012
Intel HD Graphics
Intel HD Graphics 2000
Intel HD Graphics 3000

Седьмое поколение, 2012
Intel HD Graphics 2500
Intel HD Graphics 4000

Седьмое поколение, 2013
Intel HD Graphics 4200
Intel HD Graphics 4400
Intel HD Graphics 4600
Iris Graphics 5000
Iris Graphics 5100
Iris Pro Graphics 5200

Восьмое поколение, 2014+
Intel HD Graphics 5300
Intel HD Graphics 5500
Intel HD Graphics 6000
Iris Graphics 6100
Iris Pro Graphics 6200

Всё, что ниже Intel HD 4400 — достаточно старые решения. С выводом двухмерной графики у них проблем нет, с декодированием видео — тоже, но про игры можно смело забыть. Всё, что выше, впрочем, тоже особой производительностью в трёхмерных приложениях не блещет, но уже находится на куда более приятном уровне производительности.

Все эти видеочипы, в принципе, не предназначены для сложных игр: казуальные браузерки, трёхмерные игры десятилетней давности на средних настройках вполне неплохо запустятся с разрешением FullHD, но на большее расчитывать не стоит.

Компания AMD (не так давно присоединившая к себе производителя видеочипов ATI, известную своей линейкой видеокарт Radeon), также пошла по пути интеграции GPU и CPU, но несколько другим путём. AMD создали так называемое APU — Accelerated Processing Unit (ускоренное обрабатывающее устройство), по аналогии с CPU (Central Processing Unit, центральное обрабатывающее устройство). Линейка гибридных процессоров называется Fusion и работает на сокете FM (о сокетах и чипсетах мы уже рассказывали).

Производительность встроенной графики в A-серии процессоров AMD выше, чем у Intel, современные игрушки идут неплохо, но не стоит забывать, что у встроенного видеочипа нет ни выделенной высокосоростной памяти, ни качественного теплоотвода: теплопакет ограничен как площадью рассеивания крышки, так и системами охлаждения, доступными для процессора. Если вы можете себе позволить лишние 5-7 тысяч на мощное охлаждение, то их, скорее, стоит потратить на отдельную графику, чем пытаться выжать из AMD Fusion лишние кадры в секунду.

Подробнее о гибридной графики и расширении её возможностей поговорим как-нибудь в другой раз, а сейчас перейдём к самому интересному: дискретным видеокартам.

NVIDIA vs ATI-AMD


Война такая же старая, как Intel vs AMD. Обсуждать, кто лучше — всё равно, что участвовать в специальной олимпиаде.

image

У каждого из производителей есть более и менее удачные решения, и рассматривать их стоит исключительно с точки зрения «хотелки vs соотношение цены и производительности».

Что внутри видеокарты


Прежде чем перейти к объяснению, за что мы платим такие деньги, надо разобраться во внутреннем устройстве графического адаптера. Рассматривать legacy-архитектуру с раздельными шейдерными процессорами не будем, остановимся на ключевых моментах.

Почти вся современная трёхмерная графика (за редким исключением) состоит из набора треугольников, которые в сфере 3D-моделирования называют «полигонами». Из этих полигонов собраны трёхмерные модели, поверх которых натягиваются двухмерные текстуры. После «натягивания» текстуры в ход идут спецэффекты, из которых и формируется картинка. Вот здесь хорошо описаны превращения треугольников в готовую картинку.

Внутри видеокарты весь вывод каждого кадра делится на два больших участка: стадию построения геометрии (в которой, в основном, задействованы вычислительные мощности) и стадию отрисовки (в ней происходит основной расход памяти и потребляется вычислительный ресурс специальных аппаратных ускорителей).

Крайне подробный материал по тому, как вообще работает 3D-графика написал haqreu на Хабре:

Статья 1: алгоритм Брезенхэма
Статья 2: растеризация треугольника + отсечение задних граней
Статья 3: Удаление невидимых поверхностей: z-буфер
Статья 4: Необходимая геометрия: фестиваль матриц
4а: Построение перспективного искажения
4б: двигаем камеру и что из этого следует
4в: новый растеризатор и коррекция перспективных искажений
Статья 5: Пишем шейдеры под нашу библиотеку
Статья 6: Чуть больше, чем просто шейдер: просчёт теней

Даже просто пробежавшись по постам по диагонали вы поймёте, какой объём вычислений производит видеокарта для расчёта всего одного кадра, а ведь ей нужно выдавать (в идеале) — больше тридцати таких картинок в секунду.

Собственно, вот параметры видеокарты, которые нас интересуют:

» Кодовое название ядра: мало за что отвечает, но пригодится при сравнении видеокарт внутри серии. Некоторые производители просто переименовывают прошлогодние видеокарты, вешают на них новое название с меньшими цифрами или программно ограничивают производительность, и готово: старенькая 9800GT превращается в NVIDIA GTX450. К счастью, в последнее время такие «финты ушами» почти прекраились.

» Техпроцесс: измеряется в нанометрах, чем он меньше — тем новее GPU и тем меньше его тепловыделение при прочих равных хараткеристиках.

» Количество потоковых процессоров: то, что раньше было «вершинными» и «пиксельными» шейдерными процессорами сейчас приведено в унифицированный вид. Драйвер видеокарты сам решает, сколько блоков будут заниматься обработкой вершин, сколько — обработкой растровых точек. Чем их больше, тем более сложные сцены сможет переварить видеоадаптер, не создавая задержек для остальных вычислительных блоков. Иными словами: больше покововых процессоров — больше спецэффектов в кадре без потери производительности.

» Частота ядра: собственно, определяет скорость работы потоковых процессоров и некоторых других модулей. Больше — лучше.

» Количество текстурных блоков: количество блоков, отвечающих за наложение двухмерных текстур на трёхмерные модели. Чем больше текстурных блоков, тем более чёткие текстуры высокого разрешения можно использовать в настройках игры.

» Количество блоков растеризации (блоков рендеринга): определяет возможности видеокарты по преобразованию готовой картинки в кадр, который будет отправлен дальше на монитор. Чем больше — тем меньше проблем с выводом картинки сверхвысокого разрешения.

» Тип и частота памяти: чем быстрее работает память — тем меньше «бутылочное горлышко» между вычислительным блоком видеокарты и хранимыми на ней данными.

» Шина памяти: второй показатель, характеризующий скорость обмена данными процессора видеокарты с микросхемами, на которых хранятся нужные блоки информации. Перемножив шину памяти на реальную частоту её работы мы получим пропускную способность: несколько лет назад, например, видеокарты Radeon имели шину памяти 256 или 128 бит, но очень высокую частоту работы памяти GDDR5. Видеокарты NVIDIA, напротив, использовали более сложную архитектуру: передавали 192, 256, 384 или 480 бит за раз, но работали с более дешёвой и менее быстрой памятью GDDR3.

Сейчас данные параметры, скорее, важны в бюджетном сегменте, где периодически встречается как недорогая память, так и сильно обрезанная (вплоть до 64 бит) шина. Флагманские же продукты перешли на широкие шины и скоростную память, и меряются, в основном, внутренней арихетктурой и оптимизацией драйверов.

» Объём памяти: как не странно, не очень сильно виляет на производительность, если вы играете на одном мониторе с разрешением 1920х1080 точек. Разницы между одинаковыми или сравнимыми между собой видеокартами с 2, 3, 4 гигабайтами в таком случае вы практически не заметите. Больший объём необходим, если вы используете многомониторную конфигурацию или являетесь энтузиастом в мире ПК: то есть работаете и играете на мониторах с разрешением 2560x1440 и 3840x2160 точек.

» Интерфейс подключения и поддерживаемые версии DirectX / OpenGL: в нынешнем году почти все видеокарты работают с поддержкой обратносовместимых PCI-E 2.0 / 3.0, а 4.0 находится на стадии стандартизации. С OpenGL и DirectX всё тоже достаточно просто: найти новую видеокарту без поддержки необходимых версий сложно, а новомодные ускорители с перспективным DirectX 12 ускореют раньше, чем значительное количество игр начнут широко использовать возможности этих библиотек. Можно не париться на эту тему.

2 ядра, 2 гига, игровая видеокарта


Все помнят этот дурацкий слоган? Из каждого утюга вещал, а плакат с соответствующим заявлением висел на каждой станции метро. Что такое игровая видеокарта? Собственно, вся дискретная графика (кроме самой-самой дешёвой, используемой только по причине того, что в компьютере не было предусмотрено встроенной графики) — так или иначе — игровая.

В классификации NVIDIA минимально-приличными «игровыми» вариантами можно назвать видеокарты, чей индекс заканчивается на 40 и выше: 540, 640, 740, 840 и так далее. Кроме того, сама компания NVIDIA относит к «игровым» карты с префиксом GTX, буквы GT обозначают «мультимедийные» модели. Игрушки на них запустятся, но ни шедевров в области графики, ни потрясающей производительности можно не ждать.

У ATI-AMD к аналогичному сегменту относятся видеоадаптеры, начинающиеся с R7 (для новой линейки) или имеющие индекс не ниже х5хх: 7530, например.

Все видеокарты, имеющие цифры «меньше»: NVIDIA GT820 или Radeon R5 230, скорее, конкуренты для встроенной в процессор графики. Вывести презентацию на проектор, фильм на большой экран, запустить «доту» на минимальных — потянут, но не более.

С точки зрения характеристик, описанных выше, игровой можно назвать ту видеокарту, чьи вычислительные мощности позволяют выводить графику современных игр на средних настройках с частотой хотя бы 20-30 кадров в секунду.

Достаточная производительность


Главный вопрос (помимо бюджета), который предстоит решить перед выбором дискретной видеокарты: что для вас означает «достаточная производительность»? Если вы играете в турнирные шутеры (типа CS:GO), то общая производительность видеосистемы здесь не очень критична. В такие игры играют с минимальной детализацией (для получения преимущества в простоте обнаружения цели), и главным вопросом встаёт разрешение вашего монитора: для «офисных» моделей 1280х1024 и 1376х768 или 1440х990 хватит сравнительно недорогих видеокарточек. FullHD потребует более мощную графику, но всё равно сильно не ударит по кошельку.

Если же вы рассчитываете наслаждаться преимуществами действительно крутой графики (а не той размазни, что нам показывают на консолях под видом NextGen’a), то здесь в ход идут действительно «крутые пушки»: флагманские и предфлагманские модели.

image

Однако не стоит забывать, что за графику отвечает не только видеокарта, но и создатель игры. Самый красивый бургер в игровой индустрии из Battlefield hardline соседствует со спрайтовыми хабариками и презервативами.

Разрешение и память



Влияние разрешения монитора на производительность графики не заметна, пока мы не переходим от классических разрешений к тому, что нам подарил прогресс: ретина-дисплеям, 4k2k-телевизорам и прочим прелестям в виде 3-6 мониторов для авиа- и авто-симуляторов.

Специалисты из THG сравнивали флагманскую видеокарту AMD 7970 с удвоенными микросхемами памяти, общий объём которых составил 6 Гб с такой же, но обладающей «обычным» набором — 3 Гб. Тестирование производилось на системе Eyefinity-6 (с помощью драйвера ATI шесть мониторов были объединены в одну систему с разрешением 11 520 на 1080 точек.

image

Как видите, именно в такой нагруженной среде лишние гигабайты дают прирост производительности: где-то — существенный (в полтора раза), где-то — не очень. С другой стороны, одна видеокарта с таким объёмом памяти не позволяет получить приемлемых показателей по количеству кадров в секунду, так что гнаться за «лишними» гигами в играх на данный момент бессмысленно: скорее, потребуется вторая видеокарта для достижения нормального фреймрейта, чем вы упрётесь по памяти в трёхгиговую версию.



Что выбрать?


Если вы сильно-сильно стеснены в средствах, а ваш компьютер вчера взорвался (этот материал вы читаете с калькулятора на перфокартах, не иначе), то оптимальным выбором для игрушек станет покупка процессора AMD A-серии со встроенной графикой.

AMD A6-5400K обладает видеоускорителем HD 7540D, он обеспечит ~ 25-30 кадров в секунду в играх типа Dota2 или League of Legends на средних настройках с разрешением 1080p. В World of Warcraft же придётся играть на «минималках».

Если вы чуть менее стеснены в средствах, на помощь придут ускорители Radeon серии R7: 240, 250, 250X.

Их производительность примерно в полтора-два раза выше (в зависимости от версии), если сравнивать со встроенной в AMD A6 графикой.

Чуть более дорогим решением будет установка NVIDIA GTX750 / GTX750 Ti или AMD R7 260X / R7 265. Они обеспечат беспроблемное существование во всяких MOBA-играх, покажут неплохую картинку в современных гонках и шутерах и позволят не испытывать дискомфорта в online-играх. Средние настройки, FullHD разрешение — без вопросов.



Видеокарты среднего сегмента стоят несколько дороже и обладают, в принципе, сравнимой производительностью.

Вы можете ориентироваться на любую сравнительно современную видеокарту от NVIDIA (760, 960) или AMD (R9 270, 270X, 280, 280Х) — здесь вопрос, скорее, в толщине кошелька.



Залезать «выше» 70-й серии у NVIDIA и 290-й у AMD имеет смысл только в одном случае: у вас стоит монитор с разрешением 2560х1440 и выше. Впрочем, даже такие карты как NVIDIA 770 / 970 будут показывать отличные результаты на средних настройках.



О Sli и Crossfire замолвите слово


Ощутимый прирост по производительности, вы, конечно же, получите: поставив две GTX970 вместо одной 980 вы получите примерно в полтора раза больше показатели производительности и примерно такое же увеличение стоимости компьютера. Проблема заключается в том, что через пару-тройку лет вам захочется обновить видеокарту, и надо будет продавать не одну, а две старых железки, и потеряете вы и на курсе доллара, и на том, что железка подешевела втрое. Каждая. Добавьте сюда дополнительные мощности БП, за которые необходимо будет также заплатить… В общем, финансовая картинка не из самых приятных.

Вторая неприятность: драйверы и игры. Не во всех играх производительность двух видеокарт в связке будет существенно выше, чем одной, но более мощной.

Разные производители


Не смотря на то, что разрабатывают дискретные видеоускорители две компании: NVIDIA и AMD, производством и модернизацией «базового» дизайна занимаются многие вендоры: самые популярные — ASUS, MSI, Gigabyte, EVGA. Чуть менее популярные, но часто встречающиеся — Sapphire, Zotac, XFX. Остальные производители, обычно, относятся к сегменту «лоукостеров» и постоянно пытаются на чём-нибудь экономить (в основном — на питании), выбирать их варианты видеокарт стоит только если у вас нет в запасе 5-10% стоимости железки на «спать спокойно». В любом случае, у нас отличный гарантийный сервис, и если что с видеокарточкой и случится, вам её без проблем заменят или отремонтируют.

В основном производители изменяют дизайн цепей питания, увеличивают рабочие частоты, создают разной извращённости системы охлаждения и меряются длиной гарантии. Об отличиях можно почитать, загуглив конкретную модель видеокарты, например, ASUS ROG MATRIX-GTX780TI – такая карточка может выдавать на 3-5% более высокие показатели, чем какой-нибудь аналог от Gigabyte или MSI. В целом, ориентироваться надо на отзывы в магазине, обзоры и результаты бенчмарков. Панацеи и гарантированного решения в виде Z лучше, чем Y — нет.

Общие советы


Видеокарты устаревают очень и очень быстро. Если вы берёте компьютер на несколько лет вперёд — не гонитесь за флагманской моделью самого свежего поколения: она стоит неадекватных денег, и нередко через год теряет до 50% стоимости даже на полках магазинов. Присмотритесь к флагманам или пред-флагманам прошлого поколения, их производительность не будет сильно отличаться от моделей этого года, а вот цена может приятно порадовать.


Titan Z — бессмысленный и беспощадный.

Выбирайте видеокарту под своё железо и потребности. Модели из топовых сегментов стоят дорого, более того, если производительность разных видеокарт за 100 и 200 долларов могут отличаться в два-три раза, то разница между 200 и 300-долларовыми экземплярами может быть в скромные 10%: например, если вы играете в Dota-подобные игры или гоняете в «Картошку» — разницы между NVIDIA 760 и NVIDIA 980 вы не увидите, особенно если ваш процессор — старенький двухъядерный Intel Core i3. :)

Апгрейд видеокарты имеет смысл проводить, если вас совершенно не устраивает производительность: обычно прирост «синтетической» производительности между поколениями (4xx и 5xx, 5хх и 6хх и т.д. у NVIDIA) составляет около 10-15%, реальной — вдвое меньше. Менять вашу NVIDIA 560 на 660 или 760 нет смысла, а вот замена её на 960-ю (800-е поколение по непонятным причинам маркетологи пропустили) — вполне здравое решение. И прирост производительности будет ощутимый, и энергопотребление немного снизится, и памяти будет больше.

Предыдущие публикации из цикла PC Buyer’s Guide:
» PC Buyer's Guide: выбор блока питания
» PC Buyer's Guide: охлаждение
» PC Buyer's Guide 2015: Материнские платы, чипсеты и сокеты
» Кручу-верчу, запутать хочу. Разбираемся в линейках HDD
Автор: @Shirixae
Юлмарт ulmart.ru
рейтинг 82,21
Компания прекратила активность на сайте
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Похожие публикации

Комментарии (57)

  • +12
    Поскупился и купил под 4К мониторы первую AMD видеокарточку за 15 лет — R9 290. Никогда больше не возьму AMD, хуже их драйверов ничего не видел. Ужасная панель управления, вечные синие экраны, беспробудный сон и артефакты в настольных приложениях.

    Желаю вам не повторить моей ошибки :)
    • 0
      Живу на AMD/ATI со времён x1950 xtx (2900 pro, 3870, 4870, 5850, 6930, 7970) — особых проблем не встречал. В основном брал MSI и ASUS, иногда — PowerColor.
      • 0
        У меня есть подозрение, что проблемы частично из-за 4К мониторов — соседний FHD на DVI видеокарта видит всегда.
        • 0
          По Display Port подключены?
          • 0
            Конечно.
            • 0
              Чекните вот этот материал.
              • +3
                У меня до 290 стояла 660 и несколько месяцев с ней не было никаких проблем. Так что дело именно в видеокарточке. Вы меня не обманите :)
        • 0
          Проблема может быть в чем угодно — несовместимость конкретной карты с конкретной материнской платой, проблема конкретной версии драйвера и т.д.
          По единичному случаю очень тяжело сделать общий вывод.
          У меня видюшка AMD/ATI работает в компе уже 4 года без каких-то особых проблем. Возможно это связано с тем, что комп заводского производства и компоненты проверены на совместимость.
    • 0
      Проблемы встречаются практически со всеми современными видеокартами. Были проблемы с новыми дровами для GTX 550Ti (это затронуло ещё несколько видеокарт из это серии) и пришлось оставаться на старых дровах. Сейчас у меня R9 270X и, к счастью, решил проблему с дрожанием экрана прошивкой VBIOS. Давайте ещё вспомним GTX 970 с её ненастоящими 4 ГБ видеопамяти.
      • +1
        Про неё на днях будет материал. :)
      • 0
        > Были проблемы с новыми дровами для GTX 550Ti (это затронуло ещё несколько видеокарт из это серии)
        Решил эту проблему установкой нового драйвера 347.90.
      • 0
        У меня 970 и проблем вообще нет с памятью. Там тяжеловато занять все эти 4 ГБ.
    • 0
      У меня, конечно, не 4К мониторы, но вот карточка та же самая — R9 290. Ни одного синего экрана или артефактов не было. Может, дело в 4К, может в производителе, а может и брак попался, кто знает.
      • 0
        Вы пользуетесь Chrome?
        • 0
          Да.
          • 0
            Попробуйте IE 10-11 или Firefox, в них у меня и у многих других хорошо видны артефакты от AMD карточек.
            • 0
              Я разрабатываю сайты, так что я пользуюсь ими всеми. И не видел ни разу артефактов. Может, скриншот покажете?
              • 0
                Например: habrastorage.org/files/4e8/a55/d4a/4e8a55d4a9b34b5695598c2a9d922351.png
                Исправляется любым изменением этой части экрана, наведением курсора мыши, например. В самих страничках такое тоже случается, но обычно при скроллинге и на доли секунды, не заснимешь. В IE 11 аналогично, но обычно на всё окно.
                • 0
                  Чуть погуглив, обнаружил что в Catalyst 14.6 был такой баг ( support.amd.com/en-us/kb-articles/Pages/Top-Driver-Issues.aspx#cat14.7 ): Flickering seen on AOC U2868PQU and other 4K monitors and certain AMD Radeon™ graphics cards

                  Возможно, у вас эта версия и стоит обновить версию драйвера.
                  • 0
                    У меня 14.12
    • 0
      ATI вместо видеокарты (с)
    • 0
      На днях купил такую карту.
      Встретил в Metro Last Light пару артефактов и те похоже были связаны с включенным PhysiX (и 8 фпс, ага).

      А вообще — проблем в этой турбине пока не вижу. Тянет все, если не встречаются конфликтные технологии, как тот-же физикс.
  • +1
    Как всегда — кратко и по теме. Спасибо за познавательные статьи.

    • 0
      Жалко что не раскрыта тема ускорения процесса обработки видео, ускорение программ для работы с графикой… я в игры не играю, а видео балуюсь.
      • 0
        Про профессиональные видеокарты и их возможности будет отдельный пост, там и про ускорение видео, и про особенности всяких FireGL и Quadro поговорим. :)
        • +1
          Если будет отдельный пост про профессиональное применение видеокарт, тогда уже напишите не только про профессиональные видеокарты, а именно про этот аспект применения видеокарт. В общем чтобы было тоже про домашнее использование видеокарт не для игр, как-то так.
  • 0
    Надеюсь линейка статей продолжится?
  • +3
    Быстро время летит, core i3 уже старый процессор :(. Что уже говорить про мой Е8400
    • +3
      Первый i3 вышел в январе 2010, крайний — в январе 2015 года. И тот, и тот — двухъядерные. Так что просто говорить «старенький двухъядерный i3», как это описано в статье — несколько неточно.
    • 0
      Мало того, они еще и сокет поменяли на 1150, вместо 1155.

      Пару дней назад собрал комп и обрадовался что матери идут в основе своей с сокетом 1150 и все интелы на таком-же сокете, а значит вдруг если я захочу обновить комп — то все что мне надо будет, престо прикупить core i5/i7 который подешевеет к тому времени.
  • +1
    Обсуждать, кто лучше — всё равно, что участвовать в специальной олимпиаде.

    Простите, а мне одному кажется такое сравнение неуместным?
    • +7
      Луркояз не преследует цель быть политкорректным.
  • –2
    У меня стоит древняя Nvidea GF 7900GT. Как ни странно, производительность меня устраивает (я правда не играю в самые последние игры). Но 3D пакеты работают на ура. Менять хочу только для поддержки CUDA/opencl
  • 0
    Использую в данный момент GTX 560 TI (1 GB). Производительности уже не всегда хватает, какую видеокарту посоветуете в качестве адекватной замены?
    • 0
      Ну, здесь основная проблема 560-й — 1 ГБ видеопамяти, в который она и упирается. Можно поменять на двухгиговые GTX 760 / 960, или взять трёхгиговую R9 280X в зависимости от объёмов кошелька. Причём R9 280X стоит примерно столько же, но будет на 15% быстрее в играх, и в целом это перелицованный флагман прошлого поколения (7970), тянущий разрешение 2560х1440, со сглаживанием и на высоких настройках без проблем. У него больше памяти и куда интереснее hardware, чем у GTX'ов, но NVIDIA будут немного тише и холоднее.
      • +1
        А существует способ заранее угадать, какая карточка будет тише, а какая громче? По прайсам ведь этого не видно…
        • 0
          Обзоры на Оверклокерс, ЕМНИП, шум мерили.
          Вообще — обзоры и только они. Особенно сравнительные.
    • 0
      Стоит ли рассматривать вариант с GeForce GTX 960 (Оценка 3DMark 11 — 9720), или стоит обратить внимание на GeForce GTX 760 (Оценка 3DMark 11 — 8480)? Но при не столь большой разнице в тесте, цена различается довольно сильно.
    • 0
      Использую в данный момент GTX 660 Ti (3 GB). В ограничение производительности упирался пару раз и то на запредельных настройках в «не совсем оптимизированных» играх. Тот-же бургер из статьи вполне себе бодрый на максимумах. Выводы о необходимости того количества «попугаев», что показывают тесты и реальными играми делайте сами.
    • 0
      Сейчас на БУ рынок вышло очень много нвидий 780, они идут в раёне 200 долларов (новые 300 долларов).
      Если вы ее протестите у продавца или продавец приедет к вам за лишний десяток баксов, то можно брать.

      Взял я себе R9 290 за 6500 грн (300 долларов) правда с большим риском т.к. она ехала с другого города, но вообще помойму такой компонент как видеокарта может быть БУ, если еще на гарантии и работает как надо.
      • 0
        а я вот б/у видеокарт боюсь, было много печального опыта. Видеокарта — это такая железяка, которая склонна к сильным нагревам, а порой и перегревам. А еще видеокарту, в отличии от ЦПУ, можно разогнать поставив какую-нибудь утилитку под винду. Подразогнал, поигрался, подгорела.
        Ну, в общем, тут дело личное. Я же во времена GT7900 и 8800 наигрался с б/у-шными карточками…
    • 0
      Я месяца три назад вою гигабайтовскую GTX 560TI OC сменил на GTX 770. Знаете, FC4 запустился на максималках. 770 — это отличная видеокарта почти-топового сегмента за еще более-менее вменяемые деньги. Брать 970 нет смысла: дороже и с УДИВИТЕЛЬНЫМ МАРКЕТИНГОВЫМ ХОДОМ, а 780 и 980 стоят уже вообще конских денег.
      • +1
        Про удивительный маркетинговый ход очень скоро будет отдельный пост. :)
        • 0
          Ждём с нетерпением. Вы очень хорошо пишете.
  • +2
    Вопрос: раньше для SLI и CrossFire было необходимо покупать не две одинаковые карты, а «ведущую» и «ведомую», при этом с ведомой шел переходник, соединяющий карты. А теперь как? Можно ли просто пойти и купить две одинаковые платы?
    • +7
      Это было очень давно. Сейчас можно взять две карты одного типа (и даже не всегда обязательно одного вендора) и теоретически всё будет работать. На практике может потребоваться погуллить обзоры и выбрать наиболее удачное сочетание двух видеокарт. Если интересно, могу написать про эт целую статью с наглядными примерами. :) Собирайте подписи на тему SLI / Crossfire в комментариях. :)
      • 0
        Напишите про AMD Dual-Graphics. Плюсы, минусы, стоит ли связываться. Хорошая ли идея купить APU+GPU, какие связки возможны…
        • 0
          Про это уже дважды заказывали, статья в процессе. Скоро будет. :)
  • 0
    Хм, совсем недавно помогал товарищу собирать ПК, старались экономить, по карте остановились на AMD HD 7870. Она хоть и старенькая уже, но удаленькая. Стоит меньше GeForce 750 ti, а по тестам и ТТХ заметно выигрывает. Ну и вообще, иногда имеет смысл смотреть топовые карты предыдущего поколения со скидками. Те же x70-х80 предыдущего поколения от GeForce обычно лучше чем x60 следующего, а стоить могут даже дешевле (но тут как повезет). В ту же степь AMD HD 7950-7970 могут быть дешевле аналогичных новых R9 карт. Кстати это тот самый «старый чип под новым именем», о котором вы говорили.
    • +1
      Статью внимательно читали? :)

      image
      • 0
        Как раз таки сейчас, всё стареет гораздо медленнее чем буквально 5-7 лет назад. Но да, каюсь, этот абзац я пробежал как-то по диагонали.
      • +1
        А я бы не сгласился с автором.
        Конечно видяха устаревает. Но только через лет 5-10, она вообще ничего новго не запустит.

        Но если вспомнить что в 2002 системы выходили с такой скоростью, что за пол года комп устаревал капитально. Вот процессор вышел с частотой 1ггц, а ты пол года назад покупал 600мгц и это был топ.

        Сейчас все железо, кроме видях встало. Процы почти не развиваются, оперативка пытается сделать рывок в сторону ДДР4. Видяхи между поколениями набирают по 5-10% производительности, не более. А частота их выхода год — полтора.

        А то я на днях таки собрал новый комп, вместо старого, в котором стоял radeon 2600 XT, а этот радеон уже не мог ничего запускать после 2012 года выпуска (а она вышла в конце 2008), хотя видяхи которые вышли 4 года назад еще способны обрабатывать графику новых игр.

  • +1
    На ixbt регулярно публикуют довольно подробные сравнительные обзоры видеокарт.
    Особый интерес представляют две таблички в конце: рейтинг производительности «в попугаях» и таблица с соотношением попугаи/цена. Вполне можно использовать ее как отправную точку для подбора видео.
    • 0
      Или, как вариант, зайти на Tom's Hardware и почитать ежемесячную статью «Best Graphics Cards For The Money».
    • НЛО прилетело и опубликовало эту надпись здесь
  • +1
    Как же я люблю ваши статьи, продавцы-консультанты. В целом, статья получилась грамотнее чем предыдущие, но всё равно добавлю свои советы и комментарии:

    — Интегрированные видеокарты обеспечивают неплохой уровень производительности в играх, сопоставимый с уровнем бюджетных моделей видеокарт. В связи с этим, покупку бюджетной видеокарты считаю практически бессмысленной.

    — Дискретные видеокарты от Nvidia и AMD это не просто «одно и тоже» от разных производителей, это совершенно разные архитектуры, но на выходе мы в конечном итоге получаем «картинку на экране». Раньше даже игры писались с оптимизацией под конкретного производителя видеочипов, но сейчас ситуация вроде-бы выровнялась

    — Стоит сказать о конкретных производителях видеокарт. Некоторые «всеядные» делают изделия как на чипах Nvidia, так и на AMD. Другие же, работают только с одним производителем видеопроцессоров, и устройств на базе конкурента не делают.

    — Как это не парадоксально звучит, но главной характеристикой видеокарты как товара является кодовое название графического ядра, а не объём памяти как это любят выдвигать на первый план некоторые хитрые продавцы.

    — Следующим важным параметром видеокарты, выходящим из первого является ширина шины данных — в битах. Тут идёт дискретная градация (по нарастающей производительности): 64, 128, 192, 256, 384, 512. Чем больше тем лучше, если денег хватит.

    — Далее обращаем внимание на объём памяти и её тип. Конечно, чем объём больше, тем лучше, но сегодня это уже не показатель, так как даже на дешевых моделях (со слабым видеоядром) можно увидеть до 2Гб памяти. Скорость работы памяти определяется её типом. Конечно DDR2 уже не ставят, но есть разница между видеокартами на которых стоит GDDR3 или GDDR5.

    — Производители могут выпускать видеокарты с разогнанным или наоборот пониженным режимом работы видеоядра. Из разогнанной видеокарты вы «выжимаете» всю мощь, но скорее всего будете мириться с повышенным уровнем шума и возможно более скором выходе из строя из-за высокого температурного режима работы. В «пониженной» видеокарте вы не используете весь ресурс видеоядра в полную силу, но зато можете пребывать в тишине и спокойствии.

    — Техническое исполнение производителем системы охлаждения и компоновки в целом играет важную роль. Мне не нравятся видеокарты, полностью закрытые пластмассой с маленьким (40-60мм) кулером в конце. Я больше доверяю открытым платам, с массивным радиатором и большим кулером. Такие платы легко чистить от пыли.

    — Видеокарта это часть общей системы, которая должна соответствовать по производительности остальным компонентам компьютера. Глупо брать дорогую видеокарту и ставить её на материнку с бюджетным чипсетом или процессором. И конечно же, блок питания должен быть достаточной мощности.

    — И последнее. Лично я никогда не собирал компьютеры с двумя или тремя видеокартами. Как уже сказано в статье, прирост будет не в 2, а в лучшем случае в 1,5 раза. Считаю, что если хочется собрать мощный компьютер, то лучше поставить одну топовую видеокарту.

    На этом всё, благодарю за внимание. Продавцам-консультантам передавайте привет!
  • –1
    Чем быстрее работает память — тем больше «бутылочное горлышко» между вычислительным блоком видеокарты и хранимыми на ней данными

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое