64-oude-en-nieuwe-videokaarten.jpg.jpg
Предыдущую статью мы закончили на том, что Nvidia выпустила достаточно неудачную линейку видеокарт — FX 5000. Но уже в 2004 году, в 6000 линейке, она исправилась — об этом, а также дальнейшем развитии видеокарт от Nvidia и ATI, ставшей уже AMD, мы и поговорим в этой статье.

Nvidia NV40 — лучший видеочип середины нулевых

Пожалуй, видеокарты на чипе NV40 можно назвать первыми относительно современными видеокартами: во-первых, они поддерживали DirectX 9.0c, то есть на них даже сейчас можно поиграть в такие массовые игры, как Dota 2 и CS: GO, а также WoT (разумеется, на минимальных настройках и разрешениях, но все же). Во-вторых — они стали массово выпускаться с шиной PCIe, то есть такие видеокарты можно без проблем поставить в любой современный компьютер, и они заработают (правда, драйвера есть только для Windows 7, но с некоторыми танцами они и на 10ке запускаются). В-третьих, появилась функция PureVideo, которая наконец-то позволила смотреть видео в хорошем качестве без особой нагрузки на процессор (видеокарта теперь декодирует H.264, VC-1, WMV и MPEG-2). Так что если вы выбираете себе видеокарту-затычку в компьютер, то присмотритесь к 6000 линейке — на б/у рынке они стоят копейки (300-500 рублей), а возможностей слихвой хватит для офисного ПК, и не нужно будет покупать GT 610 за 2 тысячи рублей.

Но что-то мы отвлеклись — перейдем к техническим характеристикам. Чип NV40 был построен по рамкам 130 нм техпроцесса, максимальная частота достигала 400 МГц. Чип обзавелся поддержкой Shader Model 3.0 — теперь пиксельные конвейеры умели обрабатывать по 16 пикселов за такт, а всего их было 16. Вершинных конвейеров стало 6 — вдвое больше, чем у NV30. Была улучшена технология UltraShadow, которая отвечает за прорисовку теней. Память подключалась по 256-битной шине, а она сама могла быть стандарта GDDR3 — по сути это была оперативная память стандарта DDR2, но с гораздо более высокой частотой и меньшими задержками. Объем памяти достигал внушительные по тем временам 512 МБ — этого более чем хватало для всех игр того времени.
dwie-karty.jpg
Также эта линейка запомнилась перезапуском SLI — две видеокарты 6000 серии можно было объединять вместе, что в теории должно было повысить производительность в играх. Увы, на практике это лишь уменьшало толщину кошелька — игры под SLI стали оптимизировать только спустя несколько лет, да и то, прирост от второй видеокарты был зачастую меньше 50%.

Однако самой популярной стала не топовая 6800 Ultra, а середнячок 6600 GT — он имел вдвое меньшее число вычислительных блоков, но большую частоту — до 500 МГц, так что хоть производительность ее была хуже, чем у 6800, но гораздо меньшая цена сделала свое дело — это была крайне популярная карта, которая тянула игры даже 2007-2008 годов — тот же Crysis, и отошла на второй план только с повальным распространением DX 10 и 11, которые 6000 линейка не поддерживали.

ATI R420 — просто небольшое улучшение

В отличии от Nvidia, которой просто необходимо было после неудачной 5000 линейки выпустить что-то очень крутое, у ATI дела обстояли хорошо — видеокарты на чипе R300 отлично продавались, и в новом чипе ATI ничего революционного не сделала: пиксельных конвейеров стало 16 (как и в NV40), вершинных конвейеров также стало 6. Но вот Shader Model поддерживался только второй версии, и DirectX был версии только 9.0b — разумеется, в 2004 году особой роли это не играло, тогда до сих пор царствовал DirectX 7 и 8, но вот с развитием игр решения от ATI быстро превратились в тыкву — к примеру, если сейчас та же 6800 Ultra с грехом пополам позволит поиграть в ту же Dota 2, то вот на топовой видеокарте на R420 — X800XT — она даже не запустится, ругнувшись на версию шейдеров.
sapphire-x800xt-pcie-scan-front-with-cooler.jpg
Во всем другом чип был хорош — 130 нм техпроцесс, частота до 520 МГц, 256-битная шина памяти, поддержка PCIe. В результате в играх того времени GF6800 и X800 выступали на одном уровне, но все же одно преимущество у ATI было — как ни странно, это более низкое энергопотребление: разрабатывая новый чип, Nvidia сделали упор на производительность, так что NV40 был очень горячим (СО занимало два слота), и требовался блок питания на 500 Вт. R420 был куда экономичнее — требования по блоку питания были на скромном уровне в 300 Вт.

Nvidia G70 и G71 — доработка старого

После успешного NV40 Nvidia оставалось только заняться оптимизацией, что они сделали — увы, это не затронуло энергопотребление: оно все также было крайне высоким. Чип G70 2005 года был построен по 110 нм техпроцессу, что позволило увеличить частоты — до 430 МГц. Также были переработаны пиксельные конвейеры — в них теперь встраивались блоки ALU (устройства, позволяющие проводить вычисления на GPU — задел под CUDA), а самих конвейеров стало 24 — в полтора раза больше, чем в NV40. Вершинных конвейеров стало 8 — на два больше, чем в GF6800. Видеопамять все также подключалась по 256-битной шине и ее объем мог достигать 512 МБ GDDR3 — этого более чем хватало. В итоге 7800 GTX обгоняла 6800 Ultra в среднем на 30-50%.

А вот система охлаждения и интерфейс претерпел изменения — шины AGP перестало хватать, так что 7800 GTX теперь подключалась только через PCIe x16 (однако младшие версии разумеется выпускались и с AGP). А система охлаждения, которая в 6800 была двухслотовой, теперь стала однослотовой, что привело к повышенному нагреву. 

К жалобам на повышенное энергопотребление Nvidia все же прислушалась, выпустив в 2006 году обновленный чип G71. Основным изменением стало уменьшение техпроцесса до 90 нм, а числа транзисторов до 280 млн (против 300 у G70). В итоге производительность 7900 GTX на этом чипе была лишь слегка выше, чем у 7800 GTX, но вот перегрева с однослотовым кулером больше не было.

Также в этой линейки SLI «ударил Nvidia в голову» — появилась монструозная 7900GX2, которая представляла... банально слепленные две 7900 с одним PCIe, но двумя платами. Разумеется, такое «бутерброд» жутко грелся, занимал аж три слота, стоил заоблачных денег и прироста особого от него не было:

nvidia-geforce-7900-gx2.jpg

В дальнейшем Nvidia выпустила 7950GX2 — как нетрудно догадаться, это были две 7950 (по сути разогнанные 7900), но вот компоновка была лучше: оба чипа были на одной плате, и система охлаждения была серьезно улучшена, так что перегрева не было. Правда, прироста тоже особого не было, так что эта видеокарта так и осталась причудой богатых игроков и не более того.


ATI R520 и R580 — «красные» в отстающих

Ответ от ATI на чип G70 серьезно опоздал — из-за критической ошибки в GPU частота чипов была низкой, а на исправление ее ушли драгоценные полгода — видеокарты с ним вышли лишь осенью 2005 года. Но зато сразу на 90 нм техпроцессе, то есть ATI метила в конкуренты G71. Увы — не получилось: да, R520 теперь поддерживает Shader Model 3.0, и был сделан специальный блок, который оптимизировал работу пиксельных шейдеров. Но вот их количество со времен R420 не выросло, и единственным приростом была более высокая тактовая частота — она достигала аж 625 МГц. Память была стандарта GDDR3, объем мог достигать 512 МБ. В итоге видеокарта X1800 на этом чипе несколько проигрывала 7800 GTX, которая к тому же еще и раньше вышла. 

ATI это отлично понимали, так что R520 уже буквально через несколько месяцев сменили на R580. Как я уже писал раньше, «красные» стали давить количеством — так, пиксельных конвейеров стало аж втрое(!!!) больше, чем у R420 — 48 штук. Выросла и тактовая частота — до 650 МГц. В итоге такой монстр таки обгонял 7800 GTX, но при этом имел просто гигантскую по тем временам систему охлаждения.

Но ATI этого было мало — нужен был конкурент для новой 7900 GTX. И ATI решила «давить» памятью — они доработали стандарт GDDR3, увеличив частоты памяти аж до 2000 МГц, и назвали новый стандарт GDDR4 — именно такую память и использовал чип R580+. В итоге, X1950 все же стала быстрее 7900 GTX, но по внешнему виду такая видеокарта ничуть не отличалась от современных киллограммовых монстров:

00348991-photo-ati-radeon-x1950-xtx-1.jpg

Nvidia G80 — прорыв, которого все ждали

В конце осени 2006 года Nvidia представила действительно новый чип G80 — его особенностью стало то, что он использовал унифицированные шейдеры: то есть на смену вершинным и пиксельным конвейерам пришли потоковые процессоры, которые умеют выполнять сразу все: постройку полигонов, физику, сглаживание, геометрию и так далее. Это позволяет видеокарте более гибко работать в играх, и теперь нет такого, что какие-либо блоки GPU простаивают из-за того, что для них нет работы.

В итоге этот чип стал лучшим на год вперед: он строился по рамкам 90 нм техпроцесса, имел площадь аж 480 кв мм и содержал 680 млн транзисторов. Максимальная частота чипа достигала 575 МГц, а объем памяти составлял «царские» 768 МБ, которых и сейчас хватит для массовых онлайн-игр без особых проблем. С учетом того, что чип поддерживает DX 10 и Shader Model 4.0, он позволяет играть даже в не самые древние игры — к примеру, на нем запускается и относительно неплохо работает GTA 5 (на минуточку — чипу больше 10 лет!)

Но, увы, именно с этих линеек у Nvidia началась проблема, которая называется отвал GPU. Ее суть в том, что крепить на такой крупный кристалл систему охлаждения было опасно — она могла его сколоть. Поэтому Nvidia над кристаллом поместила теплораспределительную крышку, а сам кристалл касался ее через термопасту:
xfx-8800gts-scan-front.jpg
В итоге проблема защиты чипа была решена, но вот проблема теплообмена серьезно ухудшилась: такой мощный чип и так серьезно грелся, а под такой крышкой просто спекался — температура зачастую превышала 100 градусов. В итоге это приводило к тому, что терялся контакт между кристаллом GPU и самим чипом, или же между чипом и самой видеокартой. Увы — домашнее решение в виде прогрева кристалла с помощью утюга помогало слабо — да, контакт восстанавливался, но ненадолго. Единственным решением была смена чипа на новый и его установка без теплораспределяющий крышки, но это требовало прямых рук у мастера и профессионального оборудования. Так что в итоге форумы были полны жалобами людей на артефакты картинки (или вообще ее отсутствие). Nvidia, конечно, меняла такие видеокарты по гарантии, но проблему не решала еще больше 5 лет — только в 600 линейке, в 2012 году, Nvidia наконец-то убрала эту крышку, и система охлаждения напрямую контактировала с кристаллом, что и решило проблему с перегревом и отвалом.

ATI... Простите, AMD R600 — такой же прорыв от «красных»

В октябре 2006 года ATI официально продалась AMD за 5.4 млрд долларов и стала ее графическим подразделением. Обеим компаниям это было выгодно, так как позволяло создавать хорошие гибридные процессоры, где средний по производительности CPU комплектовался очень хорошим для интегрированного решения GPU. 

Но вернемся к чипам— а именно к R600. Изначально этот чип заказала Microsoft для своей новой на тот момент консоли Xbox 360. Он так же, как и G80, имел унифицированные шейдеры, причем общее число потоковых процессоров было 320. Чип поддерживал DX 10 и Shader Model 4.0. Как и в 500 линейке чипов, в R600 был диспетчер потоков, который распределял нагрузку между ALU. Появился аналог PureVideo — UVD: он также позволял декодировать самые популярные форматы средствами видеокарты. Однако запуск видеокарт на этом чипе был несколько неудавшимся — заточка под консоль сделали свое дело, 512-битная шина в ПК никому не была нужна, а итоговая производительность была на уровне всего лишь 8800 GTS.

AMD исправилась в 2007 году, выпустив чип RV670. Он был построен по рамкам 55 нм техпроцесса, а шина в 256 бит уже смотрелась уместно вместе с GDDR4 памятью. Увы — флагмана как такового у AMD тогда не было — HD 3870 ориентировалась скорее в средний сегмент. Однако CrossFire никуда не делся, и была выпущена Radeon HD 3870X2 — да, из двух чипов от 3870ой на одной плате. В итоге в играх, оптимизированных под несколько GPU, видеокарта работала на уровне 8800 GTX, но зачастую в неоптимизированных проектах она была серьезно хуже.

00726882-photo-amd-radeon-hd-3870-x2.jpg

А вот дальнейшую историю я не вижу особого смысла рассматривать, ибо, во-первых, это не история — думаю все читатели застали видеокарты типа 9800 GTX и HD 4870, а, во-вторых, ничего кардинального нового уже не появлялось: да, Nvidia внедрила поддержку физического движка PhysX и возможность считать на видеокартах с помощью CUDA. Да, появилась более быстрая память GDDR5 и HBM (о чем у меня была отдельная статья). Но, в основном, дальнейшее соревнование выглядит как простое наращивание вычислительных блоков и гигабайтов памяти — думаю, читать об этом будет скучно. Но, если вам это все же интересно — напишите об этом в комментариях, и я, возможно, напишу уже точно последнюю статью об истории видеокарт вплоть до Pascal и Vega.