1e84b0365cddbc415f8c5e23aa3c16cb.jpg
Эта часть будет заключительной, и в ней мы поговорим про видеокарты, которые можно смело считать современными — да, даже решения 2006 года: они позволяют спокойно сидеть в интернете и смотреть FHD-видео, на них можно поиграть в простые игры и комфортно пользоваться системой — этого вполне хватает для среднестатистического пользователя ПК, что отодвигает «смерть» этих видеокарт в далекое будущее. Ну и, разумеется, мы поговорим про более мощные решения — вплоть до Titan V, которая является самой мощной видеокартой современности.

Nvidia GeForce 8800 GTX (2006)

Пока AMD покупала ATi, Nvidia зря время не теряла и выпустила видеокарту, которую даже сейчас на различных торговых площадках в рабочем состоянии продают за 1000, а то и 1500 рублей — это спустя 12 лет после выхода! Что же стало причиной такой популярности? Просто исключительная мощность.

128 потоковых процессоров на частоте в 575 МГц, 768 МБ GDDR3 видеопамяти на 384-битной шине (привет, GT 1030 с 2 ГБ на 64-битной шине) — в общем, по производительности эта видеокарта обошла даже двухчиповую 7950 GX2. Единственный важный недостаток карты крылся в том, что она поддерживала лишь DirectX 10 — а, значит, большую часть игр, начиная с 2012-13 годов, запустить на ней было невозможно: да, конечно, можно было попытаться программно эмулировать DX 11, но производительность оказывалась просто смешной. А чтобы понять ее реальные возможности — в GTA 5, которая вышла почти спустя 10 лет после видеокарты, последняя там вполне шустро работает на стандартных настройках графики в HD, с fps стабильно выше 30 кадров. 

У ATi... простите, уже AMD, ничего похожего не было — да, спустя пару месяцев они представили 2900 XT, но она была невероятно «горячей», причем производительностью не блистала. Уже в 2007 году «красные» выпустили Radeon HD 3870, которая имела более умеренный аппетит, но все еще недотягивалась до 8800 GTX.

AMD Radeon HD 3870 X2 и Nvidia GeForce 9800 GX2 (2008)
Картинки по запросу AMD Radeon HD 3870 X2
Логика AMD ничуть не отличалась от таковой у ATi: если одна видеокарта не может побороть топ конкурента, то возьмем их две. Конечно, городить огород из двух плат не стали, и разместили оба чипа на одной — при этом на обдув стояла всего одна турбина, да и еще и не в центре. Итог — по 640 потоковых процессоров с частотой в 825 МГц и 512 МБ памяти на каждый GPU создали просто жуткую «жаровню», так что до сегодняшних дней дожили единичные экземпляры.

Но топом эта карта пробыла недолго — «зеленые» достаточно быстро сделали двухчиповую версию 9800, которая оказалась несколько быстрее и такой же горячей. Увы — в небытие они ушли одинаково, ибо стоили крайне дорого, быстро выходили из строя из-за перегрева и не имели поддержки DX 11.

AMD Radeon HD 4870 X2 и Nvidia GTX 295 (2008 и 2009)

Буквально спустя полгода после не самой удачной 3870 X2 компания выпускает нового двухчипового монстра: по 800 вычислительных блоков на частоте 750 МГц и 1 ГБ памяти на GPU. Видеокарта действительно стала самой мощной на целой год, серьезно обходя новейшую GTX 280 от Nvidia.
Картинки по запросу Nvidia GTX 295
«Зеленым» потребовался почти год, чтобы догнать конкурента — лишь в январе 2009 Nvidia выпускает GTX 295. Она также строилась на двух GPU, но не от 280, а от 275, ибо только так удалось совладать с «горячим» нравом новинки. Разумеется, она была быстрее 4870 X2, но обе они обладали все тем же недостатком — они не поддерживали DX 11.

Причем в линейках типа HD 3000 или 8000/9000 от Nvidia это было не так важно — пока они могли тянуть AAA-игры с нормальными настройками графики, поддержки DX 10 вполне хватало, а когда произошел массовый переход на DX 11, то эти видеокарты могли бы тянуть игры на новом API разве что в HD на низких настройках графики, что было мало кому нужно. Но вот с HD 4870 и GTX 280 (и мощнее) это уже было проблемой, ибо в более новых линейках HD 5000 и GTX 400 были видеокарты слабее, но из-за поддержки DX 11 они могут запускать все современные игры — и, забегая вперед, делают это зачастую даже лучше, чем текущие «затычки» типа GT 1030. Поэтому те, кто в 2008-2009 году купил топовую видеокарту с надеждой поиграть во все игры ближайшие лет пять, были, мягко говоря, разочарованы.

AMD Radeon HD 5970 (2009)
Картинки по запросу AMD Radeon HD 5970
Хорошо видно, что после покупки ATi AMD стала существенно «вкладываться» в видеокарты — так, не успела Nvidia догнать 4870 X2, как «красные» снова уходят в отрыв с новой двухчиповой видеокартой — 5970 (да, без индекса X2, как и у GTX 295). 1600 потоковых процессоров на каждый GPU, 1 ГБ быстрой GDDR5-памяти — в общем, Nvidia крыть было нечем. Даже GTX 480, вышедшая пару месяцев спустя, была существенно медленнее, и лишние 512 МБ памяти ее тогда не спасали, ибо играм столько было банально не нужно.

Так что HD 5970 целый год была топом, более того — ее можно считать первой действительно современной видеокартой в нашем списке, так как она полноценно поддерживает DirectX 11, и на ней можно поиграть во все современные игры — конечно, это будут низкие/средние настройки графики и зачастую HD-разрешение, но, на секунду, этой видеокарте 9 лет!

AMD Radeon HD 6990 и Nvidia GeForce GTX 590 (2011)

Окончательно догнать AMD Nvidia смогла лишь к 2011 году и 500-ой линейке: так, HD 6990 и GTX 590 шли, как говорится, «ноздря в ноздрю». Да и внешне они были очень похожи — до обоих производителей дошло, что охлаждение двух одинаковых чипов должно располагаться между ними:
Картинки по запросу Nvidia GeForce GTX 590
Разумеется, эти видеокарты поддерживают DirectX 11, а если игры еще и поддерживают SLI или CrossFire, то их производительность в них может быть и выше GTX 1050, а то и 1050 Ti. Но, увы, этих карт осталось крайне мало — они и стоили крайне дорого (1000 долларов), и достаточно быстро умирали от перегрева.

Nvidia GeForce GTX 690 (2012)
Картинки по запросу Nvidia GeForce GTX 690
Начиная с 600ой линейки пальма первенства снова вернулась к «зеленым»: те решили отказаться от теплораспределительной крышки над GPU, что позволило серьезно увеличить его мощность и одновременно снизить нагрев. Этому же способствовал и переход на более тонкий 28 нм техпроцесс (400 и 500 линейка была на 40 нм). Все это в итоге вылилось в настоящего двухчипового монстра GTX 690 — 1536 CUDA на каждый GPU и 2 ГБ быстрой GDDR5: в общем, эта видеокарта отлично себя чувствует и сейчас, позволяя комфортно играть в FHD во все новинки. Причем до наших дней дожило достаточно много видеокарт, и их без особого труда можно купить в рабочем состоянии на том же Ebay.

Nvidia GeForce GTX TITAN и AMD Radeon HD 7990 (2013)
Картинки по запросу AMD Radeon HD 7990
Лишь через год «красные» смогли выпустить видеокарту, которая была стабильно быстрее GTX 690. Разумеется, она была двухчиповой, по 2048 потоковых процессоров на каждый GPU и 3 ГБ GDDR5.

Nvidia же решила ответить на нее достаточно оригинально — выпуском абсолютно новой линейки видеокарт TITAN, которые являются самыми мощными пользовательскими решениями на каждой архитектуре. В данном случае использовалась архитектура Kepler (как у 600-ой и 700-ой линейки), 2688 ядер CUDA и целых 6 ГБ GDDR5-памяти. На минуту — это был 2013 год, играм зачастую хватало гигабайта, максимум двух, а тут их было целых 6. Это звучало тогда круче, чем 11 ГБ у GTX 1080 Ti год назад.

Но, увы, все же двухчиповая HD 7990 зачастую оказывалась быстрее, и лишь пара TITAN в SLI стабильно обходили видеокарту от «красных», но с учетом цены в 2400 долларов мало у кого такая связка была.

AMD Radeon R9 295X2 (2014)

AMD опять отобрала первенство у Nvidia, которая запуталась в 700ой линейке, и выпустила, пожалуй, самую прожорливую видеокарту в истории. Только вдумайтесь — тепловыделение (TDP) у одночиповых топов того времени (да и сейчас) лежало в рамках 150-200 Вт. Двухчиповые доходили до 375 Вт. Эта же видеокарта имела TDP в... 500 Вт! Для примера — система с Core i7 и GTX 1080 Ti в играх потребляет меньше, чем одна эта видеокарта. Для ее подключения AMD создала целый мануал — запрещается использовать какие-либо переходники, каждый 8 PIN разъем должен быть подключен к своей линии 12 В, а блок питания должен быть киловаттным. Более того — с учетом веса в 2 Кг был реальный шанс выломать слот PCIe, так что пользователям приходилось городить подпорки. 

С охлаждением тоже все было очень необычно — оно было водяным, общим для обеих GPU, и к тому же память и зона питания обдувались вентилятором:
Картинки по запросу AMD Radeon R9 295X2
Видеокарта имела по 2816 потоковых процессоров на каждый GPU с 4 ГБ GDDR5 памятью и была на 50-70% быстрее Nvidia TITAN. Но вот связка из последних уже держалась на уровне с этим «красным монстром», но все еще проигрывала по цене (2400 долларов против 1700).

Nvidia GTX TITAN X и AMD Radeon R9 Fury X (2015)
Картинки по запросу Nvidia GTX TITAN X
Пожалуй, именно этот год стал переломным — если до этого топовые видеокарты всегда были двухчиповыми, то теперь производители GPU поняли, что разработчики игр крайне неохотно оптимизируют свои творения под SLI или CrossFire, и в итоге одночиповые версии оказываются несильно-то и хуже при существенно более низкой цене. Так что оба топа 2015 года были одночиповыми.

Что касается характеристик, то TITAN мог похвастаться 3072 CUDA и аж 12 ГБ GDDR5-памяти (кажется, инженеры Nvidia поняли фразу «памяти много не бывает» буквально), а Fury X имел 4096 потоковых процессоров и всего 4 ГБ памяти, зато какой — это была новейшая HBM на одном кристалле с GPU, что дало умопомрачительную шину в 4096 бит (против 384 у TITAN). Но, увы, в итоге разница в скорости памяти существенной роли не сыграла — видеокарты в общем и целом выдавали схожий FPS, но только до перехода в 2K или 4K: как только Fury X переставало хватать памяти, TITAN с 12 ГБ уходил в существенный отрыв.

Nvidia Titan V (2017)

Многие могут удивиться — ведь до Titan V была же 1000-ая линейка от Nvidia и те же Vega от AMD. Да, были, но ничего сверхеъстественного не предложили, поэтому сразу перейдем к Titan V, которая удивила минимум дважды — производительностью и ценой.

Картинки по запросу Nvidia Titan V

Она имеет 5120 CUDA и 640 Tensor, построена на новейшей 12 нм архитектуре и оснащена 12 ГБ HBM2-видеопамяти. Для примера, GTX 1080 Ti имеет «всего» 3584 CUDA и 0 Tensor, а памяти «лишь» 11 ГБ GDDR5X. В итоге эта видеокарта в среднем на 30% быстрее 1080 Ti в играх, а в задачах по машинному обучению благодаря ядрам Tensor быстрее в разы. Увы, цена соответствует цвету — видеокарта по-настоящему «золотая», ибо стоит 3200 евро!