2020 год оказался на редкость интересным на новинки: AMD Ryzen 5000 смогли обогнать решения от Intel даже в играх, Sony и Microsoft выпустили долгожданные новые консоли, а iPhone наконец-то обзавелись поддержкой 5G. И производители видеокарт решили не отставать: так, Nvidia представила линейку RTX 3000, флагман который может тянуть игры даже в умопомрачительном разрешении 8К. AMD дышит ей в затылок и в кои-то веки выпустила видеокарты, способные тягаться с топами «зеленых». Увы, обе линейки видеокарт были анонсированы чисто бумажно, и в продаже их найти крайне сложно (а за адекватные деньги вообще невозможно), так что выводы будем делать теоретические, опираясь на рекомендованные, а не реальные цены новинок. Благо «луч света в конце тоннеля» уже виден, и некоторые новинки — ту же RTX 3090 — уже можно купить по разумным ценам.

Nvidia RTX 3000 — такими должны были быть RTX 2000

Вышедшие пару лет назад видеокарты Nvidia Turing, они же RTX 2000, оставили после себя некоторую неопределенность: с одной стороны, чистая производительность по сравнению с действительно классными решениями линейки Pascal (GTX 1000) выросла не особо: так, старый топ GTX 1080 Ti временами догоняет новый предтоп RTX 2080, при этом Nvidia еще и ощутимо подняла цены на новинки, из-за чего эти видеокарты стали стоить одинаково.

С другой стороны, Turing был первым поколением десктопных видеокарт, способным обрабатывать эффекты трассировки лучей в реальном времени благодаря специальным RT-ядрам. Как итог, в играх, где поддерживается трассировка лучей, даже самая простая RTX 2060 оказывается ощутимо быстрее GTX 1080 Ti, которая вынуждена обрабатывать трассировку программно. 


Да, Pascal поддерживает трассировку лучей, но чисто для галочки.

Получается, что единственный стимул в апгрейде с Pascal на Turing был как раз в «RTX on», но и здесь первый блин оказался комом: даже топовая RTX 2080 Ti за $1000 (на 20% дороже, чем стоила GTX 1080 Ti) была нередко не способна выдать полноценные 60 кадров в секунду в играх с трассировкой при старом добром FHD-разрешении, а в 4К производительность флагмана линейки Turing с включенной трассировкой могла проваливаться ниже 30 FPS, что совершенно неиграбельно.

А ведь существуют и RTX 2070 с RTX 2060: у последней даже в FHD с трассировкой бывают ощутимые проблемы. Как стала решать эту проблему Nvidia? Компания изобрела новый вид сглаживания, DLSS. Его смысл в том, что специально обученная нейросеть берет кадр из игры в низком разрешении (например, 720p) и улучшает его до более высокого (например, 1080p). Причем занимаются этим специальные тензорные ядра, то есть потери производительности на процесс «улучшайзинга» нет. Как итог, это позволило «мухлевать» с разрешением рендеринга в играх: RTX 2080 Ti не тянет трассировку в честном 4К? Не беда, включим DLSS: в таком случае картинка будет готовиться уже в 2К, на что флагман Turing вполне способен, и после этого «улучшится» до 4K.

И я не просто так взял слово «улучшится» в кавычки. Проблема в том, что первая версия DLSS оказалась практически нерабочей: она сильно мылила картинку и теряла мелкие детали. В итоге банальный апскейл (то есть установка более низкого разрешения на мониторе с высоким разрешением) нередко давал сравнимую картинку, то есть новое сглаживание Nvidia банально не работало. Так что пользователи Turing оказались в незавидной ситуации: при активации RTX приходилось или терпеть низкий FPS, или любоваться мыльной картинкой с DLSS. На видеокарте в том числе и за $1000, я напомню.


Первая версия DLSS ощутимо ошибалась со сложными объектами, такими как решетки.

Подливало масло в огонь и то, что эффекты трассировки лучей, такие как правильные тени, отражения и освещения, видны были далеко не всегда, и нередко скриншоты с «RTX on» и «RTX off» приходилось сравнивать рядом, чтобы увидеть разницу. И это не удивительно: игровые движки умеют работать с 3D уже пару десятилетий, и было придумано много способов выводить реалистичную картинку без обсчета всей физики с низкими требованиями к мощности видеокарты.

И если сложить все написанное выше, не удивительно, что видеокарты Turing особой любовью пользователей не пользовались, и их доля в Steam даже спустя пару лет после выхода едва превысила 5%. Многие геймеры банально не видели смысла в покупке видеокарты за $600-700, которая будет тянуть современные игры с «RTX on» в 30-40 FPS с минимальной разницей в картинке с «RTX off».

Однако Nvidia, разумеется, на месте не сидела. Во-первых, компания улучшила свое сглаживание, не так давно представив DLSS 2.0. Оно имеет несколько режимов работы, от максимальной производительности, когда итоговая картинка слегка теряет в качестве по сравнению с оригиналом, но FPS может вырасти в полтора раза, и до качества, когда FPS растет не очень сильно, но картинка при этом становится даже четче, чем оригинал. Проблема только в том, что такое классное сглаживание появилось уже на закате линейки Turing: буквально через несколько месяцев после выхода первых игр с ним компания анонсировала видеокарты Ampere (RTX 3000).


DLSS 2.0 в режиме качества не только увеличивает FPS, но и делает картинку четче.

Во-вторых, видеокарты RTX 3000 получили более эффективные RT-ядра второго поколения, и в итоге на новых видеокартах при активации трассировки лучей производительность падает слабее, чем на «старых» Turing. Ну и в-третьих, новые видеокарты Ampere оказались по чистой производительности куда мощнее аналогичных представителей RTX 2000 при неизменной цене: так, RTX 3070 за $500 находится на одном уровне с RTX 2080 Ti за $1000.

В итоге, как это не печально признавать, линейка Turing была откровенным бета-тестом на пользователях: компания обкатывала на нас новые технологии сглаживания и трассировки лучей, и этим же самым занимались создатели игр, добавляя в свои движки «RTX on». И в итоге получились видеокарты Ampere, которые уже лишены всех детских болезней RTX 2000 и действительно способны тянуть игры с трассировкой лучей в нормальном качестве при высоких разрешениях и FPS. По сути именно такими должны были выйти видеокарты Turing, но пару лет назад AMD ничего не могла противопоставить топам Nvidia, что и позволило последней «играться» с пользователями.

Но, что забавно, даже в случае с RTX 3000, когда у AMD уже есть серьезный ответ на них, компания Nvidia не перестает слегка «ущемлять права пользователей». Посудите сами: из года в год современные игры становятся все красивее, и мы играем на все более высоких разрешениях. Поэтому если в 2016 году 8 ГБ видеопамяти у GTX 1080 казались избыточными, то вот в 2020 году 10 ГБ памяти у RTX 3080, когда 4К уже никого не удивляет, являются уже только достаточными. А ведь с выходом консолей нового поколения графика в играх уже традиционно станет лучше, что вызовет дополнительный рост потребления видеопамяти.

В итоге «игровой флагман» Ampere в лице RTX 3080 оказывается несбалансированным: с одной стороны, по чипу разница с топом, RTX 3090, незначительна и редко превышает 10-15% производительности. С другой стороны, между RTX 3080 и RTX 3090 просто пропасть в видеопамяти: если первой 10 ГБ маловато, то 24 ГБ второй едва ли когда-нибудь понадобятся для игр.


Игры в 4К уже подбираются к 10 ГБ видеопамяти, так что у RTX 3080 запаса на будущее маловато.

Причем, что интересно, Nvidia это отлично понимает: так, по слухам, в начале следующего года компания выпустит видеокарту RTX 3080 Ti, которая будет иметь чип от RTX 3090 и более разумные 20 ГБ памяти — любопытное решение, особенно если учесть, что продавать такую карту будут скорее всего за $1000 (топ Ampere, напомню, стоит аж $1500). Более того, может дойти просто до смешного: компания готовит RTX 3060 в двух версиях, с 6 и 12 ГБ памяти. То есть у среднеуровневой карты может быть больше видеопамяти, чем у игрового флагмана RTX 3080.

Зачем Nvidia так поступила? Все просто. Очевидно, компания знала, какие видеокарты готовит AMD, и разумеется решила сделать «ultimate-флагмана», до которого топ «красных» не достанет. Им и стала RTX 3090. А с учетом того, что сейчас происходит «бум высоких разрешений», то не удивительно, что компания решила его возглавить и заявить, что RTX 3090 способна воспроизводить игры в 8К. Да, разумеется всем понятно, что этот монстр с 24 ГБ памяти — по сути Titan, который создан для работы, а не для игр. Но шаг, согласитесь, красивый: мощный чип вместе с 24 ГБ памяти действительно способен выдавать играбельный FPS в 8К.

С другой стороны, Nvidia также знала, что AMD будет демпинговать и стараться продавать свои новые видеокарты дешевле аналогичных по производительности решений «зеленых». Поэтому Nvidia, с одной стороны, нужно было выпустить мощные видеокарты по низкой цене, с другой — не сильно обделить прибылью себя любимую. На чем проще всего сэкономить? Правильно, на видеопамяти. Так и появились RTX 3080 с 10 ГБ и RTX 3070 с 8 ГБ: что забавно, они обе быстрее RTX 2080 Ti с 11 ГБ. Да, на текущий (и может быть следующий) год такого объема памяти хватит для ультра-настроек графики в современных играх даже в 4К. А когда хватать перестанет — у компании уже будут в арсенале или видеокарты RTX 3000 Super/Ti, или даже RTX 4000 с уже «нормальным» объемом памяти.


RTX 3090 действительно способна тянуть игры в 8К.

В итоге текущие видеокарты Ampere, безусловно, очень мощные и честно тянут трассировку лучей даже в 4К. Но брать их, если вы редко меняете видеокарты, явно не стоит. Почему? Скорее всего в течение года, максимум двух, компания выпустит уже традиционные обновленные видеокарты линейки Super и/или Ti, основное нововведение которых будет как раз в большем объеме видеопамяти: так, RTX 3080 Ti с 20 ГБ памяти за разумные для нее деньги фактически подтверждена, и скорее всего появится RTX 3070 Ti с 16 ГБ памяти, которая «закопает» RTX 3080 с 10 ГБ. Так что не спешите брать текущие Ampere за любые деньги — вполне возможно, что через полгода вы возьмете куда лучшую видеокарту с хорошим запасом на будущее уже без всякого бума и дефицита.

AMD Radeon RX 6000 — достойный ответ Nvidia Ampere с одним «но»

Как я уже писал выше, компания Nvidia не просто так стала «доброй» и «подарила» пользователям мощные видеокарты RTX 3000 по цене аналогичных решений Turing и даже дешевле, если мы говорим о RTX 3090 и Titan. Компания знала, что AMD готовит мощные новинки, и так и случилось: Radeon RX 6800 выступает конкурентом RTX 3070, RX 6800 XT догоняет RTX 3080, ну а RX 6900 XT не сильно отстает от RTX 3090, стоя в полтора раза дешевле, 1000 долларов против 1500.

При этом все новинки AMD имеют по 16 ГБ видеопамяти — казалось бы, это делает решения «красных» гораздо интереснее видеокарт Nvidia, где тот же игровой флагман имеет «всего лишь» 10 ГБ памяти. Однако на деле все не так просто: как оказалось, AMD тоже играет не совсем честно. Да, памяти у новинок — внушительные 16 ГБ, только вот подключена она по узкой 256-битной шине, да и сама память не GDDR6X как у RTX 3080 или 3090, а обычная GDDR6. Как итог, ее пропускная способность оказывается на уровне GTX 1080 Ti трехлетней давности, что сложно назвать высоким результатом.

Чтобы компенсировать это, компания встроила в свои видеокарты своеобразный кэш третьего уровня — Infinity Cache объемом в 128 МБ. При его использовании, по словам AMD, пропускная способность памяти может вырасти в 2.2 раза — до рекордных 1.3 ГБ/c: это почти в полтора раза больше, чем у предыдущего рекордсмена, Radeon VII с 512-битной HBM2 памятью. В чем же подвох? Да в том, что и RTX 3000, и вышеуказанный Radeon могут обращаться ко всему массиву памяти с высокой скоростью, а новые RX 6000 — только пока хватает кэша, после чего скорость падает до все того же уровня 3-летнего флагмана Nvidia.



В итоге в будущем, когда игры будут делаться только для некстген-консолей и ПК, а 10-12 ГБ занятой видеопамяти будут нормой, такой относительно небольшой кэш может аукнуться. Ну а пока что это действительно рабочий лайфхак для повышения производительности видеокарты — причем в случае с RX 6000 он не один.

AMD очень любит использовать программные «улучшайзеры» для своих видеокарт, и одним из них стала функция Smart Access Memory. Ее смысл в том, что она позволяет центральному процессору получить доступ к всему объему памяти видеокарты и «зеркалить» ее в ОЗУ при необходимости, что помогает избежать лишнего копирования информации и слегка увеличить производительность в играх — в среднем на 5-6%, что все еще приятно. 


Прирост от SAM небольшой, но приятный, ибо бесплатный.

Единственный минус — работает сия функция только на Ryzen 5000 и платах на B550 и X570 чипсете, короче говоря — только на новейших CPU AMD и платах с поддержкой PCIe 4.0. И вот тут AMD здорово слукавила: как оказалось, теоретически возможность процессору обращаться ко всей видеопамяти появилась в шине PCIe 2.0 больше 10 лет назад, и называется она BAR (Base Address Registers). И на практике она должна работать на любых CPU и GPU с поддержкой этой шины и новее — если, конечно, добавить ее в BIOS и Video BIOS. Так поступила, например, ASUS с платами на Z490 чипсете, который предназначен для процессоров Intel. Более того, Nvidia обещает добавить Яндекс BAR в свои видеокарты — даже те, которые работают через PCIe 3.0. Так что здесь можно только сказать спасибо AMD за то, что компания «откопала» интересную функцию, и пожурить за то, что решила «присвоить» ее себе. 

Ну и под конец — еще одно важное нововведение видеокарт RX 6000 на новой архитектуре RDNA 2. Речь идет об аппаратной трассировке лучей: да, теперь это не монополия Nvidia, решения от AMD также получили специальные RT-ядра. Но и тут есть серьезный затык: если «зеленые» выпустили уже второе поколение своих видеокарт с «RTX on», то у AMD это «первый блин», и он оказался на уровне Turing. Иными словами, трассировку лучей в большинстве игр включить-то можно, но вот производительность даже флагманской RX 6900 XT оказывается лишь на уровне RTX 3070. 

И, что самое плохое — у AMD пока нет аналога DLSS и нет тензорных ядер для его обработки. Да, компания готовит функцию Super Resolution, которая по сути будет работать так же, как и DLSS: с помощью нейросети улучшать картинку из пониженного разрешения до исходного. Более того, эта технология будет открытой и доступной всем, что в теории сделает ее массовой и она даже может появиться на новых консолях, которые также используют GPU на архитектуре RDNA 2.

Однако тут хватает подводных камней: во-первых, раз тензорных ядер у Radeon RX 6000 нет, значит Super Resolution будет работать на обычных вычислительных блоках, потенциально снижая возможный прирост производительности от рендеринга картинки в более низком разрешении. Во-вторых, неизвестно качество такого «супер сглаживания»: у Nvidia DLSS перестал мылить картинку лишь ко второй версии спустя пару лет после выхода. И далеко не факт, что у AMD получится с первого раза сделать все хорошо.


В тестах Vulkan RT производительность решений AMD совсем печальная.

В итоге можно сказать, что AMD смогла если не догнать Nvidia, то хотя бы в кои-то веки навязать им конкуренцию: в играх, где нет поддержки трассировки лучей, новые Radeon выступают очень достойно, нередко заставляя задуматься, а нужно ли брать ту же RTX 3080 с всего 10 ГБ памяти вместо RX 6800 XT с 16 ГБ. Но, с другой стороны, игр с поддержкой трассировки становится все больше, и там производительность новинок от AMD достаточно печальная, а Super Resolution, чтобы это поправить, пока нет и не факт что эта технология будет годной.

Подливает масла в огонь и то, что новинки «красных» стоят сравнимо с аналогами из линейки RTX 3000: если бы решения от AMD были дешевле, им можно было бы простить худшую производительность при «RTX on». Так что можно сказать, что RX 6000 вышли неоднозначными: если вам нужна высокая голая производительность и много памяти, то это — ваш выбор. С другой стороны, если вы хотите понаслаждаться всеми современными технологиями в играх с хорошим FPS — имеет смысл смотреть на решения Ampere.

Что нас ждет впереди?

В основном — дальнейшее расширение линеек RTX 3000 и RX 6000 вниз (и не только). Так, в случае с Nvidia подтверждены RTX 3060 и даже RTX 3050 (видимо, последняя будет «лучшим выбором для трассировки лучей в 720p»). В случае с AMD достоверной информации по RX 6700 и ниже нет, но, очевидно, такие видеокарты также будут. 



Также есть информация, что в следующем году Intel выйдет на рынок дискретных видеокарт. Формально компания уже сделала это в этом году: появились первые ноутбуки с дискретными видеокартами Xe DG1. Однако по сути это были клоны интегрированной графики в мобильных процессорах Tiger Lake (об этом подробнее поговорим в итогах о мобильных видеокартах) с крайне низкой производительности, которая в лучшем случае достигает уровня GTX 1050. Но, по слухам, компания готовит более мощную DG2 — так что, возможно, в следующем году на рынок дискретной графики выйдет еще один мощный игрок.   




iGuides в Telegram — t.me/igmedia
iGuides в Яндекс.Дзен — zen.yandex.ru/iguides.ru