![](/upload/medialibrary/58f/58fdf439fc45024e15f8114e6b0b4fe3.png)
2020 год оказался на редкость интересным на новинки: AMD Ryzen 5000 смогли обогнать решения от Intel даже в играх, Sony и Microsoft выпустили долгожданные новые консоли, а iPhone наконец-то обзавелись поддержкой 5G. И производители видеокарт решили не отставать: так, Nvidia представила линейку RTX 3000, флагман который может тянуть игры даже в умопомрачительном разрешении 8К. AMD дышит ей в затылок и в кои-то веки выпустила видеокарты, способные тягаться с топами «зеленых». Увы, обе линейки видеокарт были анонсированы чисто бумажно, и в продаже их найти крайне сложно (а за адекватные деньги вообще невозможно), так что выводы будем делать теоретические, опираясь на рекомендованные, а не реальные цены новинок. Благо «луч света в конце тоннеля» уже виден, и некоторые новинки — ту же RTX 3090 — уже можно купить по разумным ценам.
Nvidia RTX 3000 — такими должны были быть RTX 2000
Вышедшие пару лет назад видеокарты Nvidia Turing, они же RTX 2000, оставили после себя некоторую неопределенность: с одной стороны, чистая производительность по сравнению с действительно классными решениями линейки Pascal (GTX 1000) выросла не особо: так, старый топ GTX 1080 Ti временами догоняет новый предтоп RTX 2080, при этом Nvidia еще и ощутимо подняла цены на новинки, из-за чего эти видеокарты стали стоить одинаково.
С другой стороны, Turing был первым поколением десктопных видеокарт, способным обрабатывать эффекты трассировки лучей в реальном времени благодаря специальным RT-ядрам. Как итог, в играх, где поддерживается трассировка лучей, даже самая простая RTX 2060 оказывается ощутимо быстрее GTX 1080 Ti, которая вынуждена обрабатывать трассировку программно.
![](/upload/medialibrary/246/246d333791ac273bab1a96c475859ea9.png)
Да, Pascal поддерживает трассировку лучей, но чисто для галочки.
Получается, что единственный стимул в апгрейде с Pascal на Turing был как раз в «RTX on», но и здесь первый блин оказался комом: даже топовая RTX 2080 Ti за $1000 (на 20% дороже, чем стоила GTX 1080 Ti) была нередко не способна выдать полноценные 60 кадров в секунду в играх с трассировкой при старом добром FHD-разрешении, а в 4К производительность флагмана линейки Turing с включенной трассировкой могла проваливаться ниже 30 FPS, что совершенно неиграбельно.
А ведь существуют и RTX 2070 с RTX 2060: у последней даже в FHD с трассировкой бывают ощутимые проблемы. Как стала решать эту проблему Nvidia? Компания изобрела новый вид сглаживания, DLSS. Его смысл в том, что специально обученная нейросеть берет кадр из игры в низком разрешении (например, 720p) и улучшает его до более высокого (например, 1080p). Причем занимаются этим специальные тензорные ядра, то есть потери производительности на процесс «улучшайзинга» нет. Как итог, это позволило «мухлевать» с разрешением рендеринга в играх: RTX 2080 Ti не тянет трассировку в честном 4К? Не беда, включим DLSS: в таком случае картинка будет готовиться уже в 2К, на что флагман Turing вполне способен, и после этого «улучшится» до 4K.
И я не просто так взял слово «улучшится» в кавычки. Проблема в том, что первая версия DLSS оказалась практически нерабочей: она сильно мылила картинку и теряла мелкие детали. В итоге банальный апскейл (то есть установка более низкого разрешения на мониторе с высоким разрешением) нередко давал сравнимую картинку, то есть новое сглаживание Nvidia банально не работало. Так что пользователи Turing оказались в незавидной ситуации: при активации RTX приходилось или терпеть низкий FPS, или любоваться мыльной картинкой с DLSS. На видеокарте в том числе и за $1000, я напомню.
![](/upload/medialibrary/c9f/c9ffe25657d254d10c0e989bb81a8476.png)
Первая версия DLSS ощутимо ошибалась со сложными объектами, такими как решетки.
Подливало масло в огонь и то, что эффекты трассировки лучей, такие как правильные тени, отражения и освещения, видны были далеко не всегда, и нередко скриншоты с «RTX on» и «RTX off» приходилось сравнивать рядом, чтобы увидеть разницу. И это не удивительно: игровые движки умеют работать с 3D уже пару десятилетий, и было придумано много способов выводить реалистичную картинку без обсчета всей физики с низкими требованиями к мощности видеокарты.
И если сложить все написанное выше, не удивительно, что видеокарты Turing особой любовью пользователей не пользовались, и их доля в Steam даже спустя пару лет после выхода едва превысила 5%. Многие геймеры банально не видели смысла в покупке видеокарты за $600-700, которая будет тянуть современные игры с «RTX on» в 30-40 FPS с минимальной разницей в картинке с «RTX off».
Однако Nvidia, разумеется, на месте не сидела. Во-первых, компания улучшила свое сглаживание, не так давно представив DLSS 2.0. Оно имеет несколько режимов работы, от максимальной производительности, когда итоговая картинка слегка теряет в качестве по сравнению с оригиналом, но FPS может вырасти в полтора раза, и до качества, когда FPS растет не очень сильно, но картинка при этом становится даже четче, чем оригинал. Проблема только в том, что такое классное сглаживание появилось уже на закате линейки Turing: буквально через несколько месяцев после выхода первых игр с ним компания анонсировала видеокарты Ampere (RTX 3000).
![](/upload/medialibrary/096/096d3680abcc6bebee3dc3b4130ed0fe.png)
DLSS 2.0 в режиме качества не только увеличивает FPS, но и делает картинку четче.
Во-вторых, видеокарты RTX 3000 получили более эффективные RT-ядра второго поколения, и в итоге на новых видеокартах при активации трассировки лучей производительность падает слабее, чем на «старых» Turing. Ну и в-третьих, новые видеокарты Ampere оказались по чистой производительности куда мощнее аналогичных представителей RTX 2000 при неизменной цене: так, RTX 3070 за $500 находится на одном уровне с RTX 2080 Ti за $1000.
В итоге, как это не печально признавать, линейка Turing была откровенным бета-тестом на пользователях: компания обкатывала на нас новые технологии сглаживания и трассировки лучей, и этим же самым занимались создатели игр, добавляя в свои движки «RTX on». И в итоге получились видеокарты Ampere, которые уже лишены всех детских болезней RTX 2000 и действительно способны тянуть игры с трассировкой лучей в нормальном качестве при высоких разрешениях и FPS. По сути именно такими должны были выйти видеокарты Turing, но пару лет назад AMD ничего не могла противопоставить топам Nvidia, что и позволило последней «играться» с пользователями.
Но, что забавно, даже в случае с RTX 3000, когда у AMD уже есть серьезный ответ на них, компания Nvidia не перестает слегка «ущемлять права пользователей». Посудите сами: из года в год современные игры становятся все красивее, и мы играем на все более высоких разрешениях. Поэтому если в 2016 году 8 ГБ видеопамяти у GTX 1080 казались избыточными, то вот в 2020 году 10 ГБ памяти у RTX 3080, когда 4К уже никого не удивляет, являются уже только достаточными. А ведь с выходом консолей нового поколения графика в играх уже традиционно станет лучше, что вызовет дополнительный рост потребления видеопамяти.
В итоге «игровой флагман» Ampere в лице RTX 3080 оказывается несбалансированным: с одной стороны, по чипу разница с топом, RTX 3090, незначительна и редко превышает 10-15% производительности. С другой стороны, между RTX 3080 и RTX 3090 просто пропасть в видеопамяти: если первой 10 ГБ маловато, то 24 ГБ второй едва ли когда-нибудь понадобятся для игр.
![](/upload/medialibrary/7b8/7b88780adad0f46e3e5e0398fad684ea.png)
Игры в 4К уже подбираются к 10 ГБ видеопамяти, так что у RTX 3080 запаса на будущее маловато.
Причем, что интересно, Nvidia это отлично понимает: так, по слухам, в начале следующего года компания выпустит видеокарту RTX 3080 Ti, которая будет иметь чип от RTX 3090 и более разумные 20 ГБ памяти — любопытное решение, особенно если учесть, что продавать такую карту будут скорее всего за $1000 (топ Ampere, напомню, стоит аж $1500). Более того, может дойти просто до смешного: компания готовит RTX 3060 в двух версиях, с 6 и 12 ГБ памяти. То есть у среднеуровневой карты может быть больше видеопамяти, чем у игрового флагмана RTX 3080.
Зачем Nvidia так поступила? Все просто. Очевидно, компания знала, какие видеокарты готовит AMD, и разумеется решила сделать «ultimate-флагмана», до которого топ «красных» не достанет. Им и стала RTX 3090. А с учетом того, что сейчас происходит «бум высоких разрешений», то не удивительно, что компания решила его возглавить и заявить, что RTX 3090 способна воспроизводить игры в 8К. Да, разумеется всем понятно, что этот монстр с 24 ГБ памяти — по сути Titan, который создан для работы, а не для игр. Но шаг, согласитесь, красивый: мощный чип вместе с 24 ГБ памяти действительно способен выдавать играбельный FPS в 8К.
С другой стороны, Nvidia также знала, что AMD будет демпинговать и стараться продавать свои новые видеокарты дешевле аналогичных по производительности решений «зеленых». Поэтому Nvidia, с одной стороны, нужно было выпустить мощные видеокарты по низкой цене, с другой — не сильно обделить прибылью себя любимую. На чем проще всего сэкономить? Правильно, на видеопамяти. Так и появились RTX 3080 с 10 ГБ и RTX 3070 с 8 ГБ: что забавно, они обе быстрее RTX 2080 Ti с 11 ГБ. Да, на текущий (и может быть следующий) год такого объема памяти хватит для ультра-настроек графики в современных играх даже в 4К. А когда хватать перестанет — у компании уже будут в арсенале или видеокарты RTX 3000 Super/Ti, или даже RTX 4000 с уже «нормальным» объемом памяти.
![](/upload/medialibrary/26c/26cf2760daafae6266a79e2b0a9115f0.png)
RTX 3090 действительно способна тянуть игры в 8К.
В итоге текущие видеокарты Ampere, безусловно, очень мощные и честно тянут трассировку лучей даже в 4К. Но брать их, если вы редко меняете видеокарты, явно не стоит. Почему? Скорее всего в течение года, максимум двух, компания выпустит уже традиционные обновленные видеокарты линейки Super и/или Ti, основное нововведение которых будет как раз в большем объеме видеопамяти: так, RTX 3080 Ti с 20 ГБ памяти за разумные для нее деньги фактически подтверждена, и скорее всего появится RTX 3070 Ti с 16 ГБ памяти, которая «закопает» RTX 3080 с 10 ГБ. Так что не спешите брать текущие Ampere за любые деньги — вполне возможно, что через полгода вы возьмете куда лучшую видеокарту с хорошим запасом на будущее уже без всякого бума и дефицита.
AMD Radeon RX 6000 — достойный ответ Nvidia Ampere с одним «но»
Как я уже писал выше, компания Nvidia не просто так стала «доброй» и «подарила» пользователям мощные видеокарты RTX 3000 по цене аналогичных решений Turing и даже дешевле, если мы говорим о RTX 3090 и Titan. Компания знала, что AMD готовит мощные новинки, и так и случилось: Radeon RX 6800 выступает конкурентом RTX 3070, RX 6800 XT догоняет RTX 3080, ну а RX 6900 XT не сильно отстает от RTX 3090, стоя в полтора раза дешевле, 1000 долларов против 1500.
При этом все новинки AMD имеют по 16 ГБ видеопамяти — казалось бы, это делает решения «красных» гораздо интереснее видеокарт Nvidia, где тот же игровой флагман имеет «всего лишь» 10 ГБ памяти. Однако на деле все не так просто: как оказалось, AMD тоже играет не совсем честно. Да, памяти у новинок — внушительные 16 ГБ, только вот подключена она по узкой 256-битной шине, да и сама память не GDDR6X как у RTX 3080 или 3090, а обычная GDDR6. Как итог, ее пропускная способность оказывается на уровне GTX 1080 Ti трехлетней давности, что сложно назвать высоким результатом.
Чтобы компенсировать это, компания встроила в свои видеокарты своеобразный кэш третьего уровня — Infinity Cache объемом в 128 МБ. При его использовании, по словам AMD, пропускная способность памяти может вырасти в 2.2 раза — до рекордных 1.3 ГБ/c: это почти в полтора раза больше, чем у предыдущего рекордсмена, Radeon VII с 512-битной HBM2 памятью. В чем же подвох? Да в том, что и RTX 3000, и вышеуказанный Radeon могут обращаться ко всему массиву памяти с высокой скоростью, а новые RX 6000 — только пока хватает кэша, после чего скорость падает до все того же уровня 3-летнего флагмана Nvidia.
![](/upload/medialibrary/84c/84c36ad47044cc191a1ae394f7b69665.png)
В итоге в будущем, когда игры будут делаться только для некстген-консолей и ПК, а 10-12 ГБ занятой видеопамяти будут нормой, такой относительно небольшой кэш может аукнуться. Ну а пока что это действительно рабочий лайфхак для повышения производительности видеокарты — причем в случае с RX 6000 он не один.
AMD очень любит использовать программные «улучшайзеры» для своих видеокарт, и одним из них стала функция Smart Access Memory. Ее смысл в том, что она позволяет центральному процессору получить доступ к всему объему памяти видеокарты и «зеркалить» ее в ОЗУ при необходимости, что помогает избежать лишнего копирования информации и слегка увеличить производительность в играх — в среднем на 5-6%, что все еще приятно.
![](/upload/medialibrary/ef2/ef2a2b394252a21373d90ba7720777c1.png)
Прирост от SAM небольшой, но приятный, ибо бесплатный.
Единственный минус — работает сия функция только на Ryzen 5000 и платах на B550 и X570 чипсете, короче говоря — только на новейших CPU AMD и платах с поддержкой PCIe 4.0. И вот тут AMD здорово слукавила: как оказалось, теоретически возможность процессору обращаться ко всей видеопамяти появилась в шине PCIe 2.0 больше 10 лет назад, и называется она BAR (Base Address Registers). И на практике она должна работать на любых CPU и GPU с поддержкой этой шины и новее — если, конечно, добавить ее в BIOS и Video BIOS. Так поступила, например, ASUS с платами на Z490 чипсете, который предназначен для процессоров Intel. Более того, Nvidia обещает добавить
Ну и под конец — еще одно важное нововведение видеокарт RX 6000 на новой архитектуре RDNA 2. Речь идет об аппаратной трассировке лучей: да, теперь это не монополия Nvidia, решения от AMD также получили специальные RT-ядра. Но и тут есть серьезный затык: если «зеленые» выпустили уже второе поколение своих видеокарт с «RTX on», то у AMD это «первый блин», и он оказался на уровне Turing. Иными словами, трассировку лучей в большинстве игр включить-то можно, но вот производительность даже флагманской RX 6900 XT оказывается лишь на уровне RTX 3070.
И, что самое плохое — у AMD пока нет аналога DLSS и нет тензорных ядер для его обработки. Да, компания готовит функцию Super Resolution, которая по сути будет работать так же, как и DLSS: с помощью нейросети улучшать картинку из пониженного разрешения до исходного. Более того, эта технология будет открытой и доступной всем, что в теории сделает ее массовой и она даже может появиться на новых консолях, которые также используют GPU на архитектуре RDNA 2.
Однако тут хватает подводных камней: во-первых, раз тензорных ядер у Radeon RX 6000 нет, значит Super Resolution будет работать на обычных вычислительных блоках, потенциально снижая возможный прирост производительности от рендеринга картинки в более низком разрешении. Во-вторых, неизвестно качество такого «супер сглаживания»: у Nvidia DLSS перестал мылить картинку лишь ко второй версии спустя пару лет после выхода. И далеко не факт, что у AMD получится с первого раза сделать все хорошо.
![](/upload/medialibrary/0a9/0a9300168c4960570cc806f6f8494564.png)
В тестах Vulkan RT производительность решений AMD совсем печальная.
В итоге можно сказать, что AMD смогла если не догнать Nvidia, то хотя бы в кои-то веки навязать им конкуренцию: в играх, где нет поддержки трассировки лучей, новые Radeon выступают очень достойно, нередко заставляя задуматься, а нужно ли брать ту же RTX 3080 с всего 10 ГБ памяти вместо RX 6800 XT с 16 ГБ. Но, с другой стороны, игр с поддержкой трассировки становится все больше, и там производительность новинок от AMD достаточно печальная, а Super Resolution, чтобы это поправить, пока нет и не факт что эта технология будет годной.
Подливает масла в огонь и то, что новинки «красных» стоят сравнимо с аналогами из линейки RTX 3000: если бы решения от AMD были дешевле, им можно было бы простить худшую производительность при «RTX on». Так что можно сказать, что RX 6000 вышли неоднозначными: если вам нужна высокая голая производительность и много памяти, то это — ваш выбор. С другой стороны, если вы хотите понаслаждаться всеми современными технологиями в играх с хорошим FPS — имеет смысл смотреть на решения Ampere.
Что нас ждет впереди?
В основном — дальнейшее расширение линеек RTX 3000 и RX 6000 вниз (и не только). Так, в случае с Nvidia подтверждены RTX 3060 и даже RTX 3050 (видимо, последняя будет «лучшим выбором для трассировки лучей в 720p»). В случае с AMD достоверной информации по RX 6700 и ниже нет, но, очевидно, такие видеокарты также будут.
![](/upload/medialibrary/438/4389d642b07dc70297d2d4f1b758959f.png)
Также есть информация, что в следующем году Intel выйдет на рынок дискретных видеокарт. Формально компания уже сделала это в этом году: появились первые ноутбуки с дискретными видеокартами Xe DG1. Однако по сути это были клоны интегрированной графики в мобильных процессорах Tiger Lake (об этом подробнее поговорим в итогах о мобильных видеокартах) с крайне низкой производительности, которая в лучшем случае достигает уровня GTX 1050. Но, по слухам, компания готовит более мощную DG2 — так что, возможно, в следующем году на рынок дискретной графики выйдет еще один мощный игрок.