Statistika-proizvoditelya.jpg
Предыдущую статью мы закончили на том, что Nvidia выпустила отличную видеокарту RIVA 128, тем самым став прямым конкурентом 3dfx. Но те на месте не стояли, и выпустили в 1997-1998 годах аж целых 4 видеокарты.

Бум 3dfx — Voodoo Rush, Voodoo2, Banshee, Voodoo3

Начнем с Voodoo Rush, представленной в августе 1997 года. 3dfx здраво рассудила, что видеоускоритель — хорошо, но полноценная видеокарта — еще лучше, и Rush была именно видеокартой — за 3D отвечал тот же чип, что и в Voodoo1, а за 2D — чип AT25/AT3D от Alliance Semiconductor. Увы — хорошая идея была загублена плохой реализацией: во-первых, оба чипсета (2D и 3D) использовали одну память, что приводило к конфликтам. Во-вторых, чип Voodoo1 не имел прямого доступа к PCI, то есть данные передавались через 2D-чип, что приводило к повышенной нагрузке и на него, и на разъем PCI. Все это привело к тому, что в играх производительность Rush была на 10% хуже, чем у Voodoo1, а с учетом большей цены продажи были достаточно скромными и были прекращены в течении года. Правда, была попытка от компании Hercules выпустить видеокарту с 8 МБ памяти и частотой на 10% выше, но к тому времени на рынке появилась сильно лучшая Voodoo2, так что продажи «ремастера» были низкими.

Voodoo2, вышедший в начале 1998 года, можно смело считать лучшим видеоускорителем (да, 3dfx твердо стояла на философии флагманских видеоускорителей) того времени. И хотя архитектура со времен Voodoo1 не поменялась, в этом видеоускорителе был добавлен второй текстурный процессор, что позволило отрисовывать по две текстуры за один проход. Также это позволило добавить трилинейную фильтрацию, которая давала качество ощутимо лучшее, чем билинейная. Частота чипов была на уровне 90-100 МГц, каждый из них работал по 64-битной шине, а объем памяти был 8-12 МБ уже устаревающей EDO DRAM. Разъем тоже использовался старый, PCI — хотя тогда это еще не было проблемой. Одним из серьезных недостатков в сравнении с RIVA 128 было достаточно низкое максимальное разрешение — всего 800х600, однако это можно было нивелировать подключением второй видеокарты, с использованием SLI (Scan-Line Interleave — чередование строк) — тогда разрешение возрастало до 1024х768.
2134956_3dfx-voodoo-2.jpg
Подробнее о SLI можно почитать в этой статье, ну а мы же поговорим о его работе в далеком 1998 году. А работал он не очень и плохо — да, двукратного роста производительности ждать не стоило, но 50% рост был — правда, только в том софте, который его поддерживал, а его было немного. Однако все упиралось в два фактора: во-первых, процессоры того времени имели частоты около полугигагерца и не тянули такую связку. Во-вторых, стоимость двух видеоускорителей, да и еще видеокарты была просто заоблачной. Так что особой популярности SLI не приобрел, и даже сейчас его используют лишь немногие пользователи ПК.

В конце 1998 года 3dfx сделала еще одну попытку сделать полноценную видеокарту, выпустив Voodoo Banshee. Решение получилось с одной стороны очень хорошим, с другой — достаточно посредственным. Хорошим было 2D-ускорение: модуль видеоускорителя состоял из двухмерного 128-битного процессора GUI и 128-битного ядра VESA VBE 3.0. Чипсет качественно ускорял DirectDraw, а также полностью аппаратно поддерживал Windows Graphics Device Interface (GDI), включая операции с 256-цветным растром и третичные функции, а также аппаратное ускорение полигонов. С 3D же все было хуже — на плате были распаяны микросхемы Voodoo2, но вот текстурный процессор был только один, поэтому в высоконагруженных сценах, где использовались полигоны с несколькими текстурами, производительность Voodoo2 была существенно выше. Однако в играх с однотекстурными полигонами перевес был на стороне Banshee из-за большей частоты чипа. В целом, несмотря на меньшую популярность в сравнении с Voodoo2, видеокарта продавалась вполне себе успешно.

В 1999 году 3dfx представила некоторую революцию — Voodoo3, хотя проблем с ней хватало, и именно начиная с нее лидерство стало переходить к Nvidia. Во-первых, это была именно видеокарта — 3dfx отказалась от использования видеоускорителей. Чип работал на частотах в 140-180 МГц в зависимости от версии, память наконец-то стала стандарта SGRAM с объемом до 32 МБ, а саму видеокарту можно было подключать по AGP x2. Более того — поддерживался SLI до 4 видеокарт, а максимальное поддерживаемое разрешение составляло целых 1600х1200 пикселей. В общем — видеокарта на бумаге была отличной, а на практике... а на практике видеокарта не умела работать с 32-битным цветом, хотя уже были несколько игр с его поддержкой. Вторая проблема — все меньше разработчиков обращало внимание на Glide: большинство игр отлично поддерживало DirectX или OpenGL, так что 3dfx лишилась еще одного козыря. В результате видеокарта хоть и была очень хорошей и неплохо продавалась, но своим возможностям она уже стала отставать от конкурента — Nvidia RIVA TNT2.

Nvidia RIVA TNT и TNT2 — зеленые наносят ответный удар

Видеокарта RIVA 128 оказалась очень популярной, и на волне этого Nvidia представляет свой новый чип NV4, который лег в основу видеокарты RIVA TNT. Nvidia не стала изобретать велосипед и пошла по пути 3dfx с Voodoo2 — просто добавила в свой чип второй пиксельный конвейер, фактически удвоив скорость рендеринга. Но если те на этом остановились, то Nvidia пошла дальше — видеокарта научилась работать с 32-битным цветом, максимальное поддерживаемое разрешение текстур составляет 1024х1024, а также поддерживается анизотропная фильтрация, дающая лучшее качество картинки. К тому же Nvidia уже тогда стала добавлять всякие программные «фишки» — так, появилась технология Twin-Texel, которая позволяет в режиме мультитекстурирования накладывать по две текстуры на один пиксел за такт, так что скорость заполнения выросла на 40%. 

С технической точки зрения проблем тоже хватало: чип был настолько горячим, что, во-первых, пришлось снизить частоту с изначальных 110 МГц до 90, а, во-вторых, использовать не просто радиатор, а уже небольшой кулер:
tnt2ultra.jpg
Объем памяти составлял 16 МБ SGRAM. В итоге RIVA TNT в Direct3D оказывалась на одном уровне с Voodoo2, но она, разумеется, не поддерживала Glide, который тогда еще активно использовался. В результате продаже «зеленой» карточки были несколько хуже.

Достаточно интересным моментом было то, что Nvidia уже тогда стали «дружить» с Intel — их видеокарты работали лучше с процессорами от «синих». Разумеется, владельцы процессоров от AMD были недовольны, да и Nvidia не хотела терять рынок (так как видеокарты от 3dfx одинаково хорошо работали у всех) — в результате они выпустили драйвера Detonator, которые существенно повышали fps на системах с процессорами от AMD, а также улучшали совместимость видеокарт с разными материнскими платами.


В 1999 году Nvidia представила конкурента Voodoo3 — TNT2. Изменений было много, и эту видеокарту можно почти однозначно назвать лучшей видеокартой 1999 года: во-первых, теперь используется 250 нм техпроцесс, что позволило поднять частоты аж до 150 МГц. Во-вторых, были полностью реализованы возможности 32-битного цвета и появилась поддержка текстур с разрешением 2048х2048. В-третьих, объем памяти увеличили до 32 МБ и добавили поддержку шины AGP x4. В общем — это хороший «ремастер», который оказался существенно лучше аналогичного от 3dfx.

Также Nvidia решила залезть и в бюджетный сегмент, выпустив видеокарту Vanta: были снижены частоты памяти и чипа (до 110 МГц), шину урезали до 64-битной, а памяти было всего 8 МБ. В общем и целом, такая видеокарта выступала на уровне TNT, но стоила дешевле (в ней Nvidia использовала дефектные чипы, которые не могли работать на 150 МГц, и из-за перехода на новый техпроцесс их было много), так что она полюбилась OEM-сборщикам ПК и бюджетным игрокам.

Второй дивизион — Matrox G200, S3 Savage3D и Savage4, ATI RAGE 128

Пока наверху продолжалась борьба двух лидеров — 3dfx и Nvidia — несколько других фирм тихо и мирно развивали свои решений, которые были рангом хуже.

Начнем с первопроходца — компании S3, которая создала первую 3D-видеокарту ViRGE еще в 1995 году. В 1998 году они представили новую видеокарту, Savage3D. Увы — по своим возможностям она существенно уступала конкурентам: 64-битная шина, всего 8 МБ памяти, частота чипа была на уровне 125 МГц. Из плюсов — максимальное разрешение было 1600х1200, а подключалась видеокарта по шине AGP x2. В итоге видеокарта конкурировала лишь с Voodoo Banshee, и то местами была сильно хуже.

s3_savage3d.jpg

В 1999 году S3 выпустила новую видеокарту, Savage4. И хотя она была основана на новом 250 нм техпроцессе, производитель почему-то не захотел поднимать частоты — они остались на уровне 120-140 МГц. Зато вырос объем памяти до 32 МБ SGRAM, и появилась поддержка интерфейса AGP x4. Но вот по своим возможностям видеокарта была далеко не самой продвинутой — никакого аналога Twin-Texel, только однопроходное мультитекстурирование и поддержка только трилинейной фильтрации: в итоге, производительность чипа оказывалась вдвое, а то и втрое ниже, чем у TNT2 и Voodoo3, так что особой популярностью эта видеокарта не пользовалась.

В 1998 году на рынок 3D-ускорителей решила выйти компания Matrox со своим чипом G200. Компания и раньше производила отличные чипы для 2D-ускорения, и их использовали, к примеру, в видеокартах от 3dfx. Видеокарта получилась достаточно хорошей, со множеством интересных фишек: так, например, одной из них являлась SRA (Symmetric Rendering Architecture) — возможность записи данных в системную память, что убыстряло взаимодействие видеокарты и ЦП. VCQ (Vibrant Color Quality) — технология, которая всегда обрабатывала картинку в 32-битном цвете, и лишь при выводе на экран (если это было нужно) сжимала палитру до 16-битной. 

Технические характеристики видеокарты были хорошими, но особого восторга не вызывали: частота чипа была на уровне 90-100 МГц, памяти было 8-16 МБ SGRAM, а шин было две по 64 бита (каждая шина была однонаправлена и предназначена для передачи данных между функциональными блоками в чипе. По сравнению с одной более широкой шиной, при такой архитектуре уменьшаются задержки в передаче данных и увеличивается общая эффективность шины). Итоговая производительность лишь немного уступала лидерам рынка — TNT и Voodoo2, но была одна проблема — драйвера.

По непонятным причинам изначально видеокарта поддерживала только OpenGL, так что проблем в играх с ним не было. Но Direct3D уже тогда был очень популярным, поэтому для запуска игр с ним был написан специальный драйвер, переводящий команды Direct3D в OpenGL. Работал он, разумеется, медленно, так что игроки под Windows эту видеокарту не оценили. Проблему исправили лишь в 2000 году с выходом нового поколения видеокарт от Matrox — G400.

rage128vrf.jpg

Ну и последняя видеокарта, о которой стоит поговорить — это ATI Rage 128. Она была выпущена в 1999 году, построена по нормам 350 нм техпроцесса, имела до 32 МБ SGRAM памяти и 128-битную шину. Возможностей у видеокарты было много, но до лидеров рынка она не дотягивала — так, она умела аппаратно ускорять DVD-видео, а также поддерживала трилинейную фильтрацию. Собственной «фишкой» видеокарты была технология Twin Cache Architecture, которая объединяла кэш-память пикселов и текстур для увеличения полосы пропускания. Как и TNT, она умела работать с 32-битным цветом, причем в этом режиме она была лишь немного слабее конкурента от «зеленых», но, увы, выдавала картинку худшего качества. 

В итоге, конец 90ых можно назвать противостоянием 3dfx и Nvidia — серьезных конкурентов у них не было. Но уже в начале нулевых 3dfx «скатится» и будет куплена Nvidia, а ATI расправит крылья, выпустив много хороших видеокарт — так начнется противостояние Nvidia с ATI/AMD, которое продолжается и по сей день. Но об этом уже в следующей части статьи.