Самые необычные видеокарты за всю историю компьютеров — часть №3



Тем временем мы продолжаем цикл самых необычных видеокарт от различных производителей, которые были выпущены по тем или иным причинам и серьезно выбивались из типичных для своего времени решений.

Подписаться на iGuides в Telegram, чтобы узнать обо всем первым — t.me/iguides

EVGA GeForce GTX 275 CO-OP PhysX Edition

Из названия уже понятно, что EVGA — достаточно известный производитель hi-end видеокарт с «заточкой» под разгон — что-то намудрила с PhysX. Что же такое PhysX? Это новый (в то время — 2009 год) физический движок, который мог в режиме реального времени обсчитывать взрывы с пылью и обломками, сложную геометрию персонажей, эффекты дыма и тумана, развевающейся ткани и многие другие физические эффекты. Разумеется, все это требовало серьезной производительности от видеокарты, и EVGA придумала достаточно жуткое решение: на видеокарте было распаяно два чипа: первый представлял собой GTX 275 с 896 МБ памяти и был призван обрабатывать графику и выводить картинку на экран, а вот второй был слабее — GTS 250 с 384 МБ памяти, и он как раз должен был обсчитывать PhysX:

И хотя в играх с PhysX прирост от второго чипа позволял такой карточке серьезно обходить простые GTX 275, развития данная технология не получила, ибо игр с PhysX не так и много.

ASUS Radeon HD 3850 X3 Trinity

Что может говорить «X3» и «Trinity» в названии? Да только одно — то, что это была видеокарта с тремя GPU. Да-да, многие привыкли к тому, что технология CrossFire или SLI работает с двумя видеокартами, однако это не так — они обе могут работать с видеокартами, на которых может быть суммарно до 4 GPU. Ну до четырех ASUS не дошла, а вот три видеокарты HD 3850 стандарта MXM (на небольших платах, которые обычно ставились в ноутбуки) на одной плате она все-таки разместила:

Разумеется, охлаждалось это все системой водяного охлаждения, а производительность в теории должна была быть очень высокой — каждый чип содержал по 320 потоковых процессоров, а объем памяти был 512 МБ. Но, увы, карточка «не взлетела» — как мы знаем, CrossFire и SLI даже с двумя видеокартами в играх работает не очень хорошо, с тремя же был полный «швах». С учетом этого и достаточно высокой ожидаемой цены дальше десятка инженерных образцов дело не продвинулось.

3Dfx Voodoo5 6000

Как я уже писал выше — SLI поддерживал до 4 видеокарт на одной плате еще во времена 3Dfx, которая, собственно, эту технологию и придумала. И она же уже под конец своего существования и выпустила такую монструозную карту с 4 чипами и 128 МБ памяти:


В продажу она так и не поступила — компания обанкротилась раньше, но тестовые экземпляры все же утекли в мир, и временами их можно найти на различных аукционах — так, одна из таких видеокарт была продана на eBay в 2010 году за $1750. В любом случае, даже если бы такая видеокарта вышла, толку от нее было бы немного — не было тогда игр, способных нагрузить четыре GPU (да и, собственно, и сейчас нет).

GIGABYTE 3D1

Ну уж раз мы заговорили про объединении нескольких видеокарт, грех тут не вспомнить про родоначальника SLI от Nvidia — Gigabyte 3D1. Поддержку SLI Nvidia внедрили в 2004 году, с выходом 6000-ой линейки видеокарт, и 3D1 стала первым решением, объединяющим два GPU от 6600 GT с 256 МБ памяти на одной плате:


Работала такая видеокарта лишь на одной материнской плате — тоже от Gigabyte, на сокете 939 (процессоры Athlon 64), так что конфигурация ПК была, в общем-то, уже предрешена. Опять же — такая видеокарта не взлетела, ибо на момент ее выхода практически ни одна игра не поддерживала SLI.

Nvidia PCX 5300

Линейка видеокарт 5000-ой серии от Nvidia, выходившая в 2003-2004 годах, была переходной: в ней были представители видеокарт и на AGP (имели индекс FX), и на PCIe (имели индекс PCX). Однако по сути видеокарты на PCIe таковыми не совсем являлись — это были обычные видеокарты на AGP со специальным чипом-коммутатором, который преобразовал AGP и PCIe. Однако необычно тут не это, а младшие решения — это FX 5200 и PCX 5300:

Обе они базировались на одном чипе NV34 и различались только методом подключения. И если FX 5200, вышедшая в 2003 году и бывшая младшей в линейке, еще была объяснима — бюджетная затычка, то вот вышедшая годом позже PCX 5300 на PCIe была, в общем-то, лишней: новый материнские платы с PCIe стоили ощутимо дороже, чем с AGP, да и из-за чипа-коммутатора 5300 стоила дороже 5200. И в итоге цена бюджетной сборки с новыми материнскими платами с PCIe и 5300 оказывалась на уровне среднеуровневой игровой сборки с AGP, что ставило крест на продажах PCX 5300.

Galaxy Dual-Core GTS 250

В 2010 году никого уже нельзя было удивить «двухголовыми» видеокартами: то есть видеокартами, на плате которых было распаяно 2 GPU. Однако Galaxy (помните ее тонкую GTX 680 из первой части статьи? Так вот, странные решения она начала выпускать существенно раньше) смогла удивить: для охлаждения тут использовалась отдельная плата с 3 вентиляторами и LED-подствекой, которые втыкались... в PCIe x1 слот. Да-да, сама видеокарта получилась трехслотой: два слота на плату с GPU и радиатор, и еще один слот на охлаждение:



Смысл такого решения был не особо понятен: во-первых, GTS 250 была середнячком, и трудно было назвать ее сильно греющейся, даже если их две на плате. Во-вторых, вентиляторы даже на пике не ели 5 Вт, так что даже три вентилятора увеличивали требования по питанию не более, чем на 15 Вт, что никак не могло помешать запитать их от самой видеокарты, как это делается сейчас. Единственным относительно разумным объяснением было то, что платы с усиленными PCIe тогда еще мало кто выпускал, и если бы видеокарта с кулерами была бы на одной плате, то она просто под своим весом сломала бы слот. А так используется два слота, что лучше распределяет нагрузку. Но, согласитесь, это такое себе объяснение — мы все помним двухплатовые видеокарты 2007-2008 года, которые ничего не выламывали, так что единственное разумное объяснение — Galaxy выпустила «дичь», чтобы показать себя на рынке.

Gigabyte Radeon HD 7970 Super Overclock Edition

Название говорит само за себя — это видеокарта, в которой все заточено под разгон. Обычно, если мы говорим про современные разгонные версии, то представляем себе 20-30 мм радиатор, штук 5-6 тепловых трубок и 2-3 больших вентилятора. Но Gigabyte зашли куда дальше — как вам... 5 вентиляторов? Да-да, тут их было 5, более того — они были 40 мм и расположены на торце, то есть толщина радиатора была порядка 45 мм:

С одной стороны, такое расположение оправдано — радиатор без проблем продувается вдоль, как в случае башенных процессорных кулеров, то есть охлаждение работает отлично, и действительно способствует разгону. Но вот минусов куда больше: во-первых, это противный шум — чем меньше вентилятор, чем более неприятно он начинает шуметь. С учетом того, что их тут пять штук 40 мм (на современных видеокартах обычно стоят 80-100 мм), шум был такой, что сидеть рядом можно было только в наушниках. Второе — вес: 45 мм радиатор не мог быть легким, и, увы, вес всей видеокарты был почти 2 кг, и вот тут возможность выломать слот PCIe была отнюдь не фантастической. Ну и третье — цена: такой монстр стоил $550 долларов, так что покупателей было немного.

На этом подборка необычных видеокарт... нет, не заканчивается, так что ждите продолжение coming soon.
15

Рекомендации

Рекомендации

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

+62
Ещё у меня была весьма занятная комбо-видеокарта (сейчас не помню чья, но кажется это была Power Color): GeForce + Ageia PhysX (сейчас PhysX функционирует за счет cuda, а тогда это был аппаратный чип) на одной плате (PCIe)
31 октября 2017 в 00:43
#
+1764
Пользователь удален Oleg Nekrylov
Видеокарт с чипами physx было несколько, вплоть до 400 линейки выходили.
31 октября 2017 в 01:03
#
+62
Кстати, этот Voodoo, помимо шума, ещё и потреблял немеряно, мне из-за этого пришлось БП менять с 500W на 750W (в то-то время! Это сейчас 1500W уже норма, а раньше все сидели в основном на 250-300W)
31 октября 2017 в 00:49
#
+1764
Пользователь удален Oleg Nekrylov
Это где вы ее тогда добыли, она же не продавалась?
P.S. 1.5 квт — норма?)) Переборщили, у меня i7+1080 ti от 650 вт запитываются, и это еще с хорошим запасом.
31 октября 2017 в 01:05
#
+62
Я был в одной заграничной командировке, вот мне и подарили сгоревший экземпляр, домой вернулся и восстановил.
31 октября 2017 в 09:21
#
+62
1500W — норма: 2xXeon E5, 1080Ti SLI (раньше Tesla стояла), 9361-16, 13 SAS (8 в нижней, 5 в верхней корзине), 2 SSD
31 октября 2017 в 09:30
#
+1764
Пользователь удален Oleg Nekrylov
Ну да, у каждого дома парочка зионов и 1080 ти в слай)). На деле если брать среднюю сборку типа i5+1060 бп зачастую не больше 500 вт ставят.
Насчет вуду — круто, жаль правда что дрова не обновлялись.
31 октября 2017 в 09:37
#
+62
Вуду, после 3 были уже мертворожденные, хотя в 2D качество картинки (VGA) было у них на высоте — даже хвалёный «многоголовый” Matrox и то «мылил».

Не буду утверждать по поводу Xeon, тут все очень разниться: у моего ближайшего окружения это норма (многие занимаются и научной работой), но мотаясь по командировкам и общаясь с людьми сложилось мнение, что и i7 (LGA2011) + Xeon Phi 3120/5110 тоже далеко не редкость.
31 октября 2017 в 19:57
#
+1764
Пользователь удален Oleg Nekrylov
У вас достаточно богатое окружение я вам скажу). Самые популярные сборки это xeon 5450 и иже с ними, pentium g4560 и иже с ними, и райзены 3 — с видюхами вплоть до 1060-1070 (обычно 1050-1050 ти, бывает и 1030 или rx 550). И все это без проблем запитывается от бп на 450-500 вт, причем без всяких платин/голдов — обычные бронзы. Да даже если брать самый топ-топ — i7/i9 на lga2066 и две 1080 ти — это все укладывается в ватт 800, так что 1500 — это уже к майнинг фермам ближе.
31 октября 2017 в 22:36
#
+62
Вы ещё SAS-диски посчитайте, регистровую память память, RAID-контроллер+SAS-expander, BD... вот и набегает порядка 1000W, а для стабильной работы надо иметь ~35% запаса мощности БП. Наврал, сейчас зашёл в IPMI, пишет 1400W: Supermicro X10DAC (E5-2687W v4), 747TG-R1400B-SQ + доп. корзина в 5.25”
1 ноября 2017 в 01:01
#
+62
Вы говорите о типичных геймерских машинах, но дело в том, что не все люди играют, многие работают. Я про себя скажу, последний раз играл лет 20 назад, сейчас могу запустить игру только лишь для того, чтобы посмотреть на сколько продвинулись ИИ, графика, физика и не более того — минут на 30-40 (этого времени вполне хватает).
1 ноября 2017 в 01:08
#
+1764
Пользователь удален Oleg Nekrylov
Вы удивитесь — но да, большинство ПК именно геймерские. То, что предлагает вы, называется рабочей станцией и нужно гораздо меньшему числу людей. В Европе (да и у нас, но медленно) от них отказываются в пользу облачных серверов — это оказывается куда выгоднее и быстрее. Но вот облачные игры пока что распространены слабо из-за проблемы в быстрой передаче картинки, поэтому продажи игровых ПК будут как минимум на том же месте, а вот рабочих станций — падают.
1 ноября 2017 в 10:34
#

Читайте также