12 мифов о видеокартах, про которые пора забыть

Егор
Безымянный.jpg

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:



Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено



Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение: 



С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.



Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%. 

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:



Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений. 

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше. 

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Похожее изображение

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:



Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.
19

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

barbarianin
+190
По поводу второго — если выкрутить на максималку в играх даже если видяшка больше чем требуется , будет заметен тротлинг уже через 10 минут. Он кстати в основном от высокой температуры появляется
8 декабря 2018 в 16:11
#
VINC
+243
А охлаждение настроить религия не позволяет?) Или тупо выкрутить на 100%. Да и к разгону надо тоже с умом подходить.
8 декабря 2018 в 16:23
#
barbarianin
+190
Оверлокинг Настройки идут на проц ( там хоть как-то обороты выставляются на температуру), в видюшках не особо побалуешься с охлаждением , а скальпировать и ставить водянку на карту за 30-40к? Это уже извращение в чистом виде, если вы таким занимаетесь то лучше никому не показывайте
8 декабря 2018 в 17:52
#
Егор Морозов
+1764
Последние пять поколений видеокарт что от Nvidia, что от AMD, не скальпируются, ибо там охлад на голый кристалл ставится. Да и в общем и целом нереференсные охлады достаточно хороши, зачастую оставляя запас градусов в 20 для разгона, что позволяет очень неплохо поднять производительность. Просто обычно как раз различные мансы с разгоном процессора, особенно последних поколений, дают прирост производительности в играх куда меньше, чем разгон видеокарты без поднятия напряжения, чисто ползунками в афтербернере.
8 декабря 2018 в 18:02
#
barbarianin
+190
Так я о чем и написал))) в заводском софте всего три режима ( силент,Нормал,фаст) а человек мне предлагает танцы с бубном по охлаждению
8 декабря 2018 в 18:19
#
+72
Так ты обороты добавь на охлаждение видяхи!или измени порог оборотов в проге! Термопасту что ли менял на видяхе?) Я вот точно знаю что родную с завода термопасту вообще не стоит менять, так как по таким же тех данным сложно потом найти! На своей прошлой 760й заменил и температура в разы выросла, видяха грелась до 85 градусов, сейчас на 1060й с родной термопастой максимум 65 градусов!
8 декабря 2018 в 18:41
#
VINC
+243
8 декабря 2018 в 20:17
#
+72
8 декабря 2018 в 20:20
#
–1
msi afterburner это заводской софт если что
8 декабря 2018 в 18:43
#
HeartStopper61
+1
Видяхи не скальпируются.
А вот водянка ставится.
8 декабря 2018 в 21:47
#
+72
Сегодня впервые за все время увидел на своей 1060й что частота ядра поднялась до 2000! До этого максимум 1974 была))и это я ее ничем не разгонял!
8 декабря 2018 в 18:48
#
+72
А вот и скрин)
8 декабря 2018 в 19:04
#
+72
До этого не было такого, а изменилось только то что поставил новую озу, а играл в 7days to die, и она при игре сжирает 12гб озу из 16, а раньше стояло всего 12гб)
8 декабря 2018 в 19:53
#
mystique_man
+1498
15 лет кручусь в компьютерном железе, всё вышеперечисленное мифами назвать язык не поворачивается. Проблематика высосана из пальца.
Вот миф «андроид садится быстрее айфона» вот миф так миф, также как «у айфона лучшие наушники». А про видео...так ерунда
8 декабря 2018 в 21:28
#
Егор Долгоносов
+5
Немного некоторых уточнений:
1 миф частично взаимоисключается 6 мифом — если попытаться поиграть, скажем, с лютыми текстурками, на разных версиях одной карты, скажем, на рыксе 580 на 4 и на 8 гб, то версия на 4 гб отъедет, ведь карта полезет в озу, которая у большинства юзеров медленная, особенно страдают те, кто "ой а куплю я 8 гб озу одной плашкой и потом (через 2 года, ага) докуплю еше одну. Тут, кстати, и 2 миф подключается...
2 миф. Опять же, есть исключения. Например, при тренировке нейросетей старые карты зеленых (4хх, например) не лезут в озу. Стесняются что ли? Так или мначе, итог закономерен — вылет. Такая же проблема на ртх из-за тензорных ядер
5 миф объяснен криво — у квадр есть, как минимум, FP64 блоки, в результате чего вместо 1 к 32 мы имеем соотношение в 1 к 2. Короче говоря, нужно 16 обычных карт на одну квадру того же чипа
6 и 7 мифы хочется взять и распечатать, после чего пугать ими секту раскрывателей и свидетелей веги, которые кладут на итоговое псп, "ведь шина самая важная!!!1". А истина в том, что частота и шина — это 2 стороны одной медали
12 миф — опять хочется взять и распечатать, предварительно поправив — одна из основных причин внезапного усиления разницы (которая, напомню, может быть не только падением старой карты, но и ускорением новой) — архитектурные улучшения, особенно это заметно по 10хх и 20хх — там 2070 в технологичненьких играх пинает 1080 Ти. Забавно, что про это упомянули в мифе про шину
8 декабря 2018 в 21:59
#
Егор Морозов
+1764
1 миф частично взаимоисключается 6 мифом
Ну в общем-то да, согласен. С 1063 и 1066 также в принципе. Но тут был смысл показать, как оно работает).
Например, при тренировке нейросетей старые карты зеленых (4хх, например) не лезут в озу
А я не просто так в заголовке мифа написал про игры) При вычислениях на видеокарте конечно же могут быть проблемы.
5 миф объяснен криво — у квадр есть, как минимум, FP64 блоки, в результате чего вместо 1 к 32 мы имеем соотношение в 1 к 2. Короче говоря, нужно 16 обычных карт на одну квадру того же чипа
Ну в общем-то я и написал, что профвидюхи лучше при профиспользовании. Во сколько раз и где — это уже детали)
свидетелей веги
Ага, это еще с Fury X началось)
одна из основных причин внезапного усиления разницы
Ненене, я про другое — некоторые пользователи говорят, что на одной и той же видюхе на более новых дровах более низкая производительность, и типа производитель со временем зарезает старые видюхи, заставляя переходить на новые. То, что новые видюхи со временем пилятся и становятся еще лучше старых в общем-то и так понятно и отлично видно на примере AMD, которые любят выпускать сырые решения и потом пару лет улучшать)).
Спасибо за действительно дельный комментарий)
8 декабря 2018 в 22:42
#
Johnny
+243
Егор, статья подтвердила то, о чём сам уже думал и анализировал.)

Собственно вопрос. Стоит ли менять i5-6600 на i5-9600k или i7-9700k ради полного раскрытия 1080ti?

И какой объём памяти, на твой взгляд, оптимальный для ПК. Если учесть, что есть требовательный игры с параметрами на ультрах, плюс открытые программы, браузеры.

Вычитывал тут и высчитывал. И надо 16 минимум, а если ещё открыты браузеры и тот же антивирус, плюс другое ПО, то и все 32 можно, для дуал чэнела.
9 декабря 2018 в 12:39
#
Егор Морозов
+1764
В каком разрешении играете? Вообще я бы брал i7-9700K с 1080 Ti для FHD или 2К, и i5-9600K для 4К. Насчет ОЗУ — можно сейчас взять 2х8 гб, и в будущем еще столько же, ибо 16 гб для игр сейчас более чем хватает.
9 декабря 2018 в 15:28
#
Johnny
+243
Думаю перепутали процессоры и для 4K i7-9700k.
Играю, пока что, на UW (2560x1080). Вот и думаю что брать.
По поводу памяти — даже не знаю. Вроде бы можно включить SWAP-файл на SSD, но всё равно он сильно не спасёт при нехватке памяти.)
9 декабря 2018 в 20:22
#
Егор Морозов
+1764
Нет, не перепутал — на низких разрешениях с такой мощной видеокартой будет сильный упор в процессор, в 4к его уже нет и хватит i5. Насчет памяти — если вы не оставляете в фоне хром с 50 вкладками, с пяток мессенджеров и другую игру — 16 гб озу вам без проблем хватит).
9 декабря 2018 в 20:38
#
Johnny
+243
Хм. И почему для более низкого разрешения мощнее процессор. Из-за высокого количества FPS, которое может выдать игра?
И что же брать в данном случае, если далее планирую играть в 2k минимум.
Плюс память...да, игра и лиса с n-количеством вкладок. Антивирусы, иногда RDP-сессия..)
9 декабря 2018 в 20:54
#
Johnny
+243
Плюс подключено 2 монитора. На одном играю 2560x1080, на втором работаю, как правило. Ну и так открыт браузер или киношка в браузере или MPC. FHD TFT моник.)
9 декабря 2018 в 20:56
#
Егор Морозов
+1764
Да, из-за того, что в 2к на 1080 ти фпс нередко за 100 заглядывает. И раз будете в будущем в этом разрешении играть — берите или 8700К, или 9700К. Насчет ОЗУ — я вроде объяснил) Можете конечно "на вырост" взять 32 гб, если денег хватает, но с вашими задачами это не обязательно. Что касается подключения второго/третьего монитора — это практически никак не влияет на производительность в играх, ну может -1-2% фпс.
9 декабря 2018 в 21:18
#
Johnny
+243
Спасибо. Услышал. Значит всё-таки взять 2x8 и на сэкономленные добавить разницу и взять 9700k.
И да, 9700 или 8700, как думаете?
И какую память лучше брать? Я смотрел пока что 2666 и 3000 мхз, с CL14-15 и даже 16, но пока не знаю, что лучше. А по факту это экономия ДС.)
10 декабря 2018 в 13:57
#
Егор Морозов
+1764
И да, 9700 или 8700, как думаете?
Вообще — 8700К. 8ядерники от интела вышли горячими и с плохим припоем, так что тут уже и материнку нужно брать с хорошими цепями питания, и кулер будь здоров. По производительности 8700К и 9700К +- равны на одинаковых частотах, но 6ядерник в будущем можно будет скальпануть и до 5.1-5.2 ГГц разогнать.
И какую память лучше брать?
3200-3400 МГц с таймингами 15-16 будет вполне нормально.
10 декабря 2018 в 17:22
#
Johnny
+243
Посмотрел память. Выбрал Viper Patriot 3000mhz, гонят до 3466 точно без проблем с 15 таймингами.

Проц 8700k всё-таки лучше, нежели 9700k новый? Или есть смысл взят 9700k?
Всё-таки непонятно. У 8700k 6 ядер и 12 потоков, а у 9700k 8 ядер и 8 потоков. Тяжко.)))

И какую мать лучше под них? Присматривался к Asrock Extreme 4...но пока ещё думаю. Нужен слот m.2, вне районе видеокарты. Думаю рядом с ней греться будет, поэтому и посмотрел эту мать. :)
10 декабря 2018 в 18:48
#
Егор Морозов
+1764
Viper Patriot 3000mhz, гонят до 3466 точно без проблем с 15 таймингами.
Норм.
Проц 8700k всё-таки лучше, нежели 9700k новый?
Ну я объяснил.
И какую мать лучше под них?
У меня Z370-F Gaming, там два m.2 и второй как раз под одним радиатором с чипсетом.
10 декабря 2018 в 19:30
#
Johnny
+243
Интересная мать, а почему именно она? Вроде бы есть не хуже и дешевле.
Или на момент приобретения не было аналогов?
10 декабря 2018 в 21:27
#
Егор Морозов
+1764
Вроде бы есть не хуже и дешевле.
Например? Асрок не предлагать.
10 декабря 2018 в 23:32
#
Johnny
+243
Что насчёт:

MSI Z370 SLI PLUS

GIGABYTE Z390 GAMING X

ASUS TUF Z370-PLUS GAMING II

GIGABYTE Z390 GAMING SLI

ASUS TUF Z390-PLUS GAMING

ASUS TUF Z390-PRO GAMING

MSI MAG Z390 TOMAHAWK

GIGABYTE Z390 AORUS ELITE

MSI Z370 GAMING M5?

Обычно смотрю в сторону ASUS, MSI. У них как-то получше материнки и БИОС...)
12 декабря 2018 в 10:26
#
Егор Морозов
+1764
Что насчёт:
Все даже не вижу смысла смотреть. Необходимый минимум — 6 фаз питания на проц с норм охладом, все остальное — сугубо по желанию.
12 декабря 2018 в 18:19
#
+5
Вот что то шина всегда важна, ибо шина 64 бит, это всегда карта entry level, то есть для офисов
17 декабря 2018 в 09:58
#
Алик Дынник
0
Надоедает по сайтам ходить и писать информацию про потоки и частоту кадров. Тут простая математика. Для видео выделили частоту кадров по вертикали 25, это 21 мс. Этого достаточно для комфортного просмотра фильмов, но для игр кроме вертикального сканирования необходимо ещё и горизонтальное сканирование. А так как, ширина экрана по ширине больше от вертикального размера на 1.8(16х9) до 2.4(21х9), необходимо увеличить частоту сканирования на это значение. 25х1.8= 45, 25х2.4=60
Итого: для максимального перемещения по горизонтали необходимо сканирование с частотой 60 гц. Конечно, можно и больше сделать частоту кадров, но это дополнительный расходы и производители неохотно идут на такие расходы.
Как правильно делать расчёт видеокарты и процессора для игр. Всё подбирается по размеру монитора.
Пример даю на стандартном мониторе/телевизоре, но можно делать и на другие форматы.
1920х1080=2073600, умножает на 8 бит и на 60 кадров = получаем 9.95.328 (этот поток подходит для материнки PSIe 3.0x16)
Теперь подбираем видеокарту для потока 9.95
9.95.328 : 1024 бит = получаем поток 0.972. Необходима одна видеокарта на 1 Гц, или две с разрядностью шины 512 бит.
Выбираем процессор ПК для такой видеокарты.
9.95.328 : на частоту 64 бит, получаем поток 1.5552, умножаем на 8 ядер получаем частоту 1.24416Гц.
Итого: Для игр с частотой 60 кадров, необходима одна видеокарта с частотой 1 Гц и с разрядностью шины 1024.PSIe 3.0x16
Процессора на материнке при 8 ядрах, достаточно 1.25 Гц.
8 мая 2019 в 00:05
#
–11
4 июля 2020 в 18:25
#