Что будет если в игре превысить память видеокарты
3070 всего 8 гб видеопамяти, 3080 всего 10. Это вообще нормально? Эти карты как бы на 4к расчитаны и я сомневаюсь что 8 гб хватит. Или все же 8 гб достаточно и хватит с запасом на будущее?
Они там еще че то говорили что какое то сжатие будет, если кто в теме что это вообще, может за счет этой фигни зеленые и не стали пихать много памяти и то что раньше помещалось на 10 гб, будет помещаться на 6?
Но в то же время по слухам будут версии с 16 и 20 гигами и тогда вообще нафиг эти 8 и 10? У меня вот вообще нет желания брать 8 гб карту и потом узнать что на ультрах ей тупо не хватает памяти и получать фризы.
Вобщем как вы смотрите на данные экземпляры с 10 и особенно 8 гб? Есть ли вообще смысл их брать или они расчитаны на дурачков и нужно ждать версии с 16 и 20 гб?
Мала
некстген игры будут все жадней до памяти. Сжатие еще с максвелов появилось. Память оно если и экономит то незначительно. Оно больше призвано для увеличения псп или эффективного использования памяти гпу.
Мала
некстген игры будут все жадней до памяти. Сжатие еще с максвелов появилось. Память оно если и экономит то незначительно. Оно больше призвано для увеличения псп или эффективного использования памяти гпу.
Ты о чем, все игры делаются под актуальное железо, а если конкретней (и тупее) - то под сосноли. Так что если у кого то видеопамяти больше или равно памяти сосноли - то париться не о чем
3070 всего 8 гб видеопамяти, 3080 всего 10. Это вообще нормально? Эти карты как бы на 4к расчитаны и я сомневаюсь что 8 гб хватит. Или все же 8 гб достаточно и хватит с запасом на будущее?
Они там еще че то говорили что какое то сжатие будет, если кто в теме что это вообще, может за счет этой фигни зеленые и не стали пихать много памяти и то что раньше помещалось на 10 гб, будет помещаться на 6?
Но в то же время по слухам будут версии с 16 и 20 гигами и тогда вообще нафиг эти 8 и 10? У меня вот вообще нет желания брать 8 гб карту и потом узнать что на ультрах ей тупо не хватает памяти и получать фризы.
Вобщем как вы смотрите на данные экземпляры с 10 и особенно 8 гб? Есть ли вообще смысл их брать или они расчитаны на дурачков и нужно ждать версии с 16 и 20 гб?
Если бы для 4к не хватало бы 8гб, то vega 7 была бы лучшей картой для 4к, при этом у нее высокоскоросная и дорогущяя HBM 2 память. Но как мы видим vega 7 не лучшая карта вообще для игр.
Ты о чем, все игры делаются под актуальное железо, а если конкретней (и тупее) - то под сосноли. Так что если у кого то видеопамяти больше или равно памяти сосноли - то парится не о чем
Для консолей и пк чаще разные версии игр в тех плане. Качество текстур как минимум будет неуклонно расти. 8гб будет минимум, для ультров может и больше потребоваться. Тс как я понял рассчитывает на карту с 8гб или спрашивает про 8гб. Ну так я и отвечаю на его вопрос. Уже сейчас есть игры способные брать выше 6гб. В 4к некоторые перевалить могут и за 8гб. Та же ларка предпоследняя. Есть еще какие то но уже не помню. Неспроста у топа будет много памяти.
Для консолей и пк чаще разные версии игр в тех плане. Качество текстур как минимум будет неуклонно расти. 8гб будет минимум, для ультров может и больше потребоваться. Тс как я понял рассчитывает на карту с 8гб или спрашивает про 8гб. Ну так я и отвечаю на его вопрос. Уже сейчас есть игры способные брать выше 6гб. В 4к некоторые перевалить могут и за 8гб. Та же ларка предпоследняя. Есть еще какие то но уже не помню. Неспроста у топа будет много памяти.
Напишу так. Кроссплей игры 2021+ года будут все равно равняться под железо консоли, ибо консоль железо уже на прямую в данный момент подобралось к железу пкшному прошлого поколения( 3000 и 6000 серии выйдут раньше консолей, думаю). Так что графика +- что на консоли, что на пк будет одинаковая, а значит и оперативки она будет есть так же одинакого.
+ порт станет гораздо легче, все по той же причине схожости пк и консольного железа.
Вряд ли они в консоль засунут больше 12 гб памяти и то даже 12 не засунут, тем более HBM 2. Ценник консоли будет заоблочным в таком случаи. Думаю будет не больше 10, а то и 8 гб.
Единственное что интересно, раз консоли поголовно используют amd, то как будет обстоять оптимизация на нвидиа, будет ли из за этого она хуже для всего PC рынка.
8гб минимум ещё года на 4 вперёд хватит, самый минимум.
8гб минимум ещё года на 4 вперёд хватит, самый минимум.
Речь идет по фулл ультры в 4к и я сомневаюсь что 8 гб даже на 2 года хватит.
Напишу так. Кроссплей игры 2021+ года будут все равно равняться под железо консоли, ибо консол железо уже на прямую в данный момент подобралось к железу пкшному прошлого поколения( 3000 и 6000 серии выйдут раньше консолей, думаю). Так что графика +- что на консоли, что на пк будет одинаковая, а значит и оперативки она будет есть так же одинакого.
+ порт станет гораздо легче, все по той же причине схожости пк и консольного железа.
Вряд ли они в консоль засунут больше 12 гб памяти и то даже 12 не засунут, тем более HBM 2. Ценник консоли будет заоблочным в таком случаи. Думаю будет не больше 10, а то и 8 гб.
Единственное что интересно, раз консоли поголовно используют amd, то как будет обстоять оптимизация на нвидиа, будет ли из за этого она хуже для всего PC рынка.
Вы оба кажись не понимаете. Что пк билд может быть каким угодно, в отрыве от консолей. Не визуально даже, а в плане потребления ресурсов. При создании да, делают чтобы это работало на консолях, а для пекарей могут делать все что угодно. Добавить не пожатых текстур, подкрутить какие нибудь облака что с точки зрения визуала не слишком заметно, а ресурсы как не в себя жрет, а если еще и в настройках нельзя понизить то гг. Об этой схожести еще говорили про текущие консоли. Вот только на примере какого нибудь харайзена мы видим какой может быть кривой порт если изначально не разрабатывался под пк. Текущие консоли тоже на амд, это помешало как то зеленым картам?
hah12345
Мощность твоей какрты, ведь, не возрастет от твоих действий. Вывод очевижен. Кол-во объема видеопамяти не решит твой вопрос, для решения увеличени fps, нужен проц., а видюха для обработки кол-ва графона(грубо говоря)
нет. а вот скажем если заменить видеокарту 960 2гб на 960 4гб тоу в некоторорых случаях фпс может и возрасти
Nikita237
кроме увеличения объема доступной памяти памяти надо еще уменьшит тайминги все это делается в БИОС.
hah12345
Теоретически прирост будет только там, где производительность упирается в количество видеопамяти, но, учитывая, что видеокарта встроенная, ты его вряд ли заметишь. 100% поможет покупка дискретной видеокарты, но без конфига твоего компа, сложно подсказать конкретней.
Trian4k
Это тебе, видимо, года не в прок. Со встроенной видюхой, хоть что делай - толку не будет и если проц. слабый (2ядра к примеру), то и карта не особо спасет, но если ты думаешь по другому, то видимо ты гений и система твоя соответствует твоей гениальности.
Len4ik00N
Правильно написал, без конфига помочь нечем, Чел может, хоть 1080 поставить, а толку может и не быть.
Будь в курсе последних новостей из мира гаджетов и технологий
Сколько нужно видеопамяти
Не буду углубляться, как сильно изменились видеоигры за последние 5 лет – если вы «в теме», то и сами все прекрасно видите. Такое качество графики требует мощной видеокарты – если вы, конечно, хотите играть на приемлемых настройках, при этом не страдая от «слайдшоу» во время просадки FPS.
Однако качество графики – не единственная проблема, с которой сталкиваются современные геймеры. В игропроме хорошим тоном стало делать игры с открытым бесшовным миром (если жанр подразумевает такую «фичу» — например, РПГ или шутер).
Игра, в которой пользователю придется постоянно ждать загрузки локаций, имеет высокий шанс стать провальной.
Чтобы запомнить все (или хотя бы ближайшие) объекты такого игрового мира, требуется солидный объем видеопамяти. Для современных игр нормой стал показатель от 3 Гб.
Не хочу вас расстраивать, но это только сегодня пока так – уже через пару лет топовые видеокарты может и не будут тянуть новинки на ультра-настройках. А вы как думали?
Увы, большинство разработчиков нацелены на массового потребителя, поэтому акцент они делают на YOBA-играх, где в угоду «графонию» можно пожертвовать остальными составляющими – сюжетом, продуманным ЛОРом, необычными квестами, которые отличаются от привычных «убить всех».
Что такое видеопамять
Вероятно, вы знаете, что за рендеринг любого изображения в компьютере отвечает графический чип – например, он просчитывает взаимодействие объектов в игре.
Промежуточные данные, которые затем выводятся на монитор, хранятся как раз в видеопамяти. Связаны эти блоки между собой, шиной данных (подробнее о том, что это такое, ее разрядности и влиянии на работу устройства, вы можете почитать здесь).
В современных графических ускорителях сейчас используется память GDDR5 (за исключением бюджетных моделей, некоторые из которых все еще работают на DDR3). По сути, это обычная оперативная память, которая есть в любом ПК.
Но в отличие от оперативки, плата видеопамяти впаяна наглухо, поэтому заменить ее, не раскурочив видеокарту, нет совершенно никакой возможности).
Зачем реализовано такое решение? Не в целях «защиты от дурака», как, вероятно, вы могли подумать. Сделано это для того, чтобы пользователь, которому уже не хватает видеопамяти для запуска какой-нибудь новинки игропрома, не докупил по дешевке дополнительный модуль памяти, а покупал новую навороченную видеокарту.
Хотя, если вы не верите в теорию заговора, можете проигнорировать мое мнение.
12 мифов о видеокартах, про которые пора забыть
В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.
Первый миф. Чем больше видеопамяти — тем быстрее видеокарта
Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.
Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:
Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.
Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное
Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.
Третий миф. От разгона видеокарты сгорают
При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.
Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено
Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.
Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.
Пятый миф. Профессиональные видеокарты лучше игровых
Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:
С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.
Шестой миф. Если видеокарта не раскрывается процессором — это плохо
Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.
Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.
Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.
Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета
Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.
Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.
Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним
В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.
На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.
Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0
Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:
Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.
Одиннадцатый миф. Разгон видеопамяти не имеет смысла
Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:
Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой
Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.
Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.
Всем привет! Сегодня рассмотрим, на что влияет объем видеопамяти в видеокарте, вообще и в играх, как именно влияет, сколько нужно видеопамяти для комфортной игры и на какие параметры не влияет.
Дополнительно, если интересно, про видеокарты для 2K монитора можно почитать здесь.
Сколько видеопамяти нужно для современных видеоигр
Также нужно учитывать, что объем видеопамяти также влияет на разрешение изображения, которое может «запомнить» видеоадаптер. В 2021 году для комфортной игры на средних настройках достаточно такого объема видеопамяти:
При меньшем, чем необходимо, объеме видеопамяти компьютер будет не дотягивать до системных требований игры, а потому она на установленном разрешении вряд ли запустится.
Единственный выход — запускать ее в окне с разрешением меньше, чем разрешение монитора.
Есть конечно еще и другой вариант — использовать облачный сервис для гейминга, например вот этот или его аналоги(в этом случае от вашего железа крутых технических требований совсем не требуется).
Также советую почитать «Лучшая и самая мощная интегрированная видеокарта 2021 года». Подписывайтесь на меня в социальных сетях, чтобы не пропускать уведомления о новых публикациях. До скорой встречи!
Привет, друзья! В публикации «Из чего состоит современная видеокарта для ПК» я вкратце упомянул о функциональном назначении всех компонентов этого девайса. Сегодня разберемся что такое графическая память видеокарты и зачем она нужна?
Какие выводы мы можем сделать
Чуть не забыл, не нужно размышлять, как использовать всю видеопамять – в играх она задействуется автоматически, даже если система отображает, что доступно меньше. Исходя из вышесказанного, при выборе видеокарты я советую, в первую очередь, ориентироваться на частоту памяти, игнорируя объем, если бюджет на апгрейд ограничен.
А в качестве возможной покупки, могу порекомендовать MSI GeForce GTX 1060 GAMING X 6G – доступный по цене девайс с объемом видеопямяти 6 Гб и очень неплохими прочими характеристиками. Также советую почитать статью «Выбираем процессор для игрового системного блока».
А на этом у меня все. До следующих встреч на страницах моего блога. Не забываем подписываться на новостную рассылку и делиться публикациями в социальных сетях!
Как используется память видеокарты
Схематически любую современную видеокарты можно представить как графический процессор (GPU), графическую память (GDDR) и связывающую их шину данных.
При запуске игры центральный процессор (CPU) рассчитывает местоположение игровых объектов и их взаимодействие, то есть проводит только арифметические расчеты согласно законам игровой физики.
GPU схематически передаваемые от CPU объекты «заворачивает» в удобный для пользователя формат, то есть рендерит изображение, которое потом выводится на экран. От мощности графического чипа во многом зависит качество графики.
GDDR выполняет роль буфера, где могут временно храниться отрендеренные объекты — например, часть локации игрового мира, а также все здания, персонажи, растения, военная техника и прочие объекты, которые могут там быть.
Чем лучше характеристики видеокарты в компьютере, тем качественнее изображение она выдает в играх. В частности, от объема графической памяти зависит, сколько именно объектов она может запомнить.
Если этот параметр не дотягивает до минимальных системных требований, то с большой вероятностью видеоигра будет вылетать на рабочий стол во время пиковых нагрузок, или же вообще не запустится.
От частоты видеопамяти зависит, как быстро загрузится ранее отрендеренная локация из последнего сейва, если прохождение оказалось неудачным и персонаж погиб. Ширина шины влияет на скорость обмена данными между GPU и GDDR.
Если она слишком низкая, возможны кратковременные фризы и прочие лаги.
Больше – лучше, или нет?
Предметом сравнительной фаллометрии рядовых юзеров часто выступает объем видеопамяти. Случилось это с подачи маркетологов – втюхивая новый продукт, они прожужжат вам все уши по этому поводу.Более продвинутые юзеры, особенно геймеры, которым приходится, жертвуя личным временем, предаваться любимому хобби, обращают внимание, в первую очередь, на частоту памяти (ну и, естественно на частоту ядра).
Почему так? Не так важно, сколько данных может запомнить видеокарта – если она работает медленно, даже разгон не всегда поможет существенно увеличить производительность в играх.
Читайте также: