Видеокарта 512 мб это нормально

Обновлено: 25.06.2022

Ахаха нуб. . Причём здесь память? В видеокарте может быть и 3гига памяти, но она будет полное Гг.. марку скажи и цифру.

не в метраже дело конечно, но полюбому на гиг возьми.
а так для современных игр есть различные модеели

не . это калл
для совремнных игр щас нужно 4 оператива, 1 гиг видеопамяти и 4 ядра проц, и играй во что хочешь )))

Смотря какая видеокарта и смотря какой памяти.
Если GDDR5 то более-менее. Если другая то совсем не нормально.

И запомни, главное в видеокарте графический процессор, а не количество видеопамяти.

Важнее всего, возможно, тактовая частота процессора видеокарты и сборка компьютера в общем. Можно чтобы всё было старое, а видеокарта гигабайт, она не вытянет игры. Так что предоставляй более подробную информацию.

"У меня на машине калёса круглые, ана быстро ездит? " . Ваш вопрос прозвучял гдето так.

Не в памяти сила видеокарты. Конкретное название карты пожалуста и Вам напишут чьто да как.

А вопще, щяс не делают нормальных карт с памяттю 512Мб. Карты каторые для современных игр минимум 1Гиг и то не все харошие.

да на стредних настройках, особенно если память ддр5, или по крайней мере 3
да к комментам выше естественно нужен хороший видеоопроцессор на карте и бвыстрая шина: (
и не только 8800 но и 9000, на все на нынешний день игрушки хватит видеопроцессор и шина а памяти хоть 128:)))))
прот офисные игрушки-враньё (ответ ниже) ь туфта, чел не рубит :)
юля -действитено-муравейник, я и на 8600 могу раскотать все современные игры, (правда есть одна хитрость, есть энтузиасты, которые адаптировали пд хр 10 и 11 директ, хотя я предпочитаю не идущие как следует игры на висту или 7-ку мтавить:)

тебе уже разъяснили
от себя добавлю
если это видеокарта уровня 8800GT то да 512 мб ее видеопамяти хватит на все современные игры

вполне хватит, но карта должна быть совсем не плохой
у меня на 512,мне хватает, хоть и брал уже давно

человеку, который ответил чуть выше меня
это вы 8800 и 9200 сравнили? !
вот это да
8800 это просто эталон 8 линейки, а вы сравниваете его с каким-то обрезком для ноутов
между ними разница огромная
и 8800 очень хорошо справляется с nfs hot pursuit

вот опять ламер. обьясняю пороше -метры не так важны для видюхи, есть видюха на 1024 метра за 1500руб а есть 1024 метра за 12000руб скажи в чём разница? метры ведь одинаковые! а разница в других характеристиках которые обычному пользователю не говорят да и нет смысла всё равно не поймут. (астота ядра, памяти, шейдеров, их количество, кол-во текстурных блоков, и рестеризации и т д) от них зависит производительность!! ! а метры это маркетинговый ход на который все и ведуться!

а чё в 2012м реально люди брали карты на 512мб? 0_0
типа тогда уже была HD7970 на сколько я помню у неё была версия на 6гб

Руководство покупателя игровой видеокарты

Производительность видеокарты определяется не только мощностью самого GPU. Любому чипу нужен большой объём выделенной памяти с высокой пропускной способностью при записи и чтении различных данных: текстур, вершин, содержимого буферов и т. п. Даже самый мощный видеочип можно «придушить» слишком малым объёмом видеопамяти, да ещё с медленным доступом, поэтому характеристики устанавливаемых микросхем памяти также являются одними из важнейших параметров современных видеокарт.

Микросхемы памяти, количество которых на некоторых моделях видеокарт достигает 24 штук, обычно располагаются на печатной плате вокруг видеочипа, на одной или обеих сторонах. В некоторых случаях для них не используется даже пассивное охлаждение, но часто применяется общий кулер, охлаждающий и GPU и память, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce GTX 590 со снятым устройством охлаждения:


Современные видеокарты оснащаются различным объемом локальной видеопамяти, но обычно он начинается от 512 МБ и может достигать 3 ГБ на один GPU (с удвоением объёма на двухчиповых видеокартах). Чаще всего на видеокарты low-end и mid-end сейчас ставят 1 ГБ памяти, а на high-end — 1,5-3 гигабайта на чип, но есть и исключения. Так, карты самого низкого уровня могут иметь и 512 МБ более быстрой памяти GDDR5, и 1-2 ГБ медленной DDR3.

Чем больше выделенной памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) можно хранить в ней, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры и различные буферы, а вот собственно геометрические данные обычно не слишком объёмны. Рассмотрим скриншоты из довольно старой игры Call of Duty 2 с разными установками качества текстур:





В этой игре, как и во многих других, автоматически настраивается качество текстур под имеющийся объём текстурной памяти. В данном случае режим Extra автоматически выставляется на видеокартах с 320-1024 МБ памяти, High или Normal — на 256 МБ, в зависимости от настроек разрешения и уровня антиалиасинга, а Low — на самых слабых GPU с 128 МБ. И даже если вы выставите максимальные настройки вручную, то на видеокарте с недостаточным объёмом видеопамяти для хранения ресурсов будет использоваться часть системной памяти, что приведет к серьёзным "тормозам" и отсутствию комфорта и плавности в игре.

В последнее время рост требований к объёму видеопамяти сильно замедлился, и виновато в этом засилие мультиплатформенных игр. Современные игровые консоли имеют лишь по 512 МБ памяти и поэтому разработчики игр ориентируются именно на этот уровень. Конечно, в ПК-версиях игр зачастую предусмотрены как текстуры большего разрешения, так и высокое разрешение рендеринга, что требует куда большего объёма видеопамяти. Но всё равно, объём памяти в 1 ГБ до сих пор вполне приемлем в подавляющем большинстве случаев. Кроме экстремальных настроек сглаживания и разрешения, вроде MSAA 8x и 2560×1600, соответственно.

Но даже уже устаревшим мультиплатформенным играм не хватает 512 МБ, они довольно требовательны к объёму видеопамяти, занимая до 600-700 МБ. И всё же, на данный момент минимальным необходимым объёмом локальной памяти для игровых видеокарт мы считаем 1 ГБ. Он же является и оптимальным для большинства моделей. Кроме видеокарт NVIDIA, имеющих 320- и 384-битную шины памяти — у них объём видеопамяти ещё более подходящий — 1280-1536 МБ. Но для топовых моделей уже востребован и больший объём, порядка 2 ГБ, что предлагают видеокарты серии Radeon HD 6900, и 3 ГБ, ставящиеся на некоторые модификации GeForce GTX 580. Тем более, что видеокарту всегда лучше подбирать с небольшим запасом.

К слову, в случае интегрированных видеоядер и устаревших дискретных видеокарт бывает так, что указанное на коробке количество видеопамяти не равно объему установленных на плату микросхем. Такое было ранее в случае видеоплат low-end, работающих с частью системной памяти при помощи технологий TurboCache (NVIDIA) и HyperMemory (ATI):

В характеристиках видеокарт с поддержкой этих технологий в маркетинговых целях указывался объём памяти (в т. ч. и часть ОЗУ), который может использоваться видеочипом, равный 128 МБ, в то время как в реальности на них установлен меньший объем — 16-32 МБ. Поэтому всегда нужно внимательно читать материалы нашего сайта, чтобы не попадаться на подобные ухищрения в будущем. Но пока что можно жить спокойно, ведь сейчас в таких видеокартах уже нет никакого смысла, их нишу прочно заняли интегрированные чипсеты.

С имеющимися разновидностями видеокарт по объёму локальной памяти мы разобрались, но ведь объём памяти для видеокарт — это еще не всё, и даже зачастую не главное! Очень часто бывает так, что на дешёвые видеокарты ставят очень большое количество памяти, чтобы нарисовать красивые цифры на их коробках и в описаниях готовых систем (поэтому их так любят сборщики — вспомните слоганы вроде «4 ядра, 4 гига»), с расчетом на то, чтобы они лучше продавались. Но для слабых видеокарт в повышенном объёме памяти никакого смысла нет, они ведь всё равно не смогут выдавать приемлемую частоту кадров на высоких настройках, в которых и используется большие объёмы текстур и геометрии.

Продавцы часто используют объём видеопамяти в качестве основной характеристики видеокарт, и это вводит в заблуждение простых покупателей, плохо знакомых с реальным положением дел. Сравним производительность решений с разным количеством видеопамяти на примере двух одинаковых видеокарт Radeon HD 6950, имеющих единственное отличие — на первой из них установлено 1 ГБ видеопамяти, а на второй — 2 ГБ. Любой менеджер по продажам скажет вам, что вторая видеокарта значительно лучше первой, кроме случаев, когда в магазине есть модели только с 1 ГБ памяти и редчайших случаев честных и компетентных продавцов. А что получается на самом деле? Есть ли великая разница? Посмотрим на цифры, полученные в игре Metro 2033, являющейся одной из наиболее требовательных:

Как видите, в большинстве игровых режимов объём видеопамяти влияет на производительность не слишком значительно — разница не превышает 5-6%. То же самое получается и в других играх, даже современных и ПК-эксклюзивных (что сейчас большая редкость). Лишь в сверхвысоком разрешении и с максимальными настройками качества появляется значимая разница, когда модель с 1 ГБ заметно отстаёт от более дорогой карты с 2 ГБ памяти — на 27%.

Казалось бы — вот оно, ради чего нужно платить деньги! Но посмотрите на цифры кадров в секунду при разрешении 2560×1600 — разве 18,9 FPS можно назвать комфортной скоростью? Нет. Что 14,9 FPS, что 18,9 FPS — эти цифры одинаково не имеют практического смысла, никто не будет играть с настолько дёрганой частотой смены кадров. Поэтому, с некоторым допущением, можно считать, что разница в объёме видеопамяти между 1 ГБ и 2 ГБ сейчас незначительно сказывается на скорости рендеринга, и сравнивать даже топовые видеокарты по количеству памяти не нужно.

Но речь шла только об объёмах памяти выше 1 ГБ. Да и 512 МБ для плат нижнего ценового диапазона сейчас вполне достаточны. В этих случаях, примеры, когда объём памяти начинает сказываться на производительности, весьма редки. Разработчики игровых приложений рассчитывают используемые в играх ресурсы и графические настройки так, чтобы все данные входили в локальную видеопамять наиболее распространённых на рынке видеокарт. То есть, сейчас это уровни 512 МБ (для low-end) и от 1 ГБ для всех остальных видеокарт, включая и высокие разрешения и максимальные настройки качества. А если видеопамяти меньше, то современные игры или будут тормозить или даже не дадут выставить максимальные настройки.

Но этот расчётный объем видеопамяти у игровых разработчиков растет, даже несмотря на засилие консолей и мультиплатформы. Ещё пару лет назад было вполне достаточно 512-640 МБ, а теперь появились проекты, в которых этот объёма недостаточно. Но даже среди самых последних игр таких проектов пока мало, но они уже появляются. Поэтому, в случае не слишком большой разницы в цене между видеокартами с разными объёмами памяти при прочих равных условиях (частота и ширина шины), следует покупать модель с большим объёмом. Но без погони за цифрами — никакой low-end карте не поможет пара гигабайт медленной DDR3-памяти. Такой объём ей на данный момент просто не нужен. Зато важен другой параметр, о котором мы поговорим далее.

Подробнее о пропускной способности памяти

Ещё одна важная характеристика, о которой мы уже писали — это пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные, геометрические и прочие данные, и чем быстрее записываются в буфер рассчитанные пиксели, тем выше будет общая производительность.

Пиковая пропускная способность памяти рассчитывается довольно просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce GTX 580 с шиной 384 бит и частотой видеопамяти 1002(4008) МГц, ПСП будет равна:

1002 МГц × 4 (передача данных с учетверённым темпом) × 48 (384/8 байт за такт) ≈ 192,4 ГБ/с

Естественно, что последнее нигде широко не афишируется. Для производителя узкая шина и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. И две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, может обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины, хотя сами GPU у них совершенно одинаковые.

Рассмотрим очень жизненный пример — модель GeForce GTS 450 с двумя разными типами памяти, GDDR5 на более дорогой модели и DDR3 на дешёвой. Во время выхода на эту видеокарту ставили исключительно быструю GDDR5-память с приличной пропускной способностью. Но когда её время прошло и она спустилась в нижний ценовой диапазон, производители начали экономить, выпуская варианты с DDR3-памятью, которая гораздо дешевле. Результат подобной экономии можно пронаблюдать на следующей диаграмме:

Как видите, всё очень печально для DDR3-варианта — даже в далеко не самой новой игре разница в различных разрешениях экрана составляет от 50 до 70%! То есть, мощность GPU во всех протестированных условиях ограничена медленной видеопамятью. Модель с DDR3 просто не может считывать и записывать данные с теоретически возможной скоростью. Таким образом производители вместе с компанией NVIDIA снизили себестоимость модели, спустив её ещё ниже в бюджетный сегмент.

Поэтому при выборе между видеокартой с бо́льшим и меньшим объёмом видеопамяти нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя решениями среднего и низшего уровней с 1 ГБ и 2 ГБ памяти нет смысла гнаться за дорогим вариантом — видеокарта такого уровня просто не получит большой прибавки в производительности от увеличенного объёма. Но если приходится выбирать между видеокартами с разным объёмом памяти и разной ПСП, то тут выбор уже не так однозначен, и нужно его совершать исходя из того, какого уровня видеокарта и насколько разнятся их частоты. Не забывая и про цену, естественно.

Например, при выборе между топовой видеокартой с 1,5 ГБ памяти и более высокими тактовыми частотами против такой же карты но с 3 ГБ памяти со стандартными частотами и более высокой ценой на данный момент выгоднее будет первая видеокарта, так как она обеспечит даже бо́льшую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. То же касается, к примеру, GeForce GTS 450 с 1 ГБ GDDR5-памяти против GTS 450 с 2 ГБ DDR3 — первый вариант точно будет быстрее. В большинстве режимов видеокарты бо́льшая частота и ширина шины играет значительно более важную роль, чем бо́льший объём видеопамяти, и только в высоких разрешениях увеличенный объем может серьёзно сказаться на скорости рендеринга.


А ныне в тех же единицах американских долларов может измерять уже не считанные мегабайты, а десятки и даже сотни. Правда, в последнее время измученные кризисом перепроизводства компании, выпускающие «мозги» для компьютеров, решились на отчаянный шаг и подняли цены, поэтому установить себе с легкой руки полгигабайта ОЗУ получится уже не так легко, как месяца два назад. И тем не менее, на сегодня оперативная память остается практически самой дешевой из основных внутренних компонентов системного блока.

Как показали наши исследования, многие очень сложные и тяжелые для карт игры уже имеют настолько большой объем текстур, что установка 64-мегабайтной карты дает неплохие дивиденды по сравнению с 32-мегабайтной. Таким образом, можно констатировать, что для новых игр наличие видеокарты с 64-мя мегабайтами супербыстрой памяти весьма желательно. Однако ведь ради маркетинга такие объемы ОЗУ ставят не только на быстрые и дорогие ускорители, где это оправдано (GeForce3, RADEON 8500), но и на карты класса low-end (GeForce2 MX200, MX400), где такой избыток памяти просто не нужен, так как тормозящим звеном является не объем, а пропускная способность ОЗУ.

Таким образом появилась аксиома: лучше иметь меньше памяти, но чтобы она была более быстрой, чем больше, но медленной памяти. Наличие в продаже таких уродцев как GeForce2 MX200 с 64-мя мегабайтами памяти при 64-битной шине обмена можно назвать просто ошибкой природы. Или желанием ради маркетинга выпускать продукты с большим слоем очковтирательства.

Однако сейчас мы ненадолго отвлечемся от темы наращивания объема памяти на видеокартах, а посмотрим на то, как из RADEON 7500 можно сделать нечто среднее между новым и старым продуктом.

Joytech Apollo RADEON 7500 SDR

Компания Joytech, не удовлетворившись выпуском обычного RADEON 7500, решила по подобию славного правила NVIDIA урезать оный, чтобы получился продукт для более низкой ценовой ниши. Впрочем, ATI уже делала примерно то же самое со своими RADEON, но все же не до такой степени. Почему? Сейчас поймете.

Рассмотрим оба варианта.

Joytech Apollo RADEON 7500 64MB SDR





На карте установлены микросхемы памяти марки V-Data, время выборки — 5.5 нс, что соответствует 183 МГц. При этом память функционирует на частоте 166 МГц. Как мы видим, используется очень дешевая на сегодня обычная память, которая работает даже на более низких, чем положено по номиналу, частотах. Впрочем, это немудрено, поскольку модули этой марки отказались работать даже на своей штатной частоте (как выяснилось при разгоне карты).

Я сейчас перейду к рассмотрению второго варианта продукта от Joytech на базе RADEON 7500, а потом мы их сравним.

Joytech Apollo RADEON 7500 128MB SDR

На карте установлены микросхемы памяти марки M-Plus, время выборки — 6 нс, что соответствует 166 МГц. На этой частоте память и функционирует. Снова мы видим, что используется очень дешевая на сегодня обычная память от неизвестного производителя, которая вообще не разгоняется.

Отчетливо видно, что обе карты как две капли воды похожи друг на друга, отличаясь только объемами памяти. Это нетрудно доказать:

Joytech Apollo RADEON 7500 64MB SDR



Joytech Apollo RADEON 7500 128MB SDR

ATI RADEON 7500 64MB DDR



Также отчетливо видно, что обе карты от Joytech очень сильно отличаются от референс-дизайна от ATI (чего, впрочем, и следовало ожидать, раз карты используют другой тип памяти). Интересно отметить, что реализация подключения двух CRT-мониторов у Apollo RADEON 7500 несколько иная, чем у ATI. В комплект поставки входит не переходник DVI-to-d-Sub, а VGA-гнездо на отдельном костыле со шлейфом:


Другой конец этого шлейфа подключается непосредственно к видеокарте при помощи разъема типа Feature Connector.

Думаю, что многие уже осуждают такой способ вывода картинки на второй монитор. Ведь у RADEON 7500 интегрированы в чип два высокочастотных RAMDAC, позволяющих использовать два монитора равноценно, а в данном случае о качестве картинки на втором мониторе можно уже только сожалеть. Хотя, безусловно, ухудшение и не совсем катастрофично.

Теперь о самом печальном. Если вы думали, что снижение частоты работы памяти и урезание ее по пропускной способности путем замены DDR на SDR — это последнее измывание над RADEON 7500, то вы ошиблись. Частота работы чипа на обеих картах — 200 МГц, а не 290, как у карт от ATI, или 270 МГц, как у карт с DDR-памятью от ее партнеров. Сразу возникает вопрос: а не обман ли это все? Может там вовсе и не RADEON 7500, а обычный RADEON, который когда-то обещали разогнать до 200 МГц? Нет! На видеокартах установлен именно 7500-й!

Да, конечно, после размышлений можно понять, почему у этих процессоров такая частота. Зачем ставить 270-мегагерцовый чип, если медленная память все равно убьет производительность? Заодно Joytech помогает ATI избавиться от отходов производства RADEON 7500 (думаю, что на такие карты идут чипы, не прошедшие тесты на 270 МГц и более высоких частотах). Ну и компания Joytech получает выгоду, платя копейки за такие чипы (а память давно стоит гроши), отсюда сверхнизкая себестоимость производства, да и нацелены такие карты отнюдь не на сектор карт ценой свыше $100. Надо отметить, что фирма Joytech собирается повысить частоту работы RADEON 7500 до 230 МГц (хотя, как можно увидеть ниже, это мало помогает производительности).

Кстати, интересно, а какая производительность у таких плат? С кем они могут тягаться? Об этом чуть ниже. Пока мы заканчиваем рассмотрение этих двух необычных и «очковтирательных» карт фотографиями их коробок. Почему «очковтирательных»? Посмотрите на снимки:

Вот и скажите: смогут ли желающие купить карту на базе RADEON 7500 легко понять, что в этих упаковках находятся не обычные полноценные платы, а урезанные их варианты? Думаю, что нет. И нечистоплотным продавцам будет очень легко наживаться на доверчивых и не особо грамотных пользователях. Да и если представить себе честного продавца, который укажет цену на такую карту в пределах $100 или даже ниже, то вряд ли он удосужится проинформировать потенциального покупателя, что внутри такой коробки лежит вовсе не ATI RADEON 7500 DDR, а нечто другое. А цена соблазнительная. Выводы ясны. Вообще, в таком безобразии виновата ATI, которая с самого начала наплевала на четкое информативное разделение видеокарт с разными частотами, а теперь и с разным типом памяти. Всем хорошо известна история с RADEON 8500 и RADEON 8500LE: последний существует только на бумаге и в пресс-релизах. А на практике ни одна карта с 250-мегагерцовым RADEON 8500 не имеет наклеек или иных опознавательных знаков того, что она — RADEON 8500LE!

Возвращаясь к Joytech Apollo RADEON 7500, хочется задать тот самый вопрос, который я поднял ранее: а зачем таким «кастратам» 128 мегабайт медленной памяти? Маркетинг, будь он помянут недобрым словом

А в тех самых коробках, фотографии которых вы видели, кроме самих карт можно найти диск с ПО (драйверы от ATI), листовку-памятку по установке карты и S-Video-удлинитель.

Завершая рассмотрение видеокарт от Joytech на базе RADEON 7500 (рука прямо не хочет писать это название :-), я еще раз хочу подчеркнуть, что теперь при покупке подобных карт, да и вообще карт от базе последних чипов от ATI, надо тщательно ознакомиться с тем, что находится внутри коробки. Полагаться только на надписи на упаковках уже нельзя.

В оправдание появления таких карт можно лишь сказать, что, как и в случае NVIDIA-базируемых карт, компании-производители видеокарт ищут способы выпуска более дешевых (малобюджетных) плат на базе тех же чипов (вспомним про 64-битные GeForce2 MX, про обычные GeForce2 MX, но со сниженными частотами и т. д.). Это неплохо, так как пользователю предоставляется больший выбор (или $150 за полноценный RADEON 7500, или $100 за урезанный). Плохо лишь то, что отсутствует надлежащая информация, дающая сведения о том, что данная карта урезана.

Joytech Apollo 3D Thrill 315 128MB

Мы познакомимся с еще одной картой от Joytech, на сей раз на базе SIS 315. Мы уже рассматривали видеокарту на базе этого чипа, а узнать о сравнительной производительности таких карт можно из наших 3DGiТогов. Я напомню кратко, что по своей архитектуре SIS 315 очень схож с NVIDIA Riva TNT2, но с добавлением блока Hardware T&L. То есть это два конвейера по одному текстурному модулю на каждом, которые при мультитекстурировании работают уже в режиме одного конвейера. Шина обмена с памятью — 128 бит. Поэтому от такой карты можно ожидать производительности на уровне Riva TNT2 Pro или GeForce2 MX200.





На карте установлены микросхемы памяти марки V-Data, время выборки — 6 нс, что соответствует 166 МГц. На этой частоте память и функционирует (в соответствии со спецификацией SIS 315, работающей на частотах 166/166 МГц).

Видеокарта разработана на основе собственного дизайна от Joytech. Поэтому она существенно отличается от референс-дизайна от SIS:

Joytech Apollo 3D Thrill 315 128MB



SIS 315 32MB



Разумеется, различия должны быть в силу комплектации карт разным объемом памяти, однако заметим, что карта от Joytech не оборудована сопроцессором SIS301, который обеспечивает «двухголовость» плате. Поэтому воспользоваться выводом на второй монитор и TV-out не получится.

На плате установлен необычной конструкции кулер:


На этом особенности этой платы и заканчиваются, ну если не считать общего лазурного цвета PCB у всех рассмотренных карт от Joytech.

Видеокарта поставляется в ОЕМ-виде, поэтому речи об упаковке нет.

Leadtek WinFast GeForce3 Ti200 TDH 128MB

На карте установлены микросхемы памяти марки Samsung, время выборки — 4 нс, что соответствует 250 (500) МГц. (При этом, как и положено по спецификации, память функционирует на частоте 200 (400) МГц.) Как видите, используется более быстрая, чем положено для таких плат, память, поэтому можно рассчитывать на приличный разгон (хотя и в меньшей степени, поскольку, как известно, модули памяти от Samsung плохо разгоняются).

Сама видеокарта внешне практически не отличается от своего 64-мегабайтного варианта и выполнена на основе эталонного дизайна, однако есть отличия, связанные с монтажом на карте Hardware Monitoring.

Leadtek WinFast GeForce3 Ti200 TDH 128MB

NVIDIA GeForce3 Ti 200 reference card



PCB имеет текстолит ярко-зеленого цвета, на котором выделяется огромное серебристое охлаждающее устройство (я о нем уже писал в обзоре карт от Leadtek на основе GeForce3 Ti 200/500, это единый радиатор для охлаждения памяти и чипа). Под радиатором находится графический процессор (ныне маркировка Ti 200 уже наносится на крышку чипа):

Слева можно увидеть хвостик термодатчика, поскольку подобные карты от Leadtek оборудованы поддержкой мониторинга термоконтроля (мы об этом также уже писали).

Завершая рассмотрение особенностей карты Leadtek WinFast GeForce3 Ti200 TDH 128MB, можно отметить, что она оборудована TV-out и DVI.

Карта поставляется в Retail-упаковке, традиционно выполненной в очень эффектном стиле.

  • руководство пользователя;
  • диск с программным обеспечением и утилитами, а также с WinDVD-плеером;
  • два диска с современными играми;
  • переходник S-Video-to-RCA;
  • удлинитель S-Video.

Разгон

Leadtek WinFast GeForce3 Ti200 TDH 128MB продемонстрировала приличный уровень по повышению частот — 225/250 (500) МГц.

    при разгоне обязательным условием является наличие дополнительного охлаждения, в частности, обдувающего карту (прежде всего ее память) вентилятора;


Установка и драйверы

  • Компьютер на базе Pentium 4 (Socket 478):
    • процессор Intel Pentium 4 2100;
    • системная плата ASUS P4T-E (i850);
    • оперативная память 512 MB RDRAM PC800;
    • жесткий диск Quantum FB AS 20GB;
    • операционная система Windows ME.

    На стенде использовались мониторы ViewSonic P810 (21") и ViewSonic P817 (21").

    При тестировании применялись драйверы от NVIDIA версии 21.85, от ATI версии 9.008, от SIS версии 2.03.00. VSync отключен, технология S3TC активизирована.

    • Reference card NVIDIA GeForce3 Ti 200 (175/200 (400) МГц, 64 МБ);
    • SUMA Platinum GeForce2 MX200 (175/166 МГц, 32 МБ);
    • SUMA Platinum GeForce2 MX400 (200/182 МГц, 32 МБ);
    • SuperGrace RADEON 7500 (270/230 (460) МГц, 64 МБ);
    • Gainward GeForce2 Ti 500 (250/200 (400) МГц, 64 МБ);
    • PowerColor Evil SIS 315 (166/166 МГц, 32 МБ).

    Результаты тестов

    Качеством 2D-изображения я остался очень доволен у Leadtek WinFast GeForce3 Ti 200 TDH. Никаких проблем даже в 1600х1200 при 85 Гц. Вот у карт на RADEON 7500 от Joytech оно чуть похуже, в указанном разрешении комфорт приемлем только при 75 Гц. Видеокарта на базе SIS315, разумеется, обладает более скромными достижениями в этой области, но 1280х1024 при 75 Гц выглядят отлично.

    • Quake3 Arena v.1.17 (id Software/Activision) — игровой тест, демонстрирующий работу платы в OpenGL с использованием демо-бенчмарка уровня Q3DM9 с огромными текстурами — Quaver.

    Quake3 Arena

    Quaver, режимы максимального качества

    Тестирование на примере Quaver проводилось в режиме 32-битного цвета при максимально возможной детализации и с усилением сложности геометрии (r_subdivisions "1" r_lodCurveError "30000"). Этот бенчмарк очень нагружает акселераторы не только геометрией, но и огромным объемом текстур, а также массовостью эффектов.

    Сектор Low-end



    Прежде всего надо отметить, что в разрешении 1024х768 при 32-битном цвете карта SIS315 со 128 МБ ведет себя очень странно, почему-то появляются тормоза, и производительность проседает. Даже в 1280х1024х32 скорость потом оказывается выше. Мы не смогли найти разгадку этому феномену, поэтому все остается на совести или драйверописателей, или разработчиков данной карты.

    Сектор Middle-end



    Обратите внимание на то, как сильно отстают эти карты от полноценного RADEON 7500! Плата на базе GeForce2 MX400 хоть и показала чуть худшие результаты, но они почти на уровне Joytech Apollo RADEON 7500 SDR. Поэтому популярность таких «обгрызков» будет полностью зависеть от цен на эти платы.

    Сектор High-end


    В заключение анализа я хочу настоятельно рекомендовать прочитать наши 3DGiТоги, в ближайшем выпуске которых появятся и рассмотренные выше карты.

    Знаете, наверное, многие знают, что видеокарту с 512 мб памяти стоит брать только в случае, если вы являетесь обладателем 21 дюймового монитора или решили подключать плазму.
    Во всяком случае, я так считал , и много других людей в инете . На Оверклокерах даже есть статейка о тесте игр на потребление памяти, и я ей вполне доверяю . Но старая она уже эта статейка , и всё давно поменялось.
    Вот недавно дошли ручки до апгрейда . Взял я себе Core 2 Duo 6300 и MB - P5B Deluxe.
    Память OCZ Value ram pro 1024 (667)
    Бралось всё для разгона , но была уверенность, что всё упрётся в память .

    Знаете, наверное, многие знают, что видеокарту с 512 мб памяти стоит брать только в случае, если вы являетесь обладателем 21 дюймового монитора или решили подключать плазму.
    Во всяком случае, я так считал , и много других людей в инете . На Оверклокерах даже есть статейка о тесте игр на потребление памяти, и я ей вполне доверяю . Но старая она уже эта статейка , и всё давно поменялось.
    Вот недавно дошли ручки до апгрейда . Взял я себе Core 2 Duo 6300 и MB - P5B Deluxe.
    Память OCZ Value ram pro 1024 (667)
    Бралось всё для разгона , но была уверенность, что всё упрётся в память .



    (кликните по картинке для увеличения)
    2 параллельно запущенных Super PI 32m а так же ТАТ в течении 30 минут и всё это запускается одновременно

    Но OCZ я явно не до оценил, потому что в данный момент она работает на частоте 470 (940) и при этом проходит 2 параллельно запущенных Super PI 32m а так же ТАТ в течении 30 минут и всё это запускается одновременно. Я думаю, что если система проходит такие тесты, значить она стабильна.



    (кликните по картинке для увеличения)
    3500 .
    Также мне удалось загрузиться с FSB 500 , но тесты при этом не проходят . Да и память мне мою жалко так насиловать .
    А вот с видяхой я не сильно загонялся, потому что сначала хотел 7900 GS Palit Sonic,
    но потом переменил своё мнение на X1950 Pro, т.к. она лучше по производительности в 2005 марке да и радионы я всё равно больше уважаю.
    Первое, что я взял - это Сапфир Х1950 Pro 256/256 , и я был вполне уверен, что мне её хватит по горло . Но . Охлаждение на ней просто никудышное и шума от него очень много, когда работа куллера на 100% . И при замене охлаждения я заметил, что кусок чипа просто отколот . Работала она и без него хорошо, но меня это не устроило.
    2-е что меня Убило , так это то, что Gothic 3 при настройке все на МАКСИМУМ употребляет 320 – 400 мб Видио памяти.



    (кликните по картинке для увеличения)
    Gothic 3 в загрузе
    Этот скриншот был сделан уже с видеокартой с 512 мб оператики , и видно, что максимльная отметка 310 мб, но это из-за того, что в моей системе в данный момент стоит 1 Гб оперативки, а Готика Кушает минимум 1.5 гб . Хотя нужно где то 2 Гб ( я имею ввиду для работы на максимальных настройках.)



    (кликните по картинке для увеличения)
    Батл в загрузе
    А вот пример Battlefield 2 в загрузе.Ну как может хватить 256 памяти ?

    А когда дело дошло до покупки, как раз начали появляться 1950 Pro да ещё и от Palit, а эту фирму я зауважал за хорошую продукцию с собственноручно придуманным и очень эффективным охлаждением . А в 1950 серии их охлаждение было доработано ( поставлен более большой куллер ) .
    Вот собственно и она )))))))))

    Зачем некоторые производители видеокарт отходят от спецификаций и выпускают видеокарты с вдвое увеличенные объёмом видеопамяти. О таких моделях мы и поговорим.

    Существуют стандарты и спецификации, которые утверждаются самими производителями GPU еще на стадии разработки видеокарт. Одной из характеристик видеокарты является объем ее видеопамяти. В недрах лабораторий AMD и Nvidia инженеры просчитывают этот параметр, делая итоговую видеокарту сбалансированной. Ведь если поставить мало видеопамяти производительность упрется в GPU, а если много - этот самый GPU попросту не может ею быстро оперировать и производительность упадет.

    реклама


    Существует мнение, что производитель намеренно уменьшает объем видеопамяти, чтобы затем выпустить новые модели с увеличенным видеобуфером. Но тогда возникает закономерный вопрос насчет конкурентов? Если следовать такой логике, такие видеокарты никто покупать не станет, ведь проще взять видеокарту с нормальный объемом у конкурента. Но случаются в истории и интересные факты, когда не сам производитель GPU увеличивает объем видеопамяти, а частный производитель самостоятельно идет на такой шаг. Надо отметить, далеко не каждый производитель решается на это, что ими движет я не знаю, коммерческая прибыль или погоня за славой, или то, что - «Мы это сделали». Я предлагаю всем нам вспомнить о таких видеокартах с удвоенным объемом.

    Начать я решил не с представителя удвоенного объема, а с не совсем обычной видеокарты - NVIDIA GeForce 6200 Turbo Cache. Когда-то давным-давно Nvidia экспериментировала с технологией, которая будет использовать оперативную память ПК для хранения текстур, вместо наборной видеопамяти на самом видеоадаптере. Основой соединения системной памяти и графического процессора в таком случае выступает шина PCI-Express, ввиду ее хорошей пропускной способности. Такой подход реализации немного экономит на производстве, себестоимости продуктов, ведь количество распаянной видеопамяти на видеокарте заметно сокращается.


    реклама

    Видеокарта NVIDIA GeForce 6200 Turbo Cache построена на GPU с кодовым названием NV44, поддерживает API DirectX 9.0+, обладает интерфейсом PCI-Express первого поколения и содержит всего одну! микросхему памяти, объемом 16 Мб, которая работает на эффективной частоте - 700 МГц. Шина памяти в таком виде составляет всего 32-Bit. Зато по задумке авторов из ОЗУ можно было черпать гигабайты текстур для прогулок по обширному и бесшовному 3D миру. Но NVIDIA GeForce 6200 Turbo Cache относилась к категории LowEnd и особо на ней не побегаешь.


    Современным эквивалентом данной технологии я бы назвал - Resizable BAR, хотя суть здесь немного иная, но принципы реализации похожие. Технология Turbo Cache не прижилась на рынке и ушла в результате в историю.

    GeForce 6800 Ultra 512 Мб. Версия GeForce 6800 Ultra с шиной PCI-E и 512 МБ памяти на борту была официально представлена на выставке CeBIT 11 марта 2005 года за три месяца до релиза следующего флагмана - GeForce 7800 GTX. Если референсную модель 6800 Ultra с 256 МБ памяти просили около $500, то за 512-мегабайтную карту уже целых $829, что стало новым ценовым антирекордом для видеокарт потребительского сегмента! А отдельные производители так и вовсе не стеснялись просить $999. Такой моделью была BFG 6800 Ultra OC 512 MB.

    реклама


    Также аналогичные по объему карты выпустили еще MSI с XFX.


    Несмотря на вдвое больший объем памяти, GeForce 6800 Ultra 512 Mb не смогла похвастаться увеличенной производительностью, относительно референса 6800 Ultra с 256Мб памяти. Более того, из-за сниженных частот памяти в играх того времени эта карта порой немного уступала предшественнице. Интересен и тот факт, что новый флагман Nvidia, GeForce 7800 GTX, который был представлен летом 2005 года, изначально комплектовался 256 МБ памяти, но при этом значительно опережал 6800 Ultra 512 во всех режимах работы.

    реклама

    Radeon HD 7970 6GB Vapor-X – это видеокарта на базе чипа Tahiti XT, которая располагала самыми современными технологическими наработками компании и шестью гигабайтами памяти типа GDDR5 с заводским разгоном до 1000/5800 МГц (рекомендованные значения — 915/5500 МГц). Система охлаждения Sapphire Vapor-X HD 7970 6GB включала в себя испарительную камеру, четыре медные никелированные тепловые трубки диаметром 6 и 8 мм, плотный массив алюминиевых пластин и два 92-мм вентилятора.


    Данная карта примечательна тем, что ее очень полюбили майнеры из-за большого по тем меркам объема видеопамяти, благодаря чему ее можно было использовать более продолжительное время. Пара таких карт а CF давали геймерам неплохую прибавку в высоких разрешениях.


    Компания Palit также выпустила свой заряженый вариант - GTX 260 Sonic 216 SP (1792MB).


    Игровые эксперты тех лет провели ряд тестов с этой видеокартой. Выяснилось, к примеру, что в играх World in Conflict и Company of Heroes новый видеоускоритель оказался значительно производительнее версии с 896 Мб памяти, продемонстрировав лучшую среднюю скорость передачи кадров.

    После перехода производства своих GPU с 65nm (GTX 280) на 55nm (GTX 285) Nvidia улучшила количественные характеристики своего одночипового DirecX 10 флагмана. Новые видеокарты появились в конце 2008 года и относились к архитектуре «Tesla 2.0». Графический процессор работал на частоте 648 МГц, а DDR3 видеопамять работала на эффективной частоте 2484 МГц, шина памяти была целых 512 бит, что для сегодняшнего дня это является отличным показателем. По спецификации видеокарта оснащалась одним гигабайтом видеопамяти.


    Но компания EVGA выпустила множество моделей видеокарт с удвоенным объемом, в этом направлении её также поддержала Gainward, выпустив модель GTX 285 GS 2 GB.


    Видеокарта Sapphire Radeon HD 6850 оснащалась 2 ГБ видеопамяти типа GDDR5 и двухслотовым кулером на тепловых трубках. Увеличение объема ОЗУ никак не отразилось на прочих прикладных характеристиках устройства: шина памяти осталась 256-битной, эффективная частота микросхем, как и рекомендовано AMD, составляло 4 ГГц. GPU содержал 960 потоковых процессоров и работал на номинальной частоте, равной - 775 МГц.


    Удвоение видеопамяти на первых топах Fermi началось с моделей GeForce GTX 580, по умолчанию оснащенных 1.5 Гб видеопамяти. На предыдущем флагмане – GeForce GTX 480 никто из производителей экспериментировать не стал, видимо сказывался и без того горячий нрав видеокарт, а лишняя память вообще бы заставила эту карту кипеть. Но с выходом GTX 580, ситуация изменилась. Чередой заряженных карту отметились: EVGA с GeForce GTX 580 Ultra Classified, MSI с GTX 580 Lightning Xtreme Edition, ZOTAC с GTX 580 AMP²! Edition и даже Palit выпустил свою версию GTX 580 Dual Fan 3 GB.


    А вот Asus, например, не стал делать таких карт, что, на мой взгляд, странновато.

    EVGA GeForce GTX 680+ 4GB, данная видеокарта построена на GPU GK104, которая по спецификации Nvidia должна нести на борту 2 Гб видеопамяти. Конкурентом для нее в то время являлся Radeon HD 7970, который нес на борту целых 3 Гб видеопамяти. Естественно данное преимущество использовалось очень широко в маркетинговых целях. Поэтому отдельные вендоры решили выпустить свои видеокарты с удвоенным объемом, к ним можно отнести EVGA GeForce GTX 680+ 4GB , Palit GeForce GTX 680 4 GB Jetstream и другие.


    За лишний гигабайт пользователям приходилось в среднем доплачивать +100$ в эквиваленте, но эти деньги были не напрасно потрачены. Хотя Nvidia могла в самом начале пути еще при разработке просчитать этот вопрос и выпустить видеокарту заведомо сильнее чем Radeon HD 7970 по этому критерию, но получилось как есть. В последующем, следующий адаптер от «зеленых» GeForce GTX 780 нес на борту 3 Гб видеопамяти.

    Скорее всего, были и другие модели видеокарт отдельных производителей с удвоенным объемом видеопамяти. Если вы обладаете такой информацией - поделитесь ей в комментариях. Но на сегодняшний день самым забавным было бы увидеть удвоенную версию GeForce RTX 3090 c 48 Гб видеопамяти.


    А пока вы припоминаете такие модели, соблюдайте масочный режим в общественных местах и Будьте здоровы!

    Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.

    Читайте также: