Ошибки при выборе видеокарты
Всем доброго времени суток друзья, в этой я расскажу вам о ошибках при выборе видеокарты, и на что стоит обращать при её покупке в первую очередь.
Данная статья скорее для новичков, нежели для профессионалов, которые шарят в ПК, поэтому, кто шарит, можете не писать, что мол "я итак знал", а вот новичкам будет полезно знать что да как. Я постарался сделать всё максимально понятно, если останутся какие-то вопросы или критика, то пишите свои пожелания, буду рад подискутировать.
Не стоит выбирать самое дорогое
Самое дорогое не всегда самое лучшее. Об этом не стоит забывать при выборе видеокарт. Яркий тому пример видеокарты NVIDIA GeForce GTX 1080 Ti и RTX 2080 Ti . Несмотря на принципиально разную стоимость, последняя стоит намного дороже, их быстродействие в играх отличается в среднем всего на 10-20% (без учета функции аппаратной трассировки лучей RTX).
Б/у видеокарты, вариант или не вариант
При сборке игрового ПК многие не рассматривают подержанные видеокарты в качестве варианта. Однако это, на мой взгляд, неправильно. Такие устройства вполне актуальны для большинства компьютеров для игр.
Главное знать правила проверки и выбора видеокарты. И в этом случае риск покупки неисправного или ненадежного устройства будут сведены к минимуму. Главным достоинством б/у GPU является их стоимость. Что особенно важно при нынешних высоких ценах на видеокарты в розничных магазинах.
Основные ошибки при выборе видеокарты для игр от канала технопарк.
" width="366" height="205" />
" width="366" height="205" />
дык ошибки то какие? Покупай видяху под стать процессору? Покупай видяху с большим количеством памяти? Не покупай видяху которая не влезет в корпус? Если видяхе надо 400W то блок соответственно должен быть чуть больше? Чет советы от кэпа какие то..
Основная ошибка это экономия на видеокарте.
Ваще ниачем. Пятый пункт, об охлаждении, полностью пустой.
А ещё совсем недавно было так: i7 он крутой ,но смысла нет , не придумали ещё игры для такого процессора , и долго не придумают ..Вот видюха- первым делом бери..Но ,как оказалось , не всегда просто пишут требования к той или иной игре "просто так" Последние игры , такие как масс эффект андромеда ,очень даже процессоррозависимыми оказались
Может ты дальше не слушал этих "клоунов", а они продолжали говорить: " Лучше купить сначала мощную видеокарту, а потом докупить мощный процессор. " ?
Хм. думал на частоты уже никто не смотрит. А вот клоунов "рекомендующих" 1080-ую на какой-ни будь 5-2500 хватает)))
Женя Астраханцев
Женя Астраханцев написал: Хм. думал на частоты уже никто не смотрит. А вот клоунов "рекомендующих" 1080-ую на какой-ни будь 5-2500 хватает)))
А в чем проблема то? Графу на максималки и гоняешь в игры.
MagicHero А в том что если и5 будет без разгона то во многих играх всё упрётся в проц, а видяха будет нагружена не полностью и выдавать фпс на уровне 1070\1060. часть денег за видяху будут выкинуты на ветер. У меня в ас синдикате и баттле 1 нередко проц грузится на 100%, а нагрузка на видюху падает до 70-90%, а ведь это лишь 970-ая.
Женя Астраханцев Я ставлю лок на 60 фпс и проца в те игры что я играю мне хватает. В итоге получаю стабильные 60 т.к. видюха имеет запас по мощности. В том же the division даже при локе в 60 фпс видюха в тяжелые моменты загружается под 99% но зато нет просадок. Так же в играх можно ставить через DSR большее разрешение чтобы нагрузить видюху и получить лучшую картинку, например в far cry primal или Batman arkham knight в игре нельзя выставить сглажку выше стандартной, я ставлю разрешение 2880 на 1620 и получаю более четкую картинку где лесенки на краях обьектов не так уже бросаются в глаза.
MagicHero Читаем или нет? Я же писал "БЕЗ РАЗГОНА"!! 1 у тебя процессор разогнан. 2. ты увеличиваешь разрешение, то есть всё упирается в видеокарту. Но тебе итак хватило бы даже в ФХД за счёт разгона. А вот если люди не разгоняют то на ФХД базовой частоты какого-нибудь простого и5 процессора уже для 1070 то не хватит.
Женя Астраханцев
В игры которые я в последнее время играю например Ведьмак 3, The division, CoD WW2, Assassin`s Creed Синдикат, GTA 5, far cry primal и т.д. у меня ни во что не упирается т.к. стоит лок в 60 фпс, если начнет во что то упираться то фпс уже не будет 60. Хотя понятное дело в некоторых играх в тяжелые моменты проц или видюха могут загрузиться по полной и вызвать просадку по фпс.
Женя Астраханцев написал: А вот если люди не разгоняют то на ФХД базовой частоты какого-нибудь простого и5 процессора уже для 1070 то не хватит.
Судя по твоему ответу и для 1030 не хватит ))) т.к. если проц не будет держать 60 фпс то смена видеокарты на более слабую не сделает проц быстрее, чтобы он держал 60 фпс. В общем пока что во что играю мне проца хватает для 60-120 фпс. Правда сейчас уже есть игры которым 4-х ядерника не хватает (assasin creed origin, watch dogs 2, mafia 3) и там какую видеокарту не ставь все равно будут просадки ниже 60.
Видео с канала Technopark
Мой комп тянет Crysis, я могу играть во все :))
Мда, помнится я прилично так лоханулся, когда приобрел 8800GTX и попробовав вставить ее в мамку, наткнулся на препятствие - слоты для жестких дисков. Так как корпус не было возможности поменять, пришлось, в прямом смысле слова, выламывать эти слоты. И ведь не по одному крепились, а пачкой. В общем намучился. Теперь перед покупкой запчастей обращаю пристальное внимание на габариты.
insel260 А мог бы не портить системник и сделать открытый стенд, например на стене.. Отличное решение для жарких регионов.
Админ пустоты Угу, подмосковье, очень жаркий регион, прям Африка. И охлаждение каким образом на открытом стенде делать? Водянухи тогда стоили, как топовые компы сейчас!
insel260 блин у меня до сих пор валяется дома 8800, только правда GTS на 640 метров, насколько крутые они были. прям ностальгия) а потом адова печь и отвал чипа))) п.с. тоже болгаркой рихтовал корзину для ЖД что бы видюха влезла, но в то время почти все корпуса были однотипны и не дороги, так что пофиг было)
Visel А у меня сначала тоже GTS была, но у нее перегрев случился и отнеся карту в тех сервис, мне дали на временную замену новую 8800GTX (768 МB / 320 bit), которая впоследствии у меня и осталась =) Отработала почти 5 лет и благополучно сгорела при игре в GTA IV с модами. Жалко было до слез. Прикол с размерами GTX состоял в том, что изначально корпус брался под GTS, которая на 2-3 см меньше GTX. Потому и не влезла новая карта. Пришлось пассатижами и ножницами по металлу выкорчевывать слоты ЖД. После этой операции внутри корпус выглядел не лучшим образом, да и хард пришлось к стенке привинчивать, ибо слотов не осталось. Через годик плюнул на все и обновил корпус, заказав фул тауэр. И вот недавно, опять столкнулся с такой же бедой. 1080 ti еле еле входила по размерам, благо все элементы корпуса съемные и ничего не пришлось ломать. Но запаса места крайне мало сейчас, 1.5 - 2 см до хардов.
Пустой ТОП! Такими советами можно напичкать мозг гонца за пивом. Какое пиво лучше выбрать при коньячном похмелье? Или винном, водочном.. Любой, кто сам делает апгрейд своей машины, знает эти банальные правила, а кто не знает - тот лопух!)))
Мне нравится этот человек. Разбирается в компьютерах.
Вот это вот действительно полезная информация
Лично в моем случае видео покупалось под игру. И системы под эту самую игру, лично для меня хватает. З.Ы. Всегда собирал компы ориентируясь на топ движки. Мой копм тянет, в данный момент UE4, значит смогу поиграть во все игры:)
Да уж, помню одна бестолочь доказывала мне тут, что 700W хватит для двух 1080 и даже для двух 1080 ti))))) Хороший кстати видос!
ТРИБУН Мышивурии как бы для двух 1080 700 ватт достаточно, а для 1080ti уже надо примерно 850, это если не планируешь разгонять их
Voodi как бы для двух 1080 700 ватт достаточно, а для 1080ti уже надо примерно 850, это если не планируешь разгонять их Не фига не достаточно. Я два блока питания до этого сменил. Один был от залмана на 800W, другой от Термолтэйка на 750W. И оба в течение часа давали сбой из-за малого количества Ватт в нагрузке (видяхи и проц не гнал) После же поставил такой же, только на 1200W от Термолтэйка и проблемы все ушли влёт. В придачу ещё разогнал видяхи и проц. Ну и оперативу за компанию) Но с одной видяшкой, когда эти блоки питания ставил, то они естественно справлялись.
ТРИБУН Мышивурии тут наверное дело скорее в элементной базе блоков, по своему личному опыту скажу что например сисоник на 520 у меня лучше и стабильнее работает чем залман на 600, так что все зависит от конкретных моделей
ТРИБУН Мышивурии хватит с лихвой если он действительно выдает 700 Вват ТРИБУН Мышивурии Thermaltake настоящий Chine и твои 1200W на деле ( пиковая их мощность всего 984Вват без чистового СИНУСА с 12 амперами ,а уж тем более он Импульсный , а не трансформаторный ) хотя в электроники ты не зуб ногой , так что мой тебе совет выкинь свой БП чем раньше тем лучше и возьми от COUGAR CMX 1200 уж поверь он самый живучий ( чутка шумноват ) и я тебе на 100% скажу ,он выдерживает почти 400 вольт по сети ( бывает и такое ), а если выше уходит в защиту и вылетом Варистера но плату и все остальное защищает ,плюс он двухтактный трансформаторный с чистым синусом ( в реале он выдает пиковую 1231Вват c 28 амперами ).Да Thermaltake выглядит гламурненько и красочно но это Обман есть еще Sea Sonic Electronics он шибкой дорогой как SilverStone ( настоящий USA ) но его ставят на сервера и не купишь в магазине
эмэсай гэтэикс 970 ,и не парюсь:)
idvi она уже давно не актуальна, разве что если устраивают низко-средние настройки графики
Steve Taller Ты не прав, 970 вполне актуальны. Они спокойно тянут все современные игры на высоких-ультра настройках в фхд.
insel260 Ты не прав, 970 вполне актуальны. Они спокойно тянут все современные игры на высоких-ультра настройках в фхд. Ты пошутил? ГДЕ.
ТРИБУН Мышивурии Не веришь, смотри различные обзоры. Данная карта все еще более чем актуальна.
insel260 Так вот я и смотрел кучу обзоров на ютубе.
Любая продвинутая технология игр должна одинаково хорошо запускаться на ультра на любом железе от встроенных Intal до топ если это не так то до совершено технологии нам еще далеко.
Большинство пользователей самостоятельно изучают характеристики видеокарты и сами занимаются сборкой компьютера, однако, многие покупатели склонны, в первую очередь, оценивать не первостепенные характеристики, а посредственные. Это выливается в покупку не того продукта, который планировался изначально. Чтобы избежать таких ошибок при выборе графического адаптера, следует знать, на что обращать внимание.
5. НЕ БРАТЬ Б\У ВИДЕОКАРТЫ И БОЯТЬСЯ БЫТЬ ОБМАНУТЫМИ
Но на самом деле, бояться не стоит, я дам вам пару рекомендаций, после которых вероятность покупки убитой в хлам видеокарты будет сведена практически к нулю, но вероятность есть вероятность.
Итак, первое и самое главное - не покупать карту без проверки, вот вообще не покупать, даже если есть чек, коробка и карта выглядит как новая. Потому как чек и коробка вам ничего не гарантируют, тем более их можно запросто подменить, по крайней мере чек.
Итак по быстрому пробежимся по тому что нужно знать. Сначала внешний осмотр, обращаем внимание на:
1. Наличие пломб (не показатель, т.к. можно разобрать карту их не повредив)
2. Цвет текстолита. Если карта ремонтировалась, например прогревали видеочип, то плата будет слегка потемневшей. Если вы видите странные отличия цветов на текстолите, то лучше обходить такие карты стороной.
3. Если есть возможность, то лучше разобрать карту (если её гарантийный срок истек или продавец разбирал её ранее) и посмотреть на состояние чипа, если вокруг есть подтёки, то это уже плохой знак, исключением являются чипы памяти, потому как обычно к ним могут прилегать термопрокладки которые с годами могут течь.
Также проверьте вентиляторы, прокрутите их несколько раз, они должны крутится легко и в конце должен быть характерный обратный эффект прокрутки, если его нет, то возможно скоро такой вентилятор выйдет из строя.
Ещё не должно быть люфтов, если качать лопасти в бок. Если ничего не смутило, то идем дальше!
У вас при себе должна быть флешка со следующими программами: GPU-Z, FurMark, MSI Autoburner.
Теперь запускаем GPU-Z и MSI Autoburner и сравниваем характеристики с официальными на сайте производителя или другом проверенном сайте, если всё совпадает, то это уже хороший знак! Далее Furmark, это программа для проверки температуры карты и в целом работы системы охлаждения.
Если на этом этапе пошли артефакты и подобные странные вещи в виде трескающих или очень шумных вентиляторов, то брать такое чудо не стоит!
Если же на этом этапе всё хорошо, то можно сказать что уже можно брать карту, но на по следок советую проверить её в бенчмарке или игре, поиграйте минут так 10-20, если никаких ошибок или странных полосок на экране нет, то можете брать! Но опять же повторюсь, 100% гарантии это вам не даст, даже самая идеальная карта может выйти из строя через некоторое время и этого никак не предвидеть, но всё же данные рекомендации помогут свести покупку сломанной карты к минимуму.
Приветствую. Выбор видеокарты, это "камень преткновения". Часть людей, которые числятся компьютерными гуру, "затирают" про "раскрытие видеокарты". Другие считают, что даже на "Пентиуме 3" видеокарта 3060 RTX заработает на 100% мощности. Третьи, вовсе рекомендуют брать графический адаптер, исключительно с трассировкой лучей, так как только за этими видеокартами будущее. Прежде чем, перечислять заблуждения, отпишусь "табуреточникам". Правда почему-то, "критики с табуретки" пропали. Эти люди, регулярно писали чушь в комментариях, тем самым продвигая статью в ленте, однако теперь, самоликвидировались. Но если вдруг вернутся, то вот отступление: автор не верит, ни в закрытие, не в открытие, процессоров видеокартами и не верит в закрытие и открытие видеокарт процессорами . Однако считаю, что выбирать графический адаптер, надо в тандеме с процессором, так как считаю не разумным покупать для "i3-3220" видеокарту 3080 RTX. Специально для "табуреточников" которые скажут, что видеокарта еще не поступила на прилавок и сравнение не подходит, вот другой пример: не стоит покупать видеокарту "RTX 2080 super" если установлен процессор "Athlon 5350". Думаю позиция понятна. Ошибки перечислю по принципу предыдущих статей(название, а потом "разбор"). Приступим.
Ошибка 1:"Палит квартиру, спалит. Только не эту фирму". Такая репутация у этой фирмы, появилась в 00-х годах. Тогда, "Palit" не отвечала за качество и делала упор на количество. Рынок насыщался продукцией этой компании, из-за "бросовых" цен. На канале уже публиковалась подробная статья на эту тему, по этому здесь, ограничимся парой слов. На 2020 год, у "Palit Microsystems Ltd.", с качеством полный порядок. Видеокарты не горят и при должной эксплуатации, живут не меньше других брендов. Ровно как и "Асус", рискует "сгореть" на второй месяц работы, так и "Палит", способен отработать 2-3, а то и 4 года без нареканий. Тут дело не в фирме, а скорее в отдельной взятой модели. Поэтому ошибочно опираться, только на название и закрывать глаза на характеристику. Выбирайте без предрассудков прошлых лет, делайте ставку на будущее.
Ошибка 2:"Главное количество видеопамяти, а тип не важен". Количество памяти учитываемый параметр, но не единственный. Тип, так же важен при выборе видеокарты. Представьте себе двух бегунов, которые натренированы бегать одинаковые дистанции. И оба бегуна, гарантировано пробегут такой марафон без проблем. Но что, если один бегун старый и не в состоянии бежать так же быстро как молодой? Получается, что два одинаковых(в выносливости) бегуна, гарантировано завершат марафон, но с разницей по времени. Молодой прибежит быстрее. Вот и с видеокартой, стремитесь смотреть не только на объём памяти, но и тип(GDDR). На 2020 год, это:"GDDR6". Например, из:"MSI 1650 GAMING X" и "MSI 1650 D6 GAMING X", вторая окажется производительнее, из-за типа видеопамяти "GDDR6", тогда как у первой, "GDDR5". Чисто внешне, эти видеокарты не отличить, зато в тестах, разница достигает 10%. О типе видеопамяти:"HBM", поговорим в другой статье. Это новый "низкочастотный" формат. Ставьте лайк, если ждёте полный обзор на эту память.
Ошибка 3:"Шина видеокарты "незначительный" параметр. Учитывать разрядность, не надо". К сожалению или счастью, при выборе видеокарты учитывается многое. В том числе и шина. Давайте на примере, проясню, что это такое. Представьте, что есть скоростная трасса, с трафиком под миллион машин. Которые из точки "А" едут в точку "Б". Скорость потока совпадает с "максимальной" скоростью автомобиля, который едет по такому шоссе. Так вот "шина", это как раз это шоссе, по которому переправляется поток информации. И как бы быстры не были автомобили, конечный результат (время перемещения 100% машин), зависит от ширины этого шоссе. Даже миллион скоростных "суперкаров", не перебазируются быстрее, чем миллион машин, движущихся со скоростью вдвое меньше "суперкаров", но по 20-ти полосному шоссе. Кто не понял сравнения, то вот другое. Взгляните на дверь. Представьте, что в комнате 20 человек. Что бы покинуть комнату, требуется, предположим 2-е минуты. А теперь, мысленно сделайте дверь шире. Что бы одновременно проходило по 2 человека. И время на перемещение из одной комнаты в другую, вдвое сократилось. Выбирая видеокарту, помните правило: "шире лучше"(на девушек такое не распространяется) . Кстати о девушках, графический адаптер с шиной 512 бит, это "узкоколейка" в сравнении с "моей бывшей". И не шучу. Пишите в комментариях, если хотите почитать, авторские воспоминания, на "эту" тему. Возвращаясь к статье напомню, что к выбору разрядности шины(64,128,256,512 и тд.) следует отнестись аккуратно.
Ошибка 4:"Брать надо только с RTX". Трассировка лучей, на октябрь 2020 года, используется только в 4-х играх. Так же трассировку пользуют, ряд программистов и дизайнеров. В других случаях, покупка видеокарт 20-й серии, это только финансовый аспект. Не стоит зацикливаться на лучах, ровно, как и скидывать со счетов. Посчитайте по деньгам и определитесь с бюджетом.
На этом "разбор" ошибок, при выборе графического адаптера завершен. Ставьте лайк. Подписывайтесь. До свидания.
При выборе комплектующих для сборки персонального компьютера часто допускаются ошибки. Приобретение видеокарты не является исключением. Зачастую трудно подобрать графический ускоритель, оптимальный для собираемого ПК.
В обзоре я хочу рассказать о наиболее часто допускаемых ошибках. И предоставить несколько советов по выбору видеокарт для игрового компьютера.
Использование связок видеокарт по технологиям SLI или CrossFireX
Технологии SLI и CrossFireX производителей NVIDIA и AMD , соответственно, позволяют использовать видеокарты в связке в одном компьютере. Потенциально это должно увеличить производительность и быстродействие в играх. Что, в первую очередь, выражается в увеличении количества кадров в секунду (FPS).
Однако покупка комплектующих и видеокарт (поддержкой технологий SLI и CrossFireX) для такой сборки в большинстве случаев нецелесообразна. Причин тому несколько. Основными из них являются сравнительно небольшой прирост быстродействия в большинстве игр и не сопоставимая с результатом стоимость ПК.
4. ДУМАТЬ, ЧТО ЧЕМ ДОРОЖЕ ВИДЕОКАРТА, ТЕМ ОНА ЛУЧШЕ
Объясню что я имею ввиду, дело в том, что есть карты от разных компаний, которые выпускают одну и ту же модель, пусть это будет GTX 1060, и продают они их либо дороже либо же дешевле. И вопрос в том, стоит ли платить больше или же взять по-бюджетнее?
Во-первых надо разобраться что такое референс и нереференс. Референсная видеокарта – это в первую очередь образцовый дизайн, сделанный разработчиком графического чипа. В магазинах обычно продаются так называемые модифицированные версии видеокарт от различных компаний партнеров, то есть нереференсы, от таких компаний как: Asus, GigaByte, MSI, Inno3D, Sapphire, Palit.
То есть по сути это те же видеокарты с измененной системой охлаждения, в большинстве случаев повышенными частотами и усиленной или ослабленной системой питания. Это три вещи, которые могут делать вендоры с картами, изменять сам графический чип им - нельзя.
И тут может возникнуть вполне логичный вопрос: а зачем вообще проводить какую-либо модификацию видеокарты, ведь можно продавать только референсные варианты? Всё дело в том, что референсные модели по умолчанию являются чем-то средним и подойдут далеко не каждому пользователю, да и в конце концов разнообразие — это всегда хорошо. Но порой глаза разбегаются от всего этого и фиг его знает какую выбрать, потому как одной только GTX 1060 несколько вариаций и все они разнятся по цене. А какую же взять?
Скажу так, самые дешевые версии изначально подразумевали более худшее охлаждение в виде какого-нибудь бруска алюминия, экономию на материалах корпуса, более простую схему питания, из этого могут вытекать температуры чуть выше в сравнении с более дорогими собратьями и соответственно чуть меньший запас по разгону такой вот дешевой версии в остальном же это всё та же карта.
Но что может предложить дорогая версия? Усиленную цепь питания, продуманную систему охлаждения с тепловыми трубками, которая позволит достичь высоких частот, а разгон между прочим может дать от 10 до 20% прироста. А какую именно версию выбирать, я думаю вы решите сами. Но в самом бюджетном сегменте, я советую выбирать недорогую версию. А вот в топовом однозначно рекомендую брать с хорошим охлаждением, от той же Gigabyte, Palit или ASUS, хоть и у последней цена несколько завышена.
Выбор графического ускорителя по объему памяти
Пожалуй, основной ошибкой при выборе видеокарты для игрового ПК является приоритет объема памяти. Я бы не советовал обращать на него внимание в первую очередь. Ведь только объем видеопамяти мало о чем говорит.
Для примера я возьму два сравнения. Видеокарты NVIDIA GeForce GTX 960 на 2 и 4 Гб имеют практически идентичные технические характеристики. В принципе, они отличаются только объемом графической памяти. И здесь все очевидно. При большем объеме памяти меньше фризов и количество подгрузок, выше FPS.
Однако если рассмотреть такие варианты, как NVIDIA GeForce GTX 1050 Ti с 4 Гб и GeForce GTX 1060 с 3 Гб, то не все так однозначно. У последней видеокарты более мощный графический процессор, большинство технических характеристик тоже лучше. Меньше только объем видеопамяти. И это не мешает GTX 1060 показывать намного более высокие результаты по FPS практически во всех играх. Даже в тех, где 3 Гб недостаточно для полноценной работы.
В итоге, объем графической памяти, безусловно важный показатель при выборе видеокарты для игрового компьютера, но не первостепенный. Его стоит учитывать после сравнения графических процессоров, шины, количества ядер.
1. СМОТРЕТЬ НА ОБЪЕМ ПАМЯТИ В ПЕРВУЮ ОЧЕРЕДЬ
Да, звучит банально, но в действительности я знаю некоторых людей, которые смотрят на объем памяти, и если бы они увидели видеокарту и им сказали, что там 4 гб, то это означало, что такая видеокарта игровая! Но от части это неправильно.
Конечно, объем памяти важен, не спорю, но делать акцент только на нем - не правильно. В действительности же производительность видеокарты в основном зависит от видеочипа, а видеопамять лишь хранит данные для него, хотя при недостаточном её объеме, видеочип не раскроет весь свой потенциал.
Простой пример, у нас есть GTX 960 на 2 гигабайта и на 4 гигабайта, и видим, что разница есть, но на 2 гигабайтной чаще происходят фризы из-за банальной нехватки памяти, и буфер обращается оперативной памяти чаще поэтому и FPS проседает.
Вот ещё несколько другой пример, не так давно большинство техно блогеров записывали видео на счёт того, что же лучше GTX 1050ti на 4 гигабайта или же 1060 на 3 гигабайта, на самом деле лучшей по производительности картой оказалась как ни странно 1060 на 3гб, просто потому что чип у неё мощней, CUDA ядер больше, да и просто, если не смотреть на объем памяти по всем характеристикам она обходит GTX 1050ti.
Поэтому мой вам совет, смотрите реальные тесты и поменьше смотрите на эти цифры, потому как порой они могут быть обманчивы. Понятное дело, что в будущем требования к видеопамяти будут только расти, но в настоящее время в абсолютном большинстве случаев для разрешения Full HD достаточно карт с 4 гигабайтами памяти, а 3 гигабайта является, пожалуй, допустимым минимумом.
А вот самым недорогим видеокартам достаточно 1 гигабайта, с таким объемом можно поиграть в самые нетребовательные современные игры, но не забывайте, что видеочип тоже должен быть по производительности более менее сносным, выпущенным не раньше 2010-11 года и тогда игры вроде Dota 2, Cs Go, вы сможете запустить и даже Fortnite и Pubg, но тут уже зависит от возможностей видеочипа.
Однако на постоянную основу я брать вам не рекомендую. Она может сгодиться лишь как временная затычка. Такими картами могут быть: GTX 750ti на 1 гигабайт, HD 6770, 7850, GT 1030 - эти карты потянут некоторые современные игры на минимальных настройках. Бюджетным игровым видеокартам как минимум нужно 2 гигабайта, но рекомендуется 4 гигабайта. С 2 гигабайтами рассчитывать на высокие настройки в большинстве игр не приходится, потому как AAА тайтлы уже жрут от 3 и больше Гб на настройках чуть выше средних.
С 4 гигабайтами уже можно позволить себе больше, выставить тени повыше, текстуры по чётче!
6 гигабайтами уже можно разгуляться на ультра настройки, но правда лишь на Full HD, для 4k уже нужен объем побольше, если говорить о ультра настройках.
А вот с 8 и выше гигабайтами, понятное дело, что тоже можно выставить ультра, но еще и запас на будущее останется. Также такой объем подойдет для самых высоких разрешений.
2. СОБРАТЬ СБОРКУ С SLI\CROSSFIRE
Брать в связку две видеокарты в 2018 или 19 году с практической точки зрения не рационально.
Во-первых, производительность увеличиться не равноценно вложенным деньгам, то есть получить 2-ух кратный прирост производительности у вас не получится, в редких случаях прирост составляет 80-85%, но вы должны понимать, что в большинстве игр этот самый Sli\CrossFire реализован, мягко говоря, через одно место.
Лично по своему опыту скажу, что это того не стоит. У меня были две 1070, одну из которых я потом продал, потому как понял, что это полная шляпа. Во-первых это температуры, они высокие, у верхней карты уж точно, даже несмотря на то что вы возьмете карту турбинного типа, а если брать с обычными кулерами, то +10-15 градусов обеспечено. С одной стороны, зимой греть ноги о ПК самое то, вот тут две видеокарты как раз будут кстати.
Во-вторых нужно много места в корпусе и иметь как минимум 2 кулера спереди для лучшего обдува этих самых карт, это для тех у кого с отоплением всё в порядке.
В-третьих это оптимизация, далеко не все игры поддерживают поддержку двух видеокарт, то есть вторая карта будет простаивать в некоторых играх, а некоторых если и будет работать, то возможно будут фризы, просадки по фрэймтайму, что не есть хорошо.
Также для построения SLI и CF, необходима материнская плата с поддержкой этих технологий и они, как очевидно, несколько дороже тех, которые не имеют такой поддержки.
Также в случае с Nvidia карты должны быть одинаковыми, то есть нельзя поставить 1070 и 1080. А вот с AMD всё проще тут можно объединять карты одного поколения, то есть RX 570 и RX 580. В общем, суть ясна.
И всё же CF и SLI – это удел энтузиастов. Объединять есть резон только топовые карты, что в принципе и произошло в 10, 20 поколении карт, когда Sli можно сделать только начиная с 1070 и 2070..
На перспективу брать мат. плату с поддержкой данных технологий и рассчитывать, что через год-два будет вторая карта, я бы не стал. Выйдут новые карты, проще сменить карту и не заморачиваться по поводу охлаждения и оптимизации игрушек. Поэтому при построение системы с нуля необходимо точно определиться, планируете ли вы ставить 2 карты сразу или это лишь иллюзия перспективы. Но лично, по моему мнению, одной топовой карты достаточно абсолютно для всех задач.
Новизна
Неопытные пользователи предпочитают больше доверять графическим адаптерам нового поколения, считая, что они изначально лучше и сильнее старых. Как уже было сказано в предыдущих пунктах, изначально нужно обращать внимание на характеристики компонента.
Так, новые модели могут быть значительно слабее по сравнению с моделями старого поколения.
Если вы решили приобрести качественный продукт, который не разочарует ваши ожидания, придется приложить силы и время для изучения всех его свойств, чтобы прийти к правильному выбору.
Объем памяти
Часто покупатели думают: чем больше объем памяти, тем мощнее производительность. Данное суждение не верно.
За этот пункт отвечает количество исполнительных блоков, рабочие частоты и архитектурные особенности, а память — это только место хранения для данных компонента.
Поэтому даже тяжелые игры и программы могут легко работать на картах не с самым большим объемом памяти. Несомненно, при покупке этот фактор тоже нужно учитывать в комплексе с остальными данными.
Характеристики ПК
Совместимость видеокарты никак не связана с моделью и семейством процессора. Если компонент использует интерфейс PCI-e и поддерживается вашей операционной системой, она будет исправно работать.
Технические неполадки при установке и несовместимости компонентов возможны только в отношении «видеокарта и материнская плата».
Такой вариант — это скорее исключение, чем правило. Вы можете использовать старую видеокарту в новой сборке компьютера или новую видеокарту в старой сборке.В любом случае она должна работать исправно.
Размер
Банальная ошибка, о которой многие пользователи даже не задумываются — размер. При покупке обязательно учитывайте место, отведенное под видеоадаптер внутри системного блока и силу блока питания. В случае новый компонент может попросту не поместиться в подготовленный для него системный блок.
Система охлаждения и цепь питания
А вот на что стоит обратить внимание, так это на эффективность системы охлаждения, мощность цепи питания. Ведь их показатели напрямую влияют на срок службы видеокарты, ее надежность и стабильность в работе при высоких нагрузках на GPU в играх.
3. БРАТЬ НОВОЕ ПОКОЛЕНИЕ ВИДЕОКАРТ, СЧИТАЯ ЧТО ОНО ЛУЧШЕ
В заголовках Nvidia или AMD иногда показывая новую видеокарту говорят, что она производительней старой в несколько раз, чуть ли там не до 6 раз, да, именно так написано на официальном сайте nvidia и естественно не уточняется где именно в 6 раз, но по факту получается, что производительность имеется ввиду в расчете RTX лучей, и да, благодаря искусственному интеллекту и тензорным ядрам новые видеокарты до 6 раз быстрее просчитывают данную технологию.
Но если сравнивать карты лоб в лоб исключая эту технологию в виде RTX, то разница между 1080ti и 2080ti около 20%, что до 6 раз ей далековато. И да, обычно именно эти 15-20% сохраняются, то есть каждое новое поколение быстрее предыдущего именно на столько, но не всегда, иногда на более тонкий техпроцесс получается выжить больше производительности из той или иной архитектуры.
Поэтому смотрите тесты прежде чем купить видеокарту. И не один обзор, а несколько, чтобы иметь полную картину производительности и рациональности обновления на новое поколение.
Характеристики разрядности
Так же, как и в предыдущем пункте в данном случае нельзя делать выводы обо всем компоненте по одной характеристике. Так, помимо разрядности канала, соединяющего память и графический процессор видеокарты важно учитывать рабочие частоты и тип памяти.
Читайте также: