Мое мнение самые неудачные видеокарты amd
Слишком «урезанный» адаптер, в котором блоки аппаратного ускорения трассировки лучей лишь «для галочки».
19 января AMD объявила о старте продаж видеокарты начального уровня Radeon RX 6500 XT. Компания позиционирует её как графический ускоритель для гейминга в 1080p и считает, что он станет заменой адаптерам уровня GeForce GTX 1650 и Radeon RX 570.
В день начала продаж видеокарты в сети появились первые обзоры Radeon RX 6500 XT. Выбрали из них главное.
- Графический процессор — Navi 24 (6 нм)
- Исполнительные блоки — 16
- Потоковые процессоры — 1024
- Блоки аппаратного ускорения трассировки лучей — 16
- Игровая частота — 2610 МГц
- Максимальная частота — 2815 МГц
- Память — 4 ГБ GDDR6, шина 64 бит, пропускная способность 144 Гбайт/с
- Кеш-памяти Infinity Cache — 16 Мб
- Энергопотребление — 107 Вт
- Линии интерфейса PCI Express 4.0 — 4
- Поддержка декодера AV1 и энкодеров H264/HEVC — нет
- Разъёмы — DisplayPort 1.4a и HDMI 2.1 VRR
Обозреватели издания Tom’s Hardware считают, что AMD слишком сильно «урезала» технические характеристики RX 6500 XT для того, чтобы сделать видеокарту как можно дешевле.
Бюджетный процессор, 4 ГБ видеопамяти с 64-битной шиной и поддержка только четырёх линий интерфейса PCI Express 4.0 крайне негативно сказались на производительности адаптера. Для сравнения, даже предшествующая модель RX 5500 XT обладала поддержкой восьми линий PCIe 4.0.
Как результат, в тестах в семи играх на «средних» настройках при разрешении 1080p адаптер в среднем уступил RX 5500 XT как с 8 ГБ, так и с 4 ГБ памяти. В Tom’s Hardware подчеркнули, что результаты в целом сошлись с заявлениями AMD. Согласно тестам компании, RX 6500 XT превосходит RX 570 с 4 ГБ памяти на 25%. Бенчмарки издания показали, что видеокарта обладает на 20% повышенной производительностью.
Средняя производительность в Borderlands 3, Far Cry 6, Flight Simulator, Forza Horizon 5, Horizon Zero Dawn, Red Dead Redemption 2 и Watch Dogs Legion на «средних» настройках
На «ультра» пресете при разрешении 1080p RX 6500 XT уступила RX 5500 XT и GeForce GTX 1650 Super с 4 ГБ памяти. При этом RX 5500 XT с 8 ГБ памяти продемонстрировала на 25% более высокую производительность.
Примечательно, что сперва AMD выпускала эту модель по той же рекомендованной цене, что и RX 6500 XT — 199 долларов. Обозреватели также отметили, что GTX 1060 с 6 ГБ памяти, вышедшая в середине 2016 года, лишь немного уступила RX 5500 XT.
Авторы издания TechSpot получили аналогичные результаты тестов, в большинстве из которых RX 6500 XT уступила предшествующей модели.
Результаты тестирования в играх со включённой трассировкой лучей оказались ожидаемыми. Видеокарта обладает лишь 16 блоками аппаратного RT-ускорения, чего не хватает для того, чтобы обеспечить приемлемую производительность.
Тесты на «средних» настройках со включёнными «лучами» показали, что RX 6500 XT неспособна обеспечивать более 20 fps в Metro Exodus Enhanced Edition, Cyberpunk 2077 и других требовательных тайтлах. Единственной игрой из протестированных, в которой средняя частота кадров была выше 30, стала «королевская битва» Fortnite. В Control тест и вовсе не удалось выполнить, так как игра потребовала поддержку DXR.
Учитывая результаты тестов при разрешении 1080p, в Tom’s Hardware не стали выполнять бенчмарки в 2K или 4K.
Никто не должен в принципе рассматривать RX 6500 XT в качестве видеокарты для игры в 1440p или 4K.
Среди плюсов видеокарты все обозреватели назвали высокую игровую частоту видеочипа — 2610 МГц, низкое энергопотребление и компактность. В издании PCWorld отдельно заметили, что небольшой объём видеопамяти не позволяет использовать карту для майнинга Ethereum. Благодаря этому графический ускоритель может стать доступным для покупки широким массам.
Обозреватели сошлись во мнении, что RX 6500 XT обеспечивает хорошую производительность в современных играх на «средне-высоких» настройках. Тем не менее из-за 4 ГБ видеопамяти в особенно требовательных тайтлах могут возникать трудности. В Tom’s Hardware полагают, что на это можно было бы закрыть глаза, если бы адаптер действительно продавался по рекомендованной цене 199 долларов.
Если вы как-то сможете купить Radeon RX 6500 XT за 199 долларов или около того, то за такую цену это неплохая видеокарта.
В издании TechSpot сильнее раскритиковали видеокарту, отметив, что она, ко всему прочему, не поддерживает декодирование AV1 и кодирование H264/265. Эксперты ресурса посоветовали отказаться от покупки RX 6500 XT за цену 300 долларов, по которой она поступила в продажу в США, и лучше присмотреться к более производительным картам на вторичном рынке.
В своих блогах я уже писал про самые удачные видеокарты и процессоры корпораций AMD, Intel и Nvidia. Теперь пришло время вспомнить самые неудачные видеокарты этих производителей. Самые медленные, горячие, прожорливые и технологически отсталые. Давайте вспомним их вместе.
После выхода блогов про самые удачные процессоры от Intel и AMD в комментариях зазвучали обвинения в моем "фанатстве" и преданности продукции одного производителя. Причем обвинялся я как в фанатстве в отношении продукции AMD, так и Intel.
реклама
Я много раз писал о том, что я беспристрастен в выборе комплектующих и покупаю то, что выгоднее и перспективнее на данный момент, поэтому не надо искать в моих блогах того, чего там нет. Поскольку обвинения в моей преданности корпорации AMD все же звучали чаще, новый цикл блогов, про самые неудачные видеокарты всех времен, я начну с продукции AMD.
реклама
Почему я не пишу ATI/AMD в названии блога? Напомню читателям, что компания AMD в 2006 году купила компанию ATI. Первое время это вызвало даже некоторую неразбериху среди пользователей и обзорщиков. Например, AMD Radeon HD 2900 XT иногда в обзорах называли ATI Radeon HD 2900 XT.
Но я считаю, что не стоит объединять продукцию ATI и AMD в критических блогах, поэтому возьму видеокарты 2006 года выпуска и позже. Хотя была мысль включить в этот список и ранние видеокарты, например ATI Radeon X600 XT.
AMD Radeon HD 2900 XT
реклама
AMD Radeon HD 2900 XT был выпущен в 2007 году и, как многим тогда казалось, должен был разгромить GeForce 8800 Ultra. Все косвенные признаки указывали на это, взять хотя бы шину памяти шириной в 512(!) бит. Но в реальности флагман AMD мог бороться только с GeForce 8800 GTS, да и то не во всех играх. Ситуацию усугубляло чудовищное для того времени энергопотребление в 215 ватт, неудачная и шумная система охлаждения и софтовые проблемы. В результате Radeon HD 2900 XT остался продуктом исключительно для энтузиастов, а основная масса игроков быстро забыла про него и продолжала пользоваться удачной линейкой видеокарт GeForce 8800.
AMD Radeon HD 5830
AMD Radeon HD 5830 был выпущен в 2010 году и позиционировался между очень удачной и популярной Radeon HD 5850 и не менее удачной и популярной Radeon HD 5770.
И вроде бы все было хорошо, но видеокарта получилась довольно странной: производительность на уровне старых Radeon HD 4890 или разогнанных Radeon HD 4870, но при этом большое по тем временам энергопотребление в 175 ватт. Напомню, что более быстрая Radeon HD 5850 потребляла всего 151 ватт.
В результате Radeon HD 5830 стал ненужен многим игрокам. Как замена Radeon HD 4870 и Radeon HD 4890 он не давал ни производительности, ни выигрыша по энергопотреблению. При этом был довольно дорог и получилась ситуация, что в массовые игровые компьютеры бралась Radeon HD 5770, а в более производительные - Radeon HD 5850
AMD Radeon R9 390X
Radeon R9 390X был выпущен спустя почти два года после Radeon R9 290X и по сути, являлся работой над ошибками предыдущей модели.
Практически, мы имели то же самое ядро, с тем же набором потоковых процессоров и текстурных блоков, но на чуть более высокой частоте, с более быстрой памятью объемом в восемь гигабайт и чуть сниженным, до 275 ватт, энергопотреблением.
Но эта работа над ошибками длилась почти два года и Radeon R9 390X банально опоздал, став, как и Radeon R9 290X, видеокартой для энтузиастов. На рынке уже вовсю царствовали GeForce GTX 970 и GeForce GTX 980 и игрокам попросту не нужен был Radeon R9 290X в новой обертке.
AMD Radeon R9 380X
AMD Radeon R9 380X вышел в 2015 году, в тяжелое для AMD время как на процессорном рынке, так и на рынке видеокарт. Radeon R9 380X являлся наследником удачной Radeon HD 7970, но четыре года - это очень долгий срок для графической архитектуры, даже для такой удачной, как Graphics Core Next (GCN).
По сути, его ядро Antigua был полной копией ядра Tahiti по конфигурации основных вычислительных блоков. Но частота ядра была ниже, шина памяти уменьшилась с 384 до 256 бит. И пользователи прекрасно понимали, что им преподнесли уже третью, после Radeon R9 280X, реинкарнацию одной и той же видеокарты.
Некоторую популярность она обрела, но бороться с GeForce GTX 960 и GeForce GTX 970 за кошельки игроков ей было очень тяжело.
С одной стороны, описанные видеокарты проиграли в свое время аналогам от Nvidia.
Но с другой стороны, спустя несколько лет, можно взглянуть на ситуацию совсем по другому. Ведь они имели больший объем памяти, большую вычислительную мощь, которая позволила им стать выгодными "числодробилками" в майнинге.
А самое главное - все они имели более длительную поддержку драйверами, и если сейчас сравнить Radeon R9 290X и GeForce GTX 780 Ti и даже более новые видеокарты в играх, картина будет совершенно иной.
Но никто не покупает видеокарты на будущее, пользователям нужно здесь и сейчас получить оптимальное сочетание производительности, энергопотребления и цены. Поэтому я записал эти видеокарты в "неудачные", как и большинство игроков тех лет, которые не стали их покупать.
В следующий вспомним самые неудачные видеокарты от Nvidia.
А пока пишите в комментарии, какие видеокарты и от AMD и от Nvidia вы считаете самыми неудачными?
Истории о плохих драйверах видеокарт AMD Radeon ходят по миру уже очень давно. И пусть зачастую это лишь следствие предвзятости или интерполяции своего собственного опыта на всю продукцию компании, часть правды в этом есть.
Но сейчас мы затронем тему не всех драйверов AMD, а лишь проблемы ПО у видеокарт Radeon RX 5700. Эти адаптеры вышли более полугода назад, но до сих пор действительно испытывают проблемы с драйверами, которые сама AMD официально признала.
Источник, столкнувшись с многочисленными отзывами на этот счёт, решил провести опрос на своём канале в YouTube и набрал почти 50 000 голосов.
Как видим, среди проголосовавших владельцев карт AMD почти половина встречалась с теми или иными проблемами с драйверами. Уточним, в данном случае подразумевались проблемы с теми видеокартами, которыми опрашиваемые пользуются сейчас. У Nvidia менее трети пользователей ответили на вопрос положительно.
В опросе нет выбора поколений видеокарт, но источник отмечает, что в комментариях очень многие пишут именно о линейке Radeon RX 5700.
При этом автор материала отмечает, что, во-первых, сам является владельцем такого адаптера, во-вторых, в его семье несколько ПК с такими видеокартами. Кроме того, такие видеокарты не раз проходили тестирования на сайте TechSpot, который и опубликовал данную статью. Однако при всём при этом наши коллеги, а также члены семьи автора лишь пару раз за четыре-пять месяцев сталкивались с какими-либо проблемами с ПО данных 3D-карт. Впрочем, опрос намекает на то, что им просто повезло.
Также не в пользу AMD говорит и другой факт. Автор опросил нескольких продавцов компьютерной техники, и те рассказали, что карты Radeon RX 5700 весьма часто приносят с жалобами, но проверка не выявляет никаких проблем, а это значит, что они тоже связаны с ПО.
Как итог, проблема действительно есть, и она достаточно велика, хотя неясно, как часто те или иные пользователи сталкиваются с какими-то её проявлениями. Также пока неясно, затрагивает ли она младшие модели RX 5600 XT и RX 5500 XT.
Собираю комп, мой друг говорит, никогда не бери AMD, они говно, бери только nVidia. Я не понимаю его? Почему? подобрал тут нормальную видеокарту radeon 9970, отлично по параметрам для меня подходит, у nVidia для меня не у одной видюхи нет такого сочетания параметров, но все ж мой друг меня отговаривает. Вопрос: Он идиот, или действитель AMD чем-то хуже и имеет свои недостатки? Хотя мне кажется, у каждого есть свои недостатки
это тупорылость русского менталитета, у нас и индукционные плиты с микроволновками бояться, к микро волновкам давно привыкли а вот с индукцией не сложилось (слово то страшное индукция. ) хотя за рубежом в европпе (систра по работе то в германию то еще куда рассказывает) давно уже на другом уровне живут в техническом плане.
а у нас?
профессиональный продавец быт техники - берите то что проверенно, это я не знаю и не советую потому га. но
бабушки за ними - то что проверенно, это я не знаю и боюсь
компьютерщики - только асус только интел только жиииифорс
ламеры за ними - только асус только интел только жиииифорс
мало людей которые хотят знать, много тех кто готов поставить диагноз и выдать вердикт основанный на догатках.
амд ати это немецкая компания, и по сравнению со многими конкурентами она движется правильно во всех направлениях, не уступая места во многих сегментах рынка, это и процессоры для десктопов и ноутов и видео карты .
видео карты последнее время мощнее от амд, инвидия не может представить уже 2 года что то конкурентно способное по цена-производительность, хотя флагманы у инвидя естественно самые сильные.
Инвидия поддерживает лидерство топами, но многие забывают про цену топа, а карты дешевле уступают амд картам в мощности.
Хотя это врятли кампания делает цены, маркетинг
Почему говорят, что AMD хуже nVidia.
Потому что кто -то "авторитетный чувак" сказал что АМД "ГАААВНО". AMD сейчас стало выходить вперед, делая качественные быстрые карточки. В принципе, и те, и те хороши.
AMD выигрывает в производительности и цене но много гемороя с дровами, а nvidia будет дороже но зато поставил и забыл.
Вообщем во-первых, если не ошибаюсь, у Nvidia гораздо меньше проблем с драйверами ( не то что проблемы, просто обновляются чаще чем amd), во-вторых уже есть несколько игр с поддержкой PhysX и в будущем их будет ещё больше, а эта технология поддерживается только видеокартами Nvidia , ( вроде более качественная физика в играх, разрузка цп или что-то подобное, точно не помню, но не лишняя вещь) ( например тот же Crysis 3 больше заточен под Nvidia) , плюс есть технология Nvidia CUDA ( что то там типа какого то ускорения, лично я ощутил прирост производительности от неё только в видеоконверторе, больше я не видел где её можно применить) , ну и стереотип как уже говорили, мол "интел лучше амд, а нвидия лучше амд", тут уже кому что нравится, но амд насколько я знаю очень часто дешевле в плане цена/производительность, так что сами решайте, стоит ли платить за CUDA и PhysX и возможно более хорошую поддержку ( чаще драйвера выходят и бла бла бла ) либо же сэкономить и купить амд. Скажу честно - я бы взял Nvidia, ну вот такой вот у меня стереотип, уже 7 лет сижу на ней, НО НИ В КОЕМ СЛУЧАЕ НЕ СЧИТАЮ "ГОВНОМ" АМД! ! Очень достойные видеокарты! Вообщем решайте сами, всё что написал тут - лично моё ИМХО, и может быть что-то неверно, так что в меня какахи не кидайте)))
Долбаные амд-дрочеры, как долго вы собираетесь сравнивать амд и радеон с интел и инвидиа, если у них задачи совсем разные, не считая того что амд всеголишь эмулируют
сегодня поставил радеон 6790 ис рвнил с н видиа джи ти 630 думал что мая карта просто лох но о чудо в танках я просто не поверил карта которая в три раза мощнее по параметрам (я про радеон) выдала на средних настройках 2 кадра и вылетела из игры что это _у мну стоит и стоит джи форс 630 ддр 5 правда но она выдаёт 45- 55 фпс
Многие люди IIДИОТЫ.
Например те кто смотрит новинки кино-индустрии в плохом качестве и с плохим переводом. Хотя можно сходить в кино или подождать 4 месяца пока на торентах лиценз появится.
Есть еще IIДИОТЫ которые играют на разрешении 800х600 и орут что у них все на ультрах 60 fps идет.
Про спор AMD и Intel и Nvidia я отвечу так.
AMD------Какашка
Подробно но коротко: (касается только игр)
AMD и AMD процессоры хуже оптимизированы под игры чем Nvidia или процессоры Intel. Отсюда и понижения fps и проблемы с драйверами и вылеты, зависания в играх.
AMD не могут добиться низкого энергопотребления (по сравнению с Nvidia и Intel), отсюда и температура и как следствие перегрев, шум.
Ни одна карта AMD на момент написания 19.05.2017 не позволит вам в требовательных играх, играть на максимальных настройках. Например GTA5 при FHD разрешении, ультра настройках и максимальном сглаживании будет давать провалы в FPS гораздо ниже 60. А про 4К вообще можно забыть.
Единственный плюс AMD это цена, но и тут я бы поспорил. Так как имея на руках n сумму денег я бы лучше искал уцененную или подержанную Nvidia чем новую за эти деньги AMD.
P.S. А еще не забывайте про маркетинг, он не мало важен. На до же продавать компы которые не будут тянуть игры то есть дешевые. (которые будут тянуть стоят дорого) Поэтому и орут AMD 8 ядер 16 потоков по 4,2 гигагерца Красиво звучит? Красиво, а на деле этот процессор будет хуже чем I5 4 ядра по 3,2 гигагерца на 30% (Многие спрашивают почему по характеристикам лучше а на деле хуже, гуглите я отвечу коротко это связанно с технологией производства и с архитектурой процессоров)
Ну только и можете засрать весь майл всякой хренью, если еще не засрали. Не знаете тогда и не пишите, что мощнее и лучше. Это выглядит что вы все дауны
AMD Radeon R9 390X
Radeon R9 390X был выпущен спустя почти два года после Radeon R9 290X и по сути, являлся работой над ошибками предыдущей модели.
Практически, мы имели то же самое ядро, с тем же набором потоковых процессоров и текстурных блоков, но на чуть более высокой частоте, с более быстрой памятью объемом в восемь гигабайт и чуть сниженным, до 275 ватт, энергопотреблением.
Но эта работа над ошибками длилась почти два года и Radeon R9 390X банально опоздал, став, как и Radeon R9 290X, видеокартой для энтузиастов. На рынке уже вовсю царствовали GeForce GTX 970 и GeForce GTX 980 и игрокам попросту не нужен был Radeon R9 290X в новой обертке.
AMD Radeon HD 2900 XT
AMD Radeon HD 2900 XT был выпущен в 2007 году и, как многим тогда казалось, должен был разгромить GeForce 8800 Ultra. Все косвенные признаки указывали на это, взять хотя бы шину памяти шириной в 512(!) бит. Но в реальности флагман AMD мог бороться только с GeForce 8800 GTS, да и то не во всех играх. Ситуацию усугубляло чудовищное для того времени энергопотребление в 215 ватт, неудачная и шумная система охлаждения и софтовые проблемы. В результате Radeon HD 2900 XT остался продуктом исключительно для энтузиастов, а основная масса игроков быстро забыла про него и продолжала пользоваться удачной линейкой видеокарт GeForce 8800.
AMD Radeon R9 380X
AMD Radeon R9 380X вышел в 2015 году, в тяжелое для AMD время как на процессорном рынке, так и на рынке видеокарт. Radeon R9 380X являлся наследником удачной Radeon HD 7970, но четыре года - это очень долгий срок для графической архитектуры, даже для такой удачной, как Graphics Core Next (GCN).
По сути, его ядро Antigua был полной копией ядра Tahiti по конфигурации основных вычислительных блоков. Но частота ядра была ниже, шина памяти уменьшилась с 384 до 256 бит. И пользователи прекрасно понимали, что им преподнесли уже третью, после Radeon R9 280X, реинкарнацию одной и той же видеокарты.
Некоторую популярность она обрела, но бороться с GeForce GTX 960 и GeForce GTX 970 за кошельки игроков ей было очень тяжело.
Заканчивая этот блог, испытываешь двоякое чувство. Особенно глядя на видеокарты после 2013 года.
С одной стороны, описанные видеокарты проиграли в свое время аналогам от Nvidia.
Но с другой стороны, спустя несколько лет, можно взглянуть на ситуацию совсем по другому. Ведь они имели больший объем памяти, большую вычислительную мощь, которая позволила им стать выгодными "числодробилками" в майнинге.
А самое главное - все они имели более длительную поддержку драйверами, и если сейчас сравнить Radeon R9 290X и GeForce GTX 780 Ti и даже более новые видеокарты в играх, картина будет совершенно иной.
Но никто не покупает видеокарты на будущее, пользователям нужно здесь и сейчас получить оптимальное сочетание производительности, энергопотребления и цены. Поэтому я записал эти видеокарты в "неудачные", как и большинство игроков тех лет, которые не стали их покупать.
В следующем блоге вспомним самые неудачные видеокарты от Nvidia. А пока пишите в комментарии, какие видеокарты и от AMD и от Nvidia вы считаете самыми неудачными?
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Почему я не пишу ATI/AMD в названии блога? Напомню читателям, что компания AMD в 2006 году купила компанию ATI. Первое время это вызвало даже некоторую неразбериху среди пользователей и обзорщиков. Например, AMD Radeon HD 2900 XT иногда в обзорах называли ATI Radeon HD 2900 XT.
Но я считаю, что не стоит объединять продукцию ATI и AMD в критических статьях, поэтому возьму видеокарты 2006 года выпуска и позже. Хотя была мысль включить в этот список и ранние видеокарты, например ATI Radeon X600 XT.
AMD Radeon R9 290X
Radeon R9 290X появился в конце 2013 года и должен был бороться с GeForce GTX 780 Ti. Первые обзоры новинки пестрели подозрительной графой "н/д" в разделе "энергопотребление".
Потом выяснилось, что заявленное энергопотребление составляло 290 ватт! Конечно, в этом плане GeForce GTX 780 Ti тоже отличался приличным аппетитом в 250 ватт, но он был быстрее и работал в нормальном температурном режиме.
Референсное же охлаждение Radeon R9 290X попросту не справлялось с охлаждением этого монстра, температуры доходили до 95 градусов даже при 3000 оборотов турбины.
Потом, когда партнеры AMD выпустили нереференсные карты, а пользователи стали осваивать андервольт, Radeon R9 290X стал более интересной и перспективной покупкой. Но первый бой был проигран Nvidia, массовый пользователь испугался чудовищных температур и энергопотребления.
AMD Radeon R9 290X
Radeon R9 290X появился в конце 2013 года и должен был бороться с GeForce GTX 780 Ti. Первые обзоры новинки пестрели подозрительной графой "н/д" в разделе "энергопотребление".
Потом выяснилось, что заявленное энергопотребление составляло 290 ватт! Конечно, в этом плане GeForce GTX 780 Ti тоже отличался приличным аппетитом в 250 ватт, но он был быстрее и работал в нормальном температурном режиме.
Референсное же охлаждение Radeon R9 290X попросту не справлялось с охлаждением этого монстра, температуры доходили до 95 градусов даже при 3000 оборотов турбины.
Потом, когда партнеры AMD выпустили нереференсные карты, а пользователи стали осваивать андервольт, Radeon R9 290X стал более интересной и перспективной покупкой. Но первый бой был проигран Nvidia, массовый пользователь испугался чудовищных температур и энергопотребления.
AMD Radeon HD 5830
AMD Radeon HD 5830 был выпущен в 2010 году и позиционировался между очень удачной и популярной Radeon HD 5850 и не менее удачной и популярной Radeon HD 5770.
реклама
И вроде бы все было хорошо, но видеокарта получилась довольно странной: производительность на уровне старых Radeon HD 4890 или разогнанных Radeon HD 4870, но при этом большое по тем временам энергопотребление в 175 ватт. Напомню, что более быстрая Radeon HD 5850 потребляла всего 151 ватт.
В результате Radeon HD 5830 стал ненужен многим игрокам. Как замена Radeon HD 4870 и Radeon HD 4890 он не давал ни производительности, ни выигрыша по энергопотреблению. При этом был довольно дорог и получилась ситуация, что в массовые игровые компьютеры бралась Radeon HD 5770, а в более производительные - Radeon HD 5850.
Читайте также: