Почему нет видеокарт 1060
Хочу купить монитор на 27 дюймов. Конечно можно взять фхд, но будет видна пиксельная сетка. Смотрел на юпупе тесты, но там в основном старые игры и абирбощ с арехом.
У меня 27 дюймов и фулл хд, никакой сетки не видно, все норм, ну конечно если прям в упор не смотреть
Комментарий удален модератором
Вот да. Приличные моники стоят каких-то неприличных денег.
даже если не на ультрах - нет, для 1440р желательно минимум 1080
В ACO играл на 4к телеке ультра (только тени средние и сглаживание низкое или среднее стояло). Вполне играбельно было. Не 60 фпс, чуть ниже, но и играть не было отвратно.
У меня 1060 6GB и 2k моник на 27 дюймов. Можете забыть об ультра настройках почти во всех современных тайтлах, если хотите нормальный фпс. Я почти всегда вырубаю всякую постобработку и подобные фичи, но сижу с максимальным размером текстур. Примеры того, как это будет выглядеть.
а хайрезные текстуры ну такое)) если специально ходить глядеть
Лучше делать наобарот) эфекты много не жрут но в динамике картинка будет лучше выглядеть)
Да я и на 1080p с 1060 6gb в большинстве новинок не вспоминаю про ультра.
1440p лучше запитать 1070/1660Ti и выше
Я свой 1440p взял когда у меня в компе стояла GTX 660. Приключение не сильно веселое было, но сейчас у меня 1080Ti и ее вполне хватает. На счет 1060 не скажу, но мне бы не хватило. Это индивидуально . В любом случае ты монитор обычно покупаешь на гораздо больший срок чем видяху, по этому может рассмотреть вариант покупки 1440p монитора с дальнейшем прицелом на апгрейд видеокарты?
Видюху год назад взял, менять не хочется
это все индивидуально. если действительно хочется новый монитор с большей диагональю и 1440, то почему бы не взять его. а видяшку и потом апгрейднуть можешь.
Я уже с год поигрываю на 32" 2560х1440 и 1060 6 гб (msi gaming X). Игрушки типа метро ласт лайт или скайрим - почти на максималках 60-75 fps дают, far cry 5 - на средненизких с редкими подтормаживаниями. До апгрейда жить можно, в общем :-) Но вот fullhd на таком мониторе смотрится ужасно, конечно.
Зависит от игр.
Но я бы сказал нет, т.к. далеко не все тянет в 1440@60
Играю на 1440р с 2013 года, тогда была 680-я, вполне тянула игры в таком разрешении на высоких настройках, но с ухищрениями, например, с таким разрешением в большинстве игр антиалиасинг уже не нужен, т.к. лесенок просто не видно (в современных ААА-играх разница с и без антиалиасинга заметна, но это из-за особенности внедрения 4К текстур). Впрочем, если нужны стабильные 60 фпс на ультра настройках, то 1060 маловато для 1440р. А если просто нравится играть в игры, то все будет ок :)
Если моник многогерцовый, то точно нет, графику придется ставить на самые низкие настройки в 1080p, чтобы выжать максимум фпс. Если 60hz, то возможно на средних вытянет в 1440p, но покупать 60hz моники сейчас, имхо, не имеет смысла.. Также немаловажную роль играет процессор, частота памяти и правильно выставленные тайминги у памяти (по умолчанию биос ставит минимальные), лично у меня при неправильной памяти, частоты которой не поддерживались материнкой, было минус 20-30 fps в играх.
Также хотелось бы отметить, что моники диагональю 27 дюймов уже не настолько удобные для игр, довольно далеко нужно переводить взгляд, чтобы видеть киллфид, радар, чат и прочие вспомогательные вещи, из-за чего рассеивается внимание и можно упустить важные для геймплея вещи. Или же отодвигать от глаз его нужно дальше, чем обычно, чтобы вся инфа была в зоне видимости. Для работы он очень хорош, а вот для игр хочется иногда скукожить )
Помню в думе или квейке можно было уменьшать игровую зону, вокруг появлялась рамка, очень не хватает такого функционала.
Сейчас для ультра в современных играх в фуллхд нужны 1660 ti или 2060, 1066 уже не потянет
У меня 980 то уже не все игры на высоких в 1080p нормально переваривает, а 1060 которая будет послабее и подавно не справится. Можно играть на средне-низком разрешении, но оно надо?
Но тем не менее, бери монитор и даже не думай, банально под будущий апгрейд.
Сижу на 1060 третий год, несколько месяцев назад взял себе монитор 3440x1440 для работы. Правда играл только в игры постарше. Из новинок успел поиграть в RE2 и DMC5. Первого проходил на высоких настройках графики с фпс ~40-45. Второй на момент написания комментария не адаптирован под ультравайд — с черными полосами по бокам на ультра-настройках играется в 60 фпс. Понимаю, что карту пора обновлять, но пока играется вполне комфортно
Последняя видеокарта Nvidia GeForce RTX 2060 действительно очень мощная для текущего поколения игр. Несмотря на то, что она почти в два раза дороже GTX 1060 6GB, повышение частот, которые вы получаете от RTX 2060, стоит того. Особенно если вы ищете карту для 2560×1440, которая может даже не напрягаясь на максимальных настройках.
Причина первая - мы не знаем, какой курс валют будет в 2021 году
реклама
"Верните мне мой 2014"
Никто из нас не знает, сколько будут стоить доллар и евро в 2021 году, а ведь курс валют влияет на цену видеокарт гораздо сильнее, чем бум майнинга. Продав сейчас видеокарту, вам придется ждать несколько месяцев, пока цены придут в норму даже при неизменном курсе валют.
Новинки всегда стоят дорого, а если и доллар с евро вырастут в цене, новая и мощная видеокарта может стать предметом роскоши. Конечно, сумму можно хранить и в валюте, но, чтобы получить "профит", курс ее должен измениться очень заметно.
Производительность GTX 1060 против RTX 2060 в 1080p
Начнем с производительности 1920×1080. Как видно, разница довольно значительная. GTX 1060 всегда был хорошим для игр с разрешением 1080p, но сейчас карта сдает свои позиции, и в большинстве игр я получаю провалы в FPS ниже 60 кадров (Shadow of the Tomb Raider можно сбавить настройки AA до SMAAT x2).
1080p | RTX 2060 | GTX 1070 | GTX 1060 | RX 590 |
Shadow of the Tomb Raider | 94 | 80 | 57 | 70 |
Ghost Recon: Wildlands | 90 | 79 | 62 | 66 |
Far Cry 5 | 112 | 100 | 75 | 83 |
RTX 2060 просто справляется с всеми играми. Не говорю, что Shadow of the Tomb Raider плохо идет на GTX 1060 на самых высоких настройках, но если вы стремитесь к совершенству, то RTX 2060 привлекательнее.
То же самое происходит в Ghost Recon: Wildlands, всегда выше 60 кадров в секунду на RTX 2060. Для сравнения GTX 1060 мог осилить 50-75 кадров. Опять же: можно чуть снизить настройки графики, чтобы получать приятные и стабильные 60 кадров. А если у вас монитор с высокой частотой обновления, то с ним RTX 2060 уже не справится.
Так какой смысл в RTX 2060?
Если вы владелец GTX 1060 и хотите получать от 1440p монитора больше, то вам есть смысл подумать о покупке. Однако если у вас монитор 1080p, то GTX 1060 прослужит вам еще долго, особенно если вы не мечтаете о рейтрейсинге в играх.
Эффективность (соотношение фреймрейта в играх к цене карточки) RTX 2060 почти совпадает с RTX 1060. Цена кадра в секунду не изменится, если вы предпочтете более дорогую RTX 2060. Но примечательно, что она становится беспроигрышной альтернативой GTX 1070 и 1070 Ti.
Заглянув на Авито и увидев как подскочили цены на видеокарты, я чуть было не выставил на продажу свою GeForce GTX 1060, но вовремя остановился, и сейчас расскажу почему.
Скорее всего вы уже в курсе того, что майнинг снова выгоден, курс биткоина штурмует исторический максимум, а цены на видеокарты растут как на дрожжах. Ситуация очень напоминает бум майнинга в 2017 году и многие владельцы видеокарт сейчас думают, что им делать - начинать майнить? Или выгодно продать видеокарту на пике цен?
реклама
GeForce RTX 3060 Ti
Ведь вот-вот выходят видеокарты GeForce RTX 3060 Ti, а вслед за ними и AMD Radeon RX 6700 (XT), которая будет нести на борту целых 12 Гб видеопамяти. Продать сейчас старую видеокарту семейства Pascal - очень удачное решение, если вы не собираетесь заниматься майнингом и я отправился смотреть, по каким ценам мою старушку GeForce GTX 1060 6 Гб можно продать на Авито.
реклама
MSI GeForce GTX 1060 Gaming X - одна из лучших моделей GeForce GTX 1060
Как оказалось, за нее можно выручить 11-12 тысяч рублей и первой моей мыслью было - "Эх, сейчас продам за 12000 рублей, потом биткоин и доллар упадут в цене, и через несколько месяцев куплю GeForce RTX 3060 Ti за 28000 рублей!".
И я кинулся чистить видеокарту от пыли и устанавливать FurMark и MSI Kombustor, для демонстрации ее работоспособности покупателю. И готовить на замену видеокарту-"затычку", которой на сегодняшний день у меня является ATI Radeon HD 4870.
реклама
Sapphire RADEON HD 4870 1 Гб
Но потом, тщательно обдумав ситуацию, я отказался от продажи и решил оставить у себя GeForce GTX 1060 еще, как минимум, на несколько месяцев, и сейчас я расскажу вам почему. В первую очередь эти аргументы будут полезны владельцам сопоставимых по производительности и цене видеокарт, или ценой ниже, чем б/у GeForce GTX 1060.
Причина третья - выигрыш не такой уж и большой
Конечно, совсем неплохо продать сейчас старую видеокарту по хорошей цене, но если подсчитать выигрыш, то он не особо впечатляет. Ну продадите вы GeForce GTX 1060 не сейчас за 12000 рублей, а летом 2021 за 8000 рублей - не такая уж и критичная разница.
Причина четвертая - хороших игр мало, а те что есть, нормально идут даже на GeForce GTX 1060 в 1080p
Когда я обдумывал продажу GeForce GTX 1060, я спросил себя - "а ради каких, собственно, игр, это все затевается?". Почти все новинки 2020 года нормально играются на GeForce GTX 1060 и пока она заметно сдает позиции только в Horizon Zero Dawn, Assassin’s Creed Valhalla и Watch Dogs Legion.
GeForce RTX 3060 Ti будет слишком избыточна для игры в 1080p и 60 FPS, а покупать в 2021 году GeForce RTX 3050 Ti с всего лишь 6 гигабайтами памяти - решение, как по мне, очень спорное.
Я скажу больше, подавляющее большинство ПК-игр прекрасно идет на GeForce GTX 1060 6 Гб и сейчас, спустя 4.5 года после ее выхода на рынок, а уж GeForce GTX 1070 - это вообще идеальная видеокарта для FULL HD.
Причина шестая - сидеть без игр очень тяжело
Не знаю как вы, а если я продаю игровую видеокарту из ПК и начинаю пользоваться интегрированной, мне сразу остро хочется играть в требовательные игры. Даже если перед этим я три месяца не запускал ничего требовательней, чем Heroes of Might and Magic III: Horn of the Abyss.
Вот по таким причинам я не стал продавать GeForce GTX 1060. К тому же, она вполне справится с Cyberpunk 2077, а это - главная характеристика видеокарты на ближайшие месяцы.
Пишите в комментарии, а будете ли вы продавать сейчас старую видеокарту и покупать новую?
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Это не значит, что на этой видеокарте технология работать не будет, но эффективность вызывает у представителей АМД вопросы
Технология трассировки лучей уже больше трёх лет шагает по миру, но так и не стала массовой. Коронавирус и дефицит полупроводников вначале выбили крупных производителей из колеи, а после в дело вступили майнеры, не оставившие шансов для обычных геймеров купить современную видеокарту. А вообще к трассировке лучей есть масса претензий, главная из которых – это невыразительные эффекты. Да, есть впечатляющие сцены, где графика выглядит неплохо, но в большинстве случаев это бесполезная технология, которая только замедляет игру, оказывая негативное влияние на количество кадров в секунду. Помочь делу должна была продвинутая технология Deep Learning Super Sampling, которую все вы знаете под именем DLSS. Она действительно хороша, но из-за специфической политики NVIDIA остаётся нишевой и в будущем и вовсе может уступить место аналогу от AMD.
реклама
Здесь самое время вспомнить, что красные ещё в 2020 году обещали положить зелёных на лопатки по этому вопросу. В 2021 даже вышла первая версия FSR (FidelityFX Super Resolution), но догнать и тем более перегнать Дженсена Хуанга пока не удалось. Известно, что к выходу готовится более продвинутая версия, именуемая FSR 2.0. Нам обещают чуть ли не переворот, хотя в последнее время Лиза Су не радует своих преданных фанатов. Поэтому мы рекомендуем раньше времени не обнадёживаться, тем более что есть настораживающая официальная информация. Прежде всего нужно понимать, что FSR работает как с видеокартами AMD, так и с NVIDIA. Теоретически, если красным удастся обойти зелёных, то смысла оптимизировать игры под DLSS у разработчиков не будет. Мало того, первая версия FSR вообще работала со старыми видеокартами, в то время как у NVIDIA список сильно ограничен.
Так вот, речь о том, что недавно AMD опубликовала официальный перечень графических чипов, которые могут поддерживать FSR 2.0. Одновременно с этим указывается, в каком разрешении лучше играть, что даёт понимание позиционирования того или иного графического чипа. Как видите, минимальным для разрешения 1080р является Radeon RX 6500 XT, а вот являющаяся до сих пор самой популярной GeForce GTX 1060 в списках не значится. Точно также там не упоминаний и о Radeon RX 580. Или в AMD забыли о своём самом продаваемом графическом чипе за последние несколько лет?
Компания Nvidia часто обвиняется в том, что понижает производительность видеокарт с помощью драйверов. Иногда этому удается найти доказательства, но чаще всего при перепроверке они оказываются несостоятельными. Здесь я попытаюсь объяснить, каким образом на самом деле замедляют драйвера.
Как эталон, возьмем GTX 1080Ti с теоретической производительностью в 11.3 терафлопс. В конкуренты поставим RTX 2080 с 10 терафлопс. Как мы видим, их производительность практически аналогична и даже с небольшим выигрышем у GTX 1080Ti, что подтверждается независимыми результатами:
В момент выхода RTX 2080 осенью 2018, видеокарта выдавала равное количество кадров в секунду/FPS в сравнении с референсом GTX 1080Ti практически во всех играх:
К началу года спроса на новые Turing нет, старые Pascal уже давно распроданы майнерам. Выручка падает, инвесторы недовольны, капитализация снижается. Нужно что-то делать.
Химичить с производительностью в старых играх опасно и контрпродуктивно - активные граждане могут это заметить, что приведет к различным репутационным потерям, судебным искам от обществ по защите прав потребителей и все недовольные просто откатятся к старым версиям дров.
Но тут выходит наиболее ожидаемая игра года на ПК - Red Dead Redemption 2. Все, что остается сделать - это скрутить потенциал прямых конкурентов текущей линейки Turing, то есть GTX 1060, 1070, 1080 и т.д. Каким образом это достигается? Все просто, грузим в новой игре RTX 2080 на 100%, а GTX 1080Ti на 70-80%. Также делаем и с остальными. Смотрим результат:
Все видеокарты Nvidia прошлого поколения показывают отвратительные результаты. Но почему GTX 1080Ti оказалась даже хуже RTX 2070 Super? Потому что Nvidia выпустила промо, где прямо заявила, что 2070S лучше 1080Ti, которое изучал журналист издания Forbes.
Но ведь пользователи не дураки, плохую оптимизацию дров можно легко заметить через программу MSI Afterburner по уровню загрузки GPU ниже 99%. Однако, нужно знать небольшой нюанс - чем сильнее загружена видеокарта, тем больше электричества она потребляет, тем больше ее температура из-за энергопотребления.
Если в игре 2017 года с ультра настройками графики Total War: Warhammer 2 GTX 1080Ti грелась до 68С при 50% оборотах вентилятора и 99% загрузки чипа:
То уже в игре Quake 2 RTX 2019 года, призванную продемонстрировать всю мощь трассировки лучей, GTX 1080Ti грелась лишь до 64℃ при 35% оборотах вентилятора и выдавала всего 40FPS при разрешении 800x600(фото iPhone X):
Симулировать плохую оптимизацию на самом деле весьма сложно, ведь нужно будет писать лишний код, а это может привести к различным багам и вылетам. Гораздо легче сымитировать 100% загрузку при фактических 70-80%. А от недозагруженной видеокарты уже можно ожидать и невысокое энергопотребление, как и температуру.
Сотрудники Nvidia не раз заявляли, что видеокарты предыдущих линеек оптимизируются хуже, нежели текущая архитектура. Это объясняется простым желанием сократить расходы. Как например, в этом интервью:
Но у графического подразделения AMD бюджет в несколько раз ниже бюджета Nvidia. Тем не менее, с каждым годом некогда паритет между RX 580 и GTX 1060 развеивается все сильнее в пользу красных. И таких случаев действительно множество, что породило мем про карету из Золушки у зеленых, которая превращается в тыкву и гадкого утенка AMD, который вырастает и становится прекрасным лебедем.
Я глубоко сомневаюсь, что качество драйверов красных в течение нескольких лет после выхода видеокарты улучшается. Наоборот, оно даже падает из-за смены приоритетов, но по сравнению с намеренным подлогом Nvidia, результат оказывается просто колоссальным:
Что в таком случае остается делать обычным пользователям? При покупке видеокарт нужно осознавать, что вы покупаете текущую производительность лишь в среднем на два года, до выхода новой линейки. И хотя, официально заявляется, что поддержка видеокарт закачивается через 5-8 лет, как это было с видеокартами архитектуры Fermi, на самом деле видеокарта подвергается запланированному устареванию(planned obsolscence) намного раньше.
И если Apple обосновывала замедление айфонов постепенной деградацией батареи, то Nvidia обвинить невозможно, т.к. в отличие от AMD, она не открывает драйвера даже для устаревших видеокарт, чтобы те могли поддерживаться и изучаться сообществом.
P.S.: Объяснение. Драйвера старых игр остаются без изменений. Драйвера для новых игр умышленно делают такими, чтобы они не использовали видеокарты прошлых линеек на всю мощь. Иначе говоря - вы купили новую Tesla, в первый год вам дают ездить на 300км/час, второй год 280км, третий 250 и т.д.
Короче как обычно - тонна воды и ни одного конкретного теста или подтверждения тому, что нвидиа скручивает производительность паскалям. А то, что новые игры оптимизируются в первую очередь под новый Тьюринг - это как бы ожидаемо. У АМД нет такой возможности, так как 580 у них по сути самое новое предложение в ее сегменте. Вот и оптимизируют под неё до сих пор.
Самое смешное, что чувак взял видосы с канала (PRO Hi-Tech) на котором производили тесты видеокарт на разных драйверах, и не нашли подкруток, а даже наоборот, увидели повышение производительности на более новых драйверах.
Автор вчера зарегистрировался и сразу же выдал жирную говностатью, которая составлена так, что бы хомячок в неё поверил. Первая же фраза про терафлопсы - хомячок свято бы поверил, ибо для него это марка производительности, в то время как разбирающийся в железе человек после сравнения карт с разной архитектурой по флопсам сразу же статью промотает до конца, вмажет минус и закроет вкладку
Короче, это тупорылая заказуха, не иначе
AMD и не нужно оптимизировать под каждую новую серию отдельно (кроме Navi), т.к. архитектура GCN в основе своей практически и не изменилась с момента своего появления, поэтому все оптимизации автоматически распространяются в той или иной степени на старые видеокарты. Nvidia же многое постоянно правит у каждой новой архитектуры, поэтому и оптимизировать нужно более индивидуально.
Речь в статье не об этом. Фиктивная догрузка карт - не миф. Денуву, кстати, как официальный пример "балластной загрузки" - в ту же копилку. Пользы от неё игроку - ровно столько же.
Какой тебе тест? Сидел я с 2012 года на i5 -3470+ gtx750gaming и прошел на старых дровах ведьмака 3 с добротными настройками. Выходить вульфенштейн и требует обновить дрова так как с картинкой в 8бит играть нереально. После установки все отлично, но ведьмак 3 уже начал подлагивать и система не справилась с предыдущими установками. Пришлось ответить дрова.
Ну как тебе сказать. Вобщем я провел свои тесты на 1060 и сравнил 2 драйвера. Подбирал специально по датам. Первый - июльский драйвер нвидии от 2018 года, в августе была представлена первая карта RTX поэтому рассчет был на то что в конце каррентгена карты еще не будут резать. Второй драйвер - один из новых на момент тестов 432 драйвер который вышел уже с RTX и для RTX карт. В ксго фпс заметно просел на тех же настройках. Падение было 20-30% примерно. Также просел фпс и в Watch Dogs 2 (было 50-60 стало 35-45) и в GTA 5 и даже в Assasins Creed Odyssey - казалось бы игра вышла после RTX поколения и уж в ней то новый драйвер должен растоптать старый, показать оптимизацию и преимущество. Нет, опять же та же петрушка с падением до 30% фпс. Так что правда в том что падение есть и в этом легко убедиться когда мы возьмем например 2 видоса с любого канала по игровым тестам и сравним в одной какой-нибудь игре данные по видеокарте на текущий момент и на момент 3-4 лет назад. На старом обзоре за который занесли денег 1060 прям таки идеальна для Full HD и лучшая покупка. На новых, где хвалить надо уже скажем 3070 то мы тут же показываем какая карта стала немощная в той же игре. И дело тут не в обновлениях игр, а в том что реального прогресса кот наплакал. Получается как с i7-6700 и i7-2600K когда пользователи 2600К разогнав его до частот 6700 с удивлением обнаружили что однако прирост на равной частоте у 6700 не такой значительный. А ведь прошло 5 лет. Именно поэтому карты старые режут так как иначе маркетологи не смогут врать про 200% прироста относительно прошлой линейки.
Производительность GTX 1060 против RTX 2060 в 1440p
И вот мы добрались до сути вопроса. GTX 1060 все еще вполне хорошая карта в разрешении 1080p, а вот производительность при 2560 ×1440 падает (или оставляет желать лучшего). Но это все еще неплохой выбор для 1440p, если вам достаточно средних настроек. RTX 2060 тут чувствует себя вполне комфортно, но не максимально.
1440p | RTX 2060 | GTX 1070 | GTX 1060 | RX 590 |
Shadow of the Tomb Raider | 64 | 50 | 35 | 47 |
Ghost Recon: Wildlands | 68 | 59 | 44 | 49 |
Far Cry 5 | 81 | 70 | 50 | 59 |
В большинство современных игр с GTX 1060 просто не сможете играть на максималках. Иногда даже просадки ниже 30 кадров в секунду.
Ладно. RTX 2060 позволяет улучшить качество игры не менее, чем на 50%, а то и 80% в Shadow of the Tomb Raider (опять же, с SMAA x4 эффектом сглаживания). Приходится признать, что в большинстве игр эти заветные 60 кадров в секунду будут не всегда. Но если раньше приходилось раскошелиться на GTX 1070 или 1070Ti, которые в тех же играх дают похожие RTX 2060 цифры, это все равно довольно неплохо. Особенно если учитывать, что RTX 2060 стоит дешевле GTX 1070Ti.
Причина вторая - чтобы долго жить без игровой видеокарты, нужно иметь хорошую замену или "встройку"
По меркам видеокарт-"затычек" ATI Radeon HD 4870 еще вполне бодрая видеокарта, которая позволит поиграть даже в The Elder Scrolls V: Skyrim. Но сейчас, в 2020 году, такие видеокарты являются жутко устаревшими в плане энергопотребления. Ее фактическое энергопотребление доходит до 160 ватт, что вроде бы вполне приемлемо, но все портит энергопотребление в простое, которое зашкаливает под 100 ватт.
Даже при просмотре роликов youtube ATI Radeon HD 4870 переваливает за психологическую отметку в 100 ватт потребления, а температура моего экземпляра доходит до 80 градусов. За несколько месяцев эксплуатации этот антиквариат съест электричества на большую сумму, чем стоит сам.
И это проблема многих старых видеокарт, не только от AMD. Да и надежность таких видеокарт под большим вопросом, а покупка еще одной "затычки" в хорошем состоянии - дело непростое.
Чтобы нормально пользоваться ПК, у вас должна быть или встроенная в процессор графика или энергоэффективная видеокарта-"затычка", например Radeon HD 7770.
Причина пятая - возможно ждать хороших цен придется слишком долго
Достаточно вспомнить, как старые поколения видеокарт заполняли рынок и вам станет понятно, что хороших цен может быть придется ждать очень долго. А если и курс биткоина будет расти, то ожидание может растянутся и на год, как в 2017 году.
Читайте также: