Gtx 660 проблемы с памятью
Форум сейчас работает в тестовом режиме. Темы могут быть удалены или переименованы в процессе оптимизации. Спасибо всем за внимание и помощь форуму.
SERVICE CORE FORUM → Ремонт видеокарт → Nvidia GTX 660 Не работает в играх
1 Тема от DOBER 04.08.2018 23:18:17
Тема: Nvidia GTX 660 Не работает в играх
Приветствую, форумчане!
Пользуясь видеоуроками на вашем канале ютуба взялся за ремонт видеокарты.
Нужна помощь. Видеокарта MSI GTX 660 Twin FrozrIII 2Gв. Проблема в следующем. Карта определяется виндой, драйвера ставятся без проблем. В 2D все работает без проблем. FURMARK крутится часами без проблем, без вылетов и каких либо артефактов. Слабенькие игрушки типа CS1.6 Крутятся без проблем. Стоит запустить что то по тяжелее, например 3DMark Vantage или какого нибудь Ведьмака или танки - игра стартует и через минуту примерно черный экран и тишина или полный ребут компа. Заметил что память греется очень сильно - палец вообще не терпит. Память эльпида w2032bbbg-60-f . По даташыту vdd до 1.6 вольта. Замер в холостую в 2D мультиметром показал 1.4в, в фурмарке 1.7в. Вроде многовато. Сопротивления : чип - 16 ом, контроллер псие - 1.9 ком, память - 195 ом. Ради интереса запустил майнинг - работает нормально, без вылетов, память греется безбожно и сильно. Предполагаю смерть или деградацию части памяти. В правильном направлении думаю ?
Пробовал лепить радиаторы на память - игрушки работают на пол минуты дольше. Возможно нужно понизить как то напряжение на память до мксимум 1.6 вольта ? Разгон в фурмарке и майнинге небольшой держит.
Пробовал на разных компах с разными БП и на разных операционках. Все одинаково.
2 Ответ от 1servicecore 05.08.2018 10:18:09
Добрый день. Раз память рассчитана на работу на напряжении до 1.6В то 1.7В это многова-то. Возможно проблема в фильтрации питания памяти. видеокарта достаточно старая и со временем могли измениться параметры фильтрующих элементов. Для начала нужно посмотреть осциллографом пульсации в системе питания видеопамяти.
Покупая видеокарту, мы делаем сложный и неоднозначный выбор между AMD и Nvidia. Рассказываю, как я делал этот выбор в 2022 году и в прошлом, от Radeon HD 7950 и GeForce GTX 670, и до Radeon RX 480 и GeForce GTX 1060.
Противостояние видеокарт AMD, в прошлом ATI, и Nvidia длится уже более 20 лет и лидирует то одна, то другая компания. Хотя слово "лидировать" можно понимать по-разному, даже когда у AMD выходили замечательные видеокарты, в пух и прах разрывающие продукты конкурента и обеспечивающие достойную производительность в играх заметно дольше, их доля на рынке оставалась небольшой.
реклама
Например, стоит вспомнить замечательные Radeon HD 7950 и Radeon HD 7970, вышедшие в конце 2011 года. Новая архитектура GCN, широкая 384-битная шина памяти с высочайшей на то время пропускной способностью в 264 Гб/в сек, что выше даже чем у GeForce GTX 1070 из 2016 года! А главное, ее объем в 3 ГБ, что по меркам 2011 года было просто запредельным количеством. А ведь были версии Radeon HD 7970 с объемом видеопамяти 6 ГБ!
Ответ от Nvidia вышел через несколько месяцев, весной 2012 года, в виде GeForce GTX 670 и GeForce GTX 680 с гораздо более скромными характеристиками и объемами видеопамяти. В большинстве обзоров того времени GeForce GTX 670 и GeForce GTX 680 лидировали, но с переменным успехом и в некоторых играх отрыв Radeon HD 7950 и Radeon HD 7970 был значителен.
Почему так произошло? В первую очередь, из-за "сырости" дров AMD, которые попросту не смогли реализовать весь потенциал этих видеокарт. А потенциал был огромен, и с каждым годом Radeon HD 7970 отрывалась от GeForce GTX 680 все дальше, сделав разницу в игровых проектах 2015-2016 года иногда достигающей величины в 50-70%. На кого же поставил я в те годы? На Nvidia, долго выбирая между Radeon HD 7950 и GeForce GTX 670 и в результате, из-за неожиданных финансовых проблем, купив более дешевую GeForce GTX 660.
реклама
Я много раз пожалел о том выборе, особенно к 2016 году, когда GeForce GTX 660 совсем перестала тянуть новые игры даже на средних настройках. И уже Ведьмак 3: Дикая охота мне пришлось проходить с компромиссными настройками и кадровой частотой всего в 45 FPS. Но есть одно важно "но", примерно в то же время я купил Radeon HD 7770 во второй ПК и впечатления эта видеокарта оставила двойственные.
С одной стороны - это была недорогая, компактная модель, довольно шустрая в играх того времени и с мизерным энергопотреблением, низким нагревом и тихой работой. С другой стороны - я столкнулся на ней с кучей проблем, о которых пользователи видеокарт AMD множество раз писали на нашем форуме. Я ловил и черные экраны, и проблемы в некоторых играх, но самое главное - срывы изображения, когда иногда оно начинало дергаться раз в несколько минут. Как пришлось с этим бороться - тема для отдельного блога, но времени на это ушло немало и пришлось и подбирать правильные HDMI кабели и даже редактировать BIOS видеокарты.
реклама
Пожалел ли я о своем выборе? Да, ведь уже в 2017 году, когда начался бум майнинга, и Radeon RX 480 стали приносить гораздо больше дохода, чем GeForce GTX 1060, а в играх стали отрываться все сильнее и сильнее, повторяя историю с Radeon HD 7970 с GeForce GTX 680. Но в техническом плане и в качестве драйверов у меня не было никаких претензий к GeForce GTX 1060, а я успел попользоваться целой тройкой моделей. Сменил довольно горячую Gigabyte GeForce GTX 1060 WindForce OC 6G на тихую и холодную MSI GeForce GTX 1060 GAMING X, а дополнительно, под майнинг, покупал дешевую ASUS GeForce GTX 1060 DUAL OC.
реклама
В мае 2021 года я продал MSI GeForce GTX 1060 GAMING X, в надежде, что майнинг бум вскоре закончится, и 9 месяцев провел на GeForce GT 1030, играя в старые игры и каждое утро проверяя курс чертового биткоина, который так и не падал по-настоящему, только ненадолго обнадежив нас, геймеров, летом 2021 года.
В начале февраля 2022 года у меня появилось нехорошее предчувствие, когда курсы доллара и евро стали расти и стало появляться все больше негативных новостей. А цены на видеокарты, несмотря на упавшую доходность майнеров, даже не думали снижаться. GeForce GTX 1060 приносила в то время жалкие 50-60 рублей в день, GeForce RTX 3060 - чуть больше сотни. Согласитесь, это совсем не те доходы, ради которых майнеры покупают видеокарты уже по завышенным до предела ценам.
Я стал понимать, что ждать хороших цен вполне можно и год, и больше, а как показали последние две недели, можно не дождаться и никогда. И снова передо мной стал вопрос - AMD или Nvidia? Простым этот выбор назвать было нельзя при всем желании, ведь преимуществ и недостатков хватало у обеих сторон. На стороне видеокарт Radeon RX 6600 и Radeon RX 6600 XT отличная производительность, в некоторых играх даже Radeon RX 6600 обходит GeForce RTX 3060, и этот разрыв, зная как подходит к оптимизации драйверов AMD, только увеличится в будущем.
Еще одна проблема - небольшой объем памяти, составляющий всего 8 ГБ. Для производительности Radeon RX 6600 XT этого уже впритык и даже играя сейчас с 12 ГБ VRAM в не самую новую игру Horizon Zero Dawn, я вижу, что потребление переваливает за 8 ГБ даже в разрешении 1080p. Глядя на это, можно только посочувствовать пользователям более мощных видеокарт с 8 ГБ видеопамяти, например, GeForce RTX 3070, и "поаплодировать" Дженсену Хуангу, сократившему срок актуальности линейки RTX 3000 до минимума.
Ну и конечно, знаменитые "лучи" или технология трассировки в играх. Конечно, лучше, если они есть, ведь в играх эта технология будет использоваться все чаще. Но, честно сказать, мне пока даже лень устанавливать какую-нибудь игру с "лучами", чтобы на них посмотреть, это не тот прорыв, что сделали в свое время в графике технологии шейдеров или рельефного текстурирования.
А количество, например, Radeon RX 6700 XT - всего 0.22%. Что даже меньше, чем совсем недавно вышедших GeForce RTX 3050, которых уже 0.78%. Ну а Radeon RX 6600 и Radeon RX 6600 XT в статистике еще нет вообще.
В этот раз за то, чтобы встать на сторону Nvidia, взяв Palit GeForce RTX 3060 Dual, мне пришлось дорого заплатить, почти 25%, если считать от цены Radeon RX 6600 XT, но на фоне шокирующего роста цен последних дней это выглядит уже не так пугающе. А вот пожалею ли я о выборе в дальнейшем, как в прошлых случаях? Вряд ли, ведь других поводов для сожалений у нас теперь гораздо больше. И, как я писал недавно, покупка GeForce RTX 3060 даже не принесла особых эмоций, какие мы обычно испытываем от апгрейда, особенно после его долгого ожидания.
Но вот возможность поиграть в игры - это другое дело и пара часов в Horizon Zero Dawn позволяет полностью отключиться от грустных мыслей. А вот если бы я не успел купить GeForce RTX 3060 даже по той высокой цене, что была в конце февраля 2022 года, то, скорее всего, чувствовал бы себя сейчас ужасно, ведь даже GeForce GTX 1650 стоит уже дороже 50000 рублей.
Пишите в комментарии, "обжигались" ли вы на видеокартах AMD? И успели ли купить видеокарту до повышения цен?
Попала такая карточка, диагностика выявила отсутствие питания памяти. Преобразователь двухфазный: шим uP1605Q, в качестве транзисторов верхних и нижних плеч установлены сдвоенные мосфеты NTMFD4901NF. Транзисторы проверены и нареканий не вызвали, обвязка шима тоже на месте и в исправном состоянии, сопротивление по питанию памяти 100Om. Т.К нормальной документации на uP1605Q нарыть не удалось, пользовался тем, что любезно предоставил makarog , но проблему так и не смог побороть.
Напряжения на ногах шима: RE/EN (3) - 1V, VCC9 (17) и VCC12 (18) -12V, VID (23) -0, REFIN (1) -1.56V, RSET (24) -1.56V, PSI (12) -2V, вроде усё в норме, сопротивление выходов драйверов подозрений не вызывают, но всё равно склонен грешить на шим, но может что упустил, пните пожалуйста в нужном направлении, тем более шим такой заказать проблема (только с доноров которых в данный момент не имею).
Та же проблема. Причем в нескольких экземплярах
Ни чего не переделывал, в место uP1605 поставил 6210, просто с оригинальным отказалась работать, возможно заказанный пришёл уже неисправный.
Легче всего создаются трудности.
Продам запчасти для видеокарт.
Куплю современные неисправные видеокарты .
Похоже та же проблема и у меня, пропало напряжение на память, видео карта gigabyte gtx 660ti
Вот и славно, можно добавлять в "аналоги деталей видеокарт" ))).
А вы уверены, что они полностью идентичны и обратная замена так же даст положительный результат? Pin to pin аналогов много, но не всегда такие аналоги взаимозаменяемы.
Легче всего создаются трудности.
Лучше бы спасибо сказали за мой совет месяц назад обратить внимание на up6210. ))))
Если можно заменить, и устройство штатно работает - это главное. Незначительное отличие в схеме включения -это второстепенное. Любую схему можно как упростить, выкинув "ненужные" элементы, так и усложнить, напихав по максимуму, при этом работать она будет одинаково.
На видеокартах полно мест под не установленные элементы, и при этом можно выкинуть ещё несколько десятков, и она их не заметит. )))
Спасибо конечно , хотя я и сам знал, что по распиновке они одинаковые, сложность была в отсутствии вменяемой документации на 1605 для детального сравнения, например APW8700 тоже аналог, но с ним карта тоже не захотела работать, хотя историю того APW8700 не знаю, не я снимал, я только проверил выходы драйверов и основные контакты по питанию обычным мультиметром на нём.
Легче всего создаются трудности.
Ни чего не переделывал, в место uP1605 поставил 6210, просто с оригинальным отказалась работать, возможно заказанный пришёл уже неисправный.
У меня самого gigabyte 660ti. Тоже пропало напряжение. Но заменили uP1605 на новый оригинал. А потом она начала работать как обычно. Думал все, срамонтировано. Когда начал играть кс-го то заметил что как то странно ведет себя карта. Комп зависает. Решил проверить полную работоспособность. Для этого в клиенте Steam скачал демоверсию 3DMark, врубил там ролик. Прошло где то около 30 секунд и картинка начала мерцать и затем комп на мертво завис. Пришлось ресетнуться. Хоть карта работает при замене новым uP1605. Спокойно можно работать в любых програмах но играть увы нет, комп зависает. В чем проблема ? Может Вы пробовали протестить на полную работосопособность карты ? Ничего не понимаю.
Все карты после ремонта тестируются по 2-3 часа на стенде (Heaven Benchmark, Valley Benchmark, FurMark), да и вернулась бы уже давно.
Почему вы решили что проблема в питании памяти? Может банальный отвал/деградация ГП, когда шим меняли ГП немного прогрелся, вот карта и запустилась. Без нормальной диагностики с проведением измерений можно только писями по воде вилить
Попала такая карточка, диагностика выявила отсутствие питания памяти. Преобразователь двухфазный: шим uP1605Q, в качестве транзисторов верхних и нижних плеч установлены сдвоенные мосфеты NTMFD4901NF. Транзисторы проверены и нареканий не вызвали, обвязка шима тоже на месте и в исправном состоянии, сопротивление по питанию памяти 100Om. Т.К нормальной документации на uP1605Q нарыть не удалось, пользовался тем, что любезно предоставил makarog , но проблему так и не смог побороть.
Напряжения на ногах шима: RE/EN (3) - 1V, VCC9 (17) и VCC12 (18) -12V, VID (23) -0, REFIN (1) -1.56V, RSET (24) -1.56V, PSI (12) -2V, вроде усё в норме, сопротивление выходов драйверов подозрений не вызывают, но всё равно склонен грешить на шим, но может что упустил, пните пожалуйста в нужном направлении, тем более шим такой заказать проблема (только с доноров которых в данный момент не имею).
Вниманительно просмотрев главную тему, оказалось что здесь рассматривается чистая видеокарта GV-N66TWF2-2GD без разгона. А у меня Оверклокерская разогнанная GV-N66TOC-2GD. Наверное только в этой карте возникли сбои после замены шима. Насчет отвала или деградации я уверен на 80%. Скорее всего - деградация. Если нагревается карта вплоть до 45-50 начинается короткое зависание и все застряло в дисплее. Приходится нажимать Альт+Таб+Дел и закрыть сеанс (игру) чтобы вернуться в робочий стол и снова перезапустить. Даже можно спокойно работать в программе где не употребляется вся мощь чипа. Другого выхода нет. Да и еще Нвидиа отзывает неудачные карты 6 серии. Причина банальная - деградация в нагрузке с течением времени которую я как раз испытываю ((( Ну и ладно придется смириться. Aleksey_56 Спасибо за совет насчет "в место uP1605 поставил 6210" . Все таки хоть работает карта после замены альтернативного шима.
Кто-нибудь сможет объяснить, откуда у этих 660ti берется питание для этого ШИМа? это вывод 22, если я правильно понял. Он припаян к короткой дорожке, которая тут же уходит в текстолит и где выходит неизвестно. Кажется, каждую деталь уже по 2 раза обзвонил
Вы про uP1605? тогда 22 вывод это BOOT2, питание Vcc - 18 вывод, смотрите доки на uP6210, APW8700, RT8809.
Досталась карта GTX660 от Gigabyte (GV-N660OC-2GD rev 1.0 выглядит ТАК) с признаками, что не запускаться.
Ставили на мать m5A97 R2.0, писк поста проходит, что она в порядке, но картинки на экране нет как с DVI, так и с HDMI. Дальше система не грузиться судя по индикаторам ЖД. Через какой-то период (около 0,5мин ) писк поста повторяется. Пробовал воткнуть в другой слот 4870x2, GTX660 видится в Windows, но не именно как GTX660, а как стандартный видеоадаптер с восклицательным знаком. Биос перешил - не помогло.
Замеры напряжений: на памяти 1,5В (это левый дроссель от ГПУ), и сперва 0,97В на 1,2,3 снизу дросселях (справа от ГПУ), но как меряю на 4ом - там 0,89В, так на всех становиться 0,89В. Тем более, что без СО особо не померяешь, ГПУ горячий становиться.
Посоветуйте, где еще что посмотреть и промерять?
Спасибо!
Легче всего создаются трудности.
Aleksey_56 ,
сегодня подкинул СО и тестовую мать (GA-945P-S3).
В общем, теперь процесс старта выглядит так: сперва долго думает, порядка 40-45 секунд, потом проходит 1 писк спикера, что POST пройден, после чего картинки нет, но проходит еще около 30 секунд и выдается 2ой короткий сигнал (я так понял, что настройки CMOS слетели из-за старой батареи), после чего, с разницей в 20-30 секунд еще проходят по разу 1 короткий пик, что все хорошо и на этом все замирает. Хотел подождать ,чем же, может будет чего. устав ждать, дернул с БП шнур, и почти сразу вставил обратно. Так вот, при запуске, карта завелась ! Стартовала так же, как и обычно, через 2-3 секунды после включения. Перезагрузил даже МП, все так же, стартует, напряжение при этом было 0,89В. Когда решал уже, что счастье наступило, решив проверить и выдернув шнур на длительный период, потом все те же грабли)) Может это ГПУ прогрел сам себя и беда в нем? Хотя на карте белый по синему написано Plumbum free, чистое олово же больше температуру плавления имеет, на сколько известно, а карта еле теплая.
Про замеры :попробовал произвести замеры, ожидая какое либо время, на каждом дросселе, в т.ч. и памяти: на питании ГПУ (на любом из 4х дросселей (так все 4 питают ГПУ что ли?) уже прочел описание ncp5395g, там 4+1) сперва появляется 0,96-0,97В потом через 5-7 секунд падает до 0,89В, и так и держится, только после писков спикера становиться 0,89-0,9В. На питании памяти сперва появляется 1,52В, потом после первого писка, питание падает до 1,42В и так и держится.
Кстати, раз было, что в какой-то период, уже после всех писков, когда убрал мультиметр, заметил, что вентиляторы ВК стали крутиться быстрее, чем обычно, замерил напряжение на дросселях ГПУ - 0,16В. Я так понимаю это контроллер питания еще может мозги делать?
Читайте также: