Gtx 680 какой блок питания
Казалось бы, Geforce GTX 680 уже предстал во всей красе; изучили самые разнообразные карты на его основе: и частотами манипулировали, как могли, и системы охлаждения ставили всевозможных калибров и видов, и PCB какие только ни попадались. Вот только лишь никто пока не ставил ядро на оборотную сторону: вероятно смущало, что СО упрется в кулер системного чипсета или даже в кулер CPU. Что еще осталось?
А осталось лишь увеличивать объем памяти на карте. Было 2 гигабайта, теперь будет 4. Зачем? Ну чтобы было, ведь еще много пользователей, уверенных, что чем больше памяти на ускорителе, тем он производительнее. :) Поэтому мы можем видеть сейчас объем памяти в 2 гигабайта даже на картах уровня GT 640, где не востребуется даже 1 гигабайт, так как производительность такова, что карта может демонстрировать сносную играбельность только в очень низких разрешениях, да и то при настройках качества в играх среднего или низкого уровней. А вот на GTX 680 маловат ли объем памяти в 2 гигабайта? Может быть всем пора переходить на 4?
Исследования показали, что разница в производительности минимальна. Да, пока всем играм вполне хватает 2 гигабайт памяти даже если настройки выставлены на максимальное качество. Лишь иногда мы можем видеть, что желателен объем памяти чуть выше 2 гигабайт. Так что вполне резонно думать, что новый продукт Gigabyte — это маркетинговое решение, продиктованное расширением ассортимента и привлечением потребителя оригинальным дизайном ускорителя. Однако давайте рассмотрим всё по порядку.
Плата
- GPU: Geforce GTX 680 (GK104)
- Интерфейс: PCI Express x16
- Частота работы GPU (ROPs): 1070—1170 МГц (номинал — 1000—1100 МГц)
- Частота работы памяти (физическая (эффективная)): 1500 (6000) МГц (номинал — 1500 (6000) МГц)
- Ширина шины обмена с памятью: 256 бит
- Число вычислительных блоков в GPU/частота работы блоков: 8/1070—1170 МГц (номинал — 8/1000—1100 МГц)
- Число операций (ALU) в блоке: 192
- Суммарное число операций (ALU): 1536
- Число блоков текстурирования: 128 (BLF/TLF/ANIS)
- Число блоков растеризации (ROP): 32
- Размеры: 285×110×45 мм (карта занимает 3 слота в системном блоке)
- Цвет текстолита: синий
- Энергопотребление (пиковое в 3D/в режиме 2D/в режиме «сна»): 210—225/82/61 Вт
- Выходные гнезда: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
- Поддержка многопроцессорной работы: SLI (Hardware)
Карта имеет 4096 МБ памяти GDDR5 SDRAM, размещенной в 16 микросхемах (по 8 на каждой сторонe PCB).
Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.
Видеокарта в качестве основы имеет фирменную печатную плату Durable с большим количеством медных слоев, поэтому PCB нагревается не так сильно, как обычный референс.
Ускоритель имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители Nvidia достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.
- 240 Гц — максимальная частота обновления;
- 2048×1536@85 Гц — по аналоговому интерфейсу;
- 2560×1600@60 Гц — по цифровому интерфейсу (для DVI-гнезд с Dual-Link/HDMI).
Из-за улучшенной организации схемы питания, а также переделанной PCB ускоритель может работать на весьма высоких частотах (во всяком случае, 1300 МГц по ядру данная карта выдержала на отлично, не потеряв стабильности в работе).
Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.
Данное устройство охлаждения представляет собой развитие серии особых кулеров Gigabyte (мы не знаем, разработка ли это конструкторов самой компании или же Gigabyte где-то заказывает такие устройства, но факт остается фактом, что всякий раз, когда мы сталкиваемся с их СО, то получаем только положительные ощущения).
СО состоит из двух толстых радиаторов, соединенных меж собой тремя тепловыми трубками, проходящими прямо через подошву и соприкасающимися непосредственно с ядром GPU. Тепловые трубки разносят тепло по периферийным пластинам. Микросхемы памяти на лицевой стороне также охлаждаются. К сожалению, странно выглядят микросхемы на оборотной стороне без какого-либо охлаждения (какой смысл тогда вообще охлаждать? Уж или охлаждать все микросхемы, или ни одной). Силовые транзисторы БП имеют свой собственный маленький радиатор охлаждения.
Сверху все это накрыто кожухом с тремя вентиляторами. Максимальные обороты вращения вентиляторов, обдувающих эти радиаторы, составляют 2400 оборотов в минуту. Это уже несколько заметно в плане шума, однако все же уровень шума не критичный — из-за особой конструкции лопастей вентиляторов. В режиме работы в 2D частота вращения не превышает 1500 оборотов в минуту (кулер при этом практически бесшумен).
Мы провели исследование температурного режима с помощью утилиты EVGA PrecisionX (автор А. Николайчук AKA Unwinder) и получили следующие результаты:
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) | |
---|---|
После 6-часового тестирования под нагрузкой нагрев не поднялся выше 70 градусов — и это великолепный результат для GPU такого класса, особенно если учитывать повышенные частоты работы.
Теперь о комплектации.
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) | |
---|---|
Дизайн PCB и система питания
От эталонной версии отличается не только дизайн системы охлаждения, но и печатной платы.
Спереди находятся три вентилятора, два из которых диаметром 80 мм расположены по краям, а в центре 90 мм. С обратной стороны видно, что сама печатная плата немного короче системы охлаждения, поэтому своими нескромными габаритами карта обязана именно ей.
реклама
Демонтировав эту сложную конструкцию, можно посмотреть на голую плату. Силовые элементы расположены практически там же, где они находятся у референсной версии. ШИМ-контроллер также находится с обратной стороны. Здесь он припаян непосредственно к печатной плате, а не через посредника в виде еще одной вставки, как на видеокарте эталонного дизайна.
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Причиной для написания этого стала проблема которую создавал Palit GeForce GTX 770 JetStream 2Gb, выводящий из режима покоя(Гибридное охлаждение БП) вентилятор блока питания Corsair AX760 760W в собранном мной ПК(Стоит на столе в 50см от меня), который является абсолютно бесшумным, но не с GTX 770, я занимаюсь фотографией и иногда пишу что-то плюс ко всему имею очень чуткий слух который очень сильно раздражали Palit GeForce GTX 770 JetStream и Corsair AX760 760W, в последствии я продал 770 и поставил себе Inno3D GTX 660 HerculeZ приделав к нему TR Shaman о чем уже успел написать в предыдущем посте: Нетеряющий актуальности TR Shaman на Inno3D GTX 660 HerculeZ. Работе в лайтруме и фотошопе ничего не мешало и всё было спокойно и прекрасно шум изредка исходил только от WD green 2Tb и то когда к нему обращались, корпус AeroCool Dead Silence полностью оправдывал название «Dead Silence»(да конечно вертушки в нём были заменены на Noctua nf-p14 140mm 500-800RPM и be quiet! Dark Wings DW1 120mm 400-800RPM) пока ко мне не попал герой сегодняшнего поста, Palit GeForce GTX 680 — это обычный референс с шумной турбиной, но если остановить турбину пальцем то уже Corsair AX760 760W не шумел, а значит приложив усилия можно довести всё до идеала: заменив GTX660 на куда более производительный GTX680, который ещё можно довести до уровня GTX770.
Не для кого не секрет что GTX 770 это разогнанный GTX 680, отличают их частоты и уровень энергопотребления, есть возможность сделать из GTX 680 -> GTX 770, ссылка в которой всё рассказано что? Зачем? и как? Собственно говоря которой я и воспользуюсь далее: Как из GeForce GTX 680 сделать GeForce GTX 770
Как прошить видеокарту очень хорошо написано тут: Прошивка и редактирование биосов видеокарт Nvidia + FAQ.
Перед тем как начать я ещё приведу цитату о системе питании и енергопотреблении одного из тестов GTX 680 vs GTX 770:
«В связи с повышенным энергопотреблением чипа, GTX 770 оснащается одним шестиконтактным и одним восьмиконтактным разъемами дополнительного питания, в то время как GTX 680 довольствовался двумя шестиконтактниками, что особо отмечалось в презентациях NVIDIA.»
Сравнительная таблица:
На таблице видно разницу между потребляемыми драгоценными ваттами, у 680 195ватт, а у 770 230ватт, это данные официально представленные компанией Nvidea.
А теперь приступим, наша задача:
• превратить 680 в 770
• заменить СО на GTX 680
• оставить ПК бесшумным.
Часть 1.
Для начала скриншот GPU-Z GTX 680:
Проверка GPU На качество, 81% говорит о том что видеокарта должна показать неплохой результат, после я разогнал GTX680 до частот GTX770 и протестировал в синтетике 3D Mark 06 и 3D Mark firestrike выставив максимальное разрешение я поставил 2560х1440, вам обеспечены 30 мин свиста дросселей видеокарты, но главное не поставить турбину на скорость 90% в ASUS GPU Tweak и внимательно проследив нет ли артефактов, это важно ведь в последствии видеокарта будет работать на этих частотах.:
Прошиваем GPU инструкция о том как это сделать есть в начале статьи, я добавлю лишь то что я шил из под винды
Берём Bios тут, предварительно сохранив BIOS. (всякое может быть)
Тестируем в синтетике 3D Mark 06 и 3D Mark firestrike выставив максимальное разрешение я поставил 2560х1440, вам обеспечены 30 мин еще более ужасного свиста дросселей видеокарты, но главное не забыть поставить турбину на скорость 90% в ASUS GPU Tweak и снова внимательно проследив нет ли артефактов. далее мы получаем довольно неприятную температуру 77 градусов это при скорости турбины 90%. Жаль скрин я не сделал, но если СО будет работать в авто режиме то температура уже будет 93 градуса:
Результат хороший, но в последствии артефакты появились в Watch Dogs со стандартно СО, а с ней жить невозможно и она очень шумная и явно не справляется с повышением частот.
Ещё с крин с ДО и ПОСЛЕ, найдите много отличий:
Часть 2
Установка TR Shaman не возможна без снятия аллюминевой пластины охлаждающей систему питания и память, есть 2 варианта: изготовить всё самому или переделать то что есть.
Переделать то что есть:
Примеряем рамку от шамана, обозначив/выделив часть которую нужно отпилить:
Отпиливаем до выступов памяти, я использовал дрель, ножовку по металлу, надфили (Если у вас есть електролобзик всё будет намного быстрее)
Старайтесь делать аккуратно, и места спила тщвтельно обработайте надфилем, после промойте под сильным напором воды и просушите.
Далее устанавливаем на видеокарту, и примеряем рамку от шамана:
Устанавливаем TR SHAMAN:
Для начала я заменил термопрокладки, так как старые удалить бережно не получится, да и их состояние весьма печально:
Установка Шамана более чем проста, но тут нужно быть внимательным и следить чтоб основание соприкасалась с GPU.
После нагружаем всем что есть, я сделал тест на 3 часа, на шамане стоял ТУ-143 запаралеленый со вторым что стоит на CPU, они не раскручивались более 750 оборотов. конечная температура стала 60 градусов.
Надеюсь данная информация будет полезной, GTX680 на частотах GTX770 и тихая система это хороший результат)
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Видеокарта NVIDIA GeForce GTX 680 создана на основе 28 nm техпроцесса и основанная на графическом процессоре GK104-400. Карта поддерживает Directx 12 API. NVIDIA разместила 2048 мегабайт оперативной памяти GDDR5, которая подключена с использованием 256-bit интерфейса.
Графический процессор работает на частоте 1006 MHz, которую можно повысить до 1058 MHz. Количество ядер CUDA составляет 1536, с быстродействием 6000 Мбит/с.
Энергопотребление видеокарты составляет 195 Вт, а рекомендуемый блок питания на 550 Вт.
NVIDIA GeForce GTX 680 поддерживает Microsoft DirectX 12 API и OpenGL Да.
Плата
- GPU: Geforce GTX 680 (GK104)
- Интерфейс: PCI Express x16
- Частота работы GPU (ROPs): 1070—1170 МГц (номинал — 1000—1100 МГц)
- Частота работы памяти (физическая (эффективная)): 1500 (6000) МГц (номинал — 1500 (6000) МГц)
- Ширина шины обмена с памятью: 256 бит
- Число вычислительных блоков в GPU/частота работы блоков: 8/1070—1170 МГц (номинал — 8/1000—1100 МГц)
- Число операций (ALU) в блоке: 192
- Суммарное число операций (ALU): 1536
- Число блоков текстурирования: 128 (BLF/TLF/ANIS)
- Число блоков растеризации (ROP): 32
- Размеры: 285×110×45 мм (карта занимает 3 слота в системном блоке)
- Цвет текстолита: синий
- Энергопотребление (пиковое в 3D/в режиме 2D/в режиме «сна»): 210—225/82/61 Вт
- Выходные гнезда: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
- Поддержка многопроцессорной работы: SLI (Hardware)
Карта имеет 4096 МБ памяти GDDR5 SDRAM, размещенной в 16 микросхемах (по 8 на каждой сторонe PCB).
Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.
Видеокарта в качестве основы имеет фирменную печатную плату Durable с большим количеством медных слоев, поэтому PCB нагревается не так сильно, как обычный референс.
Ускоритель имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители Nvidia достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.
- 240 Гц — максимальная частота обновления;
- 2048×1536@85 Гц — по аналоговому интерфейсу;
- 2560×1600@60 Гц — по цифровому интерфейсу (для DVI-гнезд с Dual-Link/HDMI).
Из-за улучшенной организации схемы питания, а также переделанной PCB ускоритель может работать на весьма высоких частотах (во всяком случае, 1300 МГц по ядру данная карта выдержала на отлично, не потеряв стабильности в работе).
Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.
Данное устройство охлаждения представляет собой развитие серии особых кулеров Gigabyte (мы не знаем, разработка ли это конструкторов самой компании или же Gigabyte где-то заказывает такие устройства, но факт остается фактом, что всякий раз, когда мы сталкиваемся с их СО, то получаем только положительные ощущения).
СО состоит из двух толстых радиаторов, соединенных меж собой тремя тепловыми трубками, проходящими прямо через подошву и соприкасающимися непосредственно с ядром GPU. Тепловые трубки разносят тепло по периферийным пластинам. Микросхемы памяти на лицевой стороне также охлаждаются. К сожалению, странно выглядят микросхемы на оборотной стороне без какого-либо охлаждения (какой смысл тогда вообще охлаждать? Уж или охлаждать все микросхемы, или ни одной). Силовые транзисторы БП имеют свой собственный маленький радиатор охлаждения.
Сверху все это накрыто кожухом с тремя вентиляторами. Максимальные обороты вращения вентиляторов, обдувающих эти радиаторы, составляют 2400 оборотов в минуту. Это уже несколько заметно в плане шума, однако все же уровень шума не критичный — из-за особой конструкции лопастей вентиляторов. В режиме работы в 2D частота вращения не превышает 1500 оборотов в минуту (кулер при этом практически бесшумен).
Мы провели исследование температурного режима с помощью утилиты EVGA PrecisionX (автор А. Николайчук AKA Unwinder) и получили следующие результаты:
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) | |
---|---|
После 6-часового тестирования под нагрузкой нагрев не поднялся выше 70 градусов — и это великолепный результат для GPU такого класса, особенно если учитывать повышенные частоты работы.
Теперь о комплектации.
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) | |
---|---|
Оглавление
Характеристики видеокарты NVIDIA GeForce GTX 680
Характеристики GPU: | |
---|---|
Модель: | NVIDIA GeForce GTX 680 |
Серия: | GeForce 600 |
Модель GPU : | GK104-400 |
Архитектура: | Kepler |
Техпроцесс: | 28 nm |
Ядер CUDA: | 1536 |
Графических процессоров ( GPC ): | 4 |
Потоковых мультипроцессоров ( SMs ): | 8 |
Текстурных блоков ( TMUs ): | 128 |
Базовая тактовая частота: | 1006 MHz |
Тактовая частота с ускорением (Boost): | 1058 MHz (+52 MHz) |
Количество транзисторов: | 3.5 миллиарда |
Характеристики памяти: | |
---|---|
Объем памяти: | 2 Gb |
Тип памяти: | GDDR5 |
Шина памяти: | 256-bit |
Быстродействие памяти: | 6000 Мбит/с (6 Гбит/с) |
Тактовая частота памяти: | 1502 MHz |
Скорость заполнения текстур: | 128.8 GTexel/s |
Поддержка дисплеев: | |
---|---|
Максимальное цифровое разрешение: | 3840x2160@30Гц или 4096x2160@24Гц через HDMI. 4096x2160@60Гц через Displayport |
Максимальное VGA разрешение: | 2048x1536 |
Стандартные разъемы: | Dual Link DVI-I, Dual Link DVI-D, HDMI, DisplayPort |
Поддержка нескольких мониторов: | Да, до 4-х мониторов |
HDCP : | Да |
HDMI : | Да |
Аудио вход для HDMI: | Internal |
Тепловые характеристики: | |
---|---|
Максимальная температура GPU: | 98 ℃ |
Потребление энергии ( TDP ): | 195 Вт |
Рекомендованные требования по питанию: | 550 Вт |
Дополнительные разъемы питания: | 6-Pin x2 |
Размеры видеокарты: | |
---|---|
Высота: | 11,12 см |
Длина: | 25,4 см |
Ширина: | 2 слота |
Технологии и возможности: | |
---|---|
CUDA : | Да |
Ansel : | Да |
SLI : | Да |
G-Sync : | Да |
V-Sync : | Да |
PhysX : | Да |
3D Vision: | Да |
Blu Ray 3D: | Да |
3D игры: | Да |
GameStream : | Да |
Surround: | Да |
DSR : | Да |
GPU Boost : | Да |
DirectX : | 12 API |
Vulkan API: | Да |
OpenGL : | Да |
Шина: | PCI Express 3.0 |
Поддержка ОС: | Microsoft Windows 7-10, Linux, FreeBSDx86 |
Обратите внимание: в таблице представлены эталонные характеристики видеокарты, они могут отличаться у разных производителей.
Установка и драйверы
- Компьютеры на базе процессора Intel Core i7-3960X (Socket 2011):
- 2 процессорa Intel Core i7-3960X (o/c 4 ГГц);
- системная плата Asus Sabertooth X79 на чипсете Intel X79;
- системная плата MSI X79A-GD45(8D) на чипсете Intel X79;
- оперативная память 2×8 ГБ DDR3 SDRAM Corsair 1866 МГц;
- жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;
- жесткий диск WD Caviar Blue WD10EZEX 1 TБ SATA2;
- 2 блокa питания Enermax Platimax 1200 Вт.
Упаковка и комплектация
Коробка солидных габаритов. В нее без сомнения поместились бы четыре видеокарты длиной 270 мм с двухслотовой системой охлаждения.
С лицевой стороны, в левом верхнем углу можно заметить золотистый логотип производителя. На черном матовом фоне это смотрится стильно и придает ощущение эксклюзивности. По центру задним фоном выведен огромный глянцевый иероглиф. Его перекрывает золотая надпись JetStream. Внизу указана модель используемого видеопроцессора и объем набортной памяти. Лицевая часть служит еще и крышкой, под которой находится информация о продукте и смотровое окошко, в котором видна сама плата.
Производитель, стремясь продемонстрировать отличительные особенности системы охлаждения, виртуально ее разобрал. От этой картинки в разные стороны расходятся стрелки, на концах которых есть вставки с описанием используемых решений. Чуть выше разместились три скромных показателя: на 10% выше производительность, на 9 дБ тише и на 8°C холоднее. Что ж звучит заманчиво, осталось лишь проверить на практике.
реклама
Сверху находятся три вставки с изображениями современных компьютерных игр: Battlefield 3, Diablo 3 и Batman Arkham City. Ниже на разных языках приводится краткая техническая спецификация.
Настал момент заглянуть внутрь.
Плата размещена в прозрачном пластиковом контейнере, под которым находится отсек с информационными носителями и аксессуарами. Все это расположено в картонной коробке черного цвета.
Среди информационных носителей можно обнаружить:
Теперь обратим взор на аксессуары:
Маловато, особенно учитывая позиционирование продукта. Вспоминаю, как недавно изучал комплект поставки видеокарты эталонного дизайна Sapphire Radeon HD 7970. Вот, собственно и он, чуть ниже.
Да, половина из этого не будет востребована мною сразу, но я буду знать, что у меня есть все нужное для установки второго такого же адаптера, и при необходимости можно будет задействовать все видеовыходы. Здесь же, в случае с Palit GTX 680 JetStream все скудно.
Вступление
Вывод на рынок графических ускорителей на базе GK104 ожидаемо привел к возникновению в модельном ряду NVIDIA нового однопроцессорного флагмана - GTX 680. Вслед за тем все именитые партнеры компании представили свои вариации, воспользовавшись процедурой «Copy & Paste». Говоря проще, растиражирован эталонный дизайн с турбинной системой охлаждения, отличия были лишь в наклейках на пластиковых кожухах, упаковках и комплектах поставки.
Компания Palit тоже выпустила референсную карту под своим брендом. Но одновременно с этим по традиции представила и второй вариант GeForce GTX 680 - с собственным дизайном печатной платы и системы охлаждения. Скорость, с которой это произошло, впечатляет. Может какой-то производитель и анонсировал похожие решения раньше, но в рознице на данный момент присутствует именно Palit GTX 680 JetStream 2 Гбайта.
реклама
Есть две разновидности видеокарт этой серии. Одна изначально уже разогнана производителем до базовой частоты GPU, равной 1083 МГц (до 1150 МГц в режиме GPU Boost), память типа GDDR5 работает на 6300 МГц. У другой версии штатные частоты, но зато объем ее видеопамяти составляет четыре гигабайта вместо двух у первой. В лабораторию на тестирование попал именно разогнанный ускоритель с 2 Гбайтами GDDR5.
Выводы
Рассматриваемый сегодня ускоритель находится на втором месте наших рейтингов, отстав лишь от абсолютного лидера однопроцессорных ускорителей — Radeon HD 7970X компании HIS, который мы не так давно изучали.
Теперь посмотрим Рейтинг полезности тех же карт (показатели предыдущего рейтинга делятся на цены соответствующих ускорителей):
Рейтинг полезности (возможности/цена)
А вот тут картина не очень приятная. Да, пока цены на GTX 680 в целом (и на этот вариант в исполнении Gigabyte в частности) чрезмерно велики, что явно не идет на пользу таким продуктам. Однако цены имеют свойство постоянно меняться, так что надо следить за ними, а также за нашими выпусками i3D Speed, где ежемесячно можно увидеть обновления рейтингов.
Теперь по самой карте.
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) — как всегда, отлично выполненный компанией Gigabyte вариант Geforce GTX 680. Ускоритель имеет много плюсов в плане оверклокинга, реально может стать удачной покупкой для энтузиастов (если их не смутит цена). Следует учитывать, что акселератор займет 3 слота в системном блоке, да и длина карты весьма приличная — 285 мм. Что касается интересующего многих вопроса, нужны ли 4 гигабайта на борту, то ответ: пока не нужны. На приведенных выше диаграммах данный ускоритель обошел по производительности референс GTX 680 исключительно из-за более высоких частот работы. На диаграммах нет показателей работы этой же карты на штатных частотах, но поверьте, мы исследовали этот вопрос, и разница по скорости между GTX 680 с 2 и 4 ГБ составила менее 2% в среднем. Только в паре игр в разрешении 2560×1600 ускоритель с 4 гигабайтами показал отрыв в 5%, но на минимальном уровне играбельности. В целом пока такой объем памяти не востребован, и даже там, где 2 ГБ не хватает, 3 ГБ, как у Radeon HD 79xx, очевидно хватило бы с лихваой. А 4 ГБ — это на сегодня просто популярный маркетинговый прием. Подчеркну: на сегодня, на начало декабря 2012-го. Быть может, через год или два тот, кто будет читать этот материал, усмехнется — ему уже и трех гигабайт будет маловато :)
Окончательное решение традиционно остается за нашими читателями. Мы лишь даем информацию о рассмотренных продуктах, но не делаем прямых указаний по выбору того или иного изделия.
В номинации «Оригинальный дизайн» (за декабрь 2012 года) получила награду карта:
По традиции, спустя некоторое время после официального анонса партнеры калифорнийского графического гиганта представили свои «альтернативные» версии карт на GeForce GTX 680, предлагающие улучшенную функциональность в сравнении с «эталоном». В нашей тестовой лаборатории уже успела побывать «нереференсная» видеокарта ASUS GeForce GTX 680 DirectCU II TOP (ASUS GTX680-DC2T-2GD5), при обзоре которой мы рассматривали её основные отличия от «эталона», сегодня же мы имеем возможность протестировать видеокарту ASUS GeForce GTX 680 DirectCU II ОС , которая отличается от ASUS GeForce GTX 680 DirectCU II TOP, по заявлению производителя, не таким значительным разгоном.
ASUS GeForce GTX 680 DirectCU II O С
NVIDIA GeForce GTX 680 (GK 104)
Microsoft DirectX 11, OpenGL 4.2
Поддержка фирменных технологий
GPU Boost, Adaptive V-Sync, PhysX, SLI, NVIDIA Surround, 3D Vision, CUDA
Частота ядра, МГц
1019 (1084 МГц средняя частота с учетом использования технологии GPU Boost)
Частота памяти (эффективная), МГц
Объём памяти, МБ
Шина памяти, бит
До 2560x1600 Dual-link DVI
До 2048x1536 VGA (через переходник)
До 3840x2160 HDMI
До 3840x2160 DisplayPort1x DVI-I Dual-Link DVI
1x DVI-D Dual-Link DVI
1x HDMI 1.4а
1x DisplayPort 1.2Поддержка HDCP и декодирования HD-видео
Есть
Декодирование MPEG-2, MPEG-4, DivX, WMV9, VC-1 и H.264/AVC. Дополнительный блок аппаратного декодирования NVENC.Рекомендуемая мощность блока питания, Вт
Как видно из спецификации, отличия от ASUS GeForce GTX 680 DirectCU II TOP действительно лишь в частоте графического ядра, остальные характеристики идентичны.
Оставив теорию, перейдём к практике и, традиционно, начнём изучение упаковки продукта.
Графический ускоритель ASUS GeForce GTX 680 DirectCU II ОС поставляется в большой картонной коробке, оформление которой характерно для нового поколения видеокарт производства компании ASUS на базе чипсетов NVIDIA GeForce. На лицевой стороне упаковки присутствуют упоминания об объеме и типе используемой видеопамяти, поддержке функции VGA Hotwire, применении фирменной системы охлаждения из линейки DirectCU II, а также цифрового модуля стабилизации питания Digi+VRM и качественной элементной базы. Отдельное внимание дизайнеры уделили максимальной частоте графического ядра в режиме GPU Boost с учетом фабричного разгона — 1084 МГц.
На обратной стороне упаковки производитель разместил основные спецификации видеокарты на 12 языках (включая русский), краткую схему подключения дисплеев с различными интерфейсами, а также рекламное описание ключевых особенностей видеокарты. Отдельного внимания, безусловно, заслуживает функция VGA Hotwire , которая предлагает опытным пользователям возможность вручную соединить специальные контактные площадки на печатной плате и соответствующие колодки на материнских платах ASUS серии ROG и после этого осуществлять разгон и мониторинг видеокарты средствами UEFI системной платы. Аналога этой опции пока ещё не имеет в своем арсенале ни один конкурент тайваньского «вендора».
Список системных требований к компьютеру, в который планируется установка ASUS GeForce GTX 680 DirectCU II ОС, расположен на одной из боковых сторон упаковки. Исходя из рекомендации на коробке, блок питания в такой системе должен обладать мощностью не менее 550 Вт и быть способным выдавать до 38 А по линии 12 В.
Набор портов для вывода изображения на видеокарте ASUS GeForce GTX 680 DirectCU II ОС не отличается от того, что мы видели на графическом адаптере «референсного» дизайна. На интерфейсной панели присутствуют следующие разъёмы:
Для большинства пользователей такого набора интерфейсов будет вполне достаточно для распространенных сценариев эксплуатации. Немаловажно, что разъёмы HDMI и DisplayPort имеют полноразмерное исполнение, что избавляет от необходимости использования дополнительных переходников даже при подключении нескольких дисплеев. Как мы уже упоминали в предыдущих обзорах, видеокарты на основе графического процессора GeForce GTX 680 поддерживают одновременное подключение до 4-х устройств для вывода изображения без дополнительных активных хабов. Также к графическому адаптеру ASUS GeForce GTX 680 DirectCU II ОС можно подключить одновременно три дисплея с поддержкой технологии NVIDIA 3D Vision (режим 3D Vision Surround), ведь двухчиповые связки для этого режима более не являются необходимостью. Неплохим заделом на будущее также является поддержка плазменных панелей и мониторов ультравысокого разрешения вплоть до 3840x2160 пикселей.
Печатная плата видеокарты ASUS GeForce GTX 680 DirectCU II ОС выполнена на текстолите тёмно-коричневого цвета и имеет уникальный дизайн, разработанный инженерами компании ASUS, который существенно отличается от «эталонного». В соответствии с фирменной концепцией Super Alloy Power при производстве рассматриваемого графического ускорителя была применена только качественная элементная база: твердотельные и танталовые конденсаторы, а также дроссели с ферритовыми сердечниками. По заявлению разработчиков, это позволяет не только получить больший срок службы продукта и меньший нагрев элементов PCB, но и заметно повысить его разгонный потенциал.
Вместо «референсной» 5+2-фазной схемы, преобразователь питания на ASUS GeForce GTX 680 DirectCU II ОС включает 8+2 фазы (для графического ядра и микросхем памяти соответственно), которые работают под управлением цифрового ШИМ-контроллера Digi+ VRM ASP1212. Разработчики отмечают, что применение цифрового контроллера с поддержкой активного переключения фаз позволяет снизить пульсации напряжения на GPU на целых 30%.
С обратной стороны платы напротив силовых коннекторов установлено 4 светодиода, которые позволят наглядно определить, достаточное ли питание получает видеокарта.
Изначально обратная сторона печатной платы скрыта за массивным «бекплейтом», а из расположенных здесь элементов удается рассмотреть лишь несколько контактных площадок у края печатной платы, которые используются для технологии VGA Hotwire. Отметим также наличие на плате двух разъёмов для подключения мостиков SLI, что позволяет объединять до четырех видеокарт на базе NVIDIA GeForce GTX 680 для совместного расчета графических эффектов и получения высочайшей производительности даже при построении мультимониторных конфигураций с поддержкой стереоскопического изображения.
Отметим, что для того чтобы демонтировать усилительную пластину и систему охлаждения предварительно потребуется снять заглушку интерфейсной панели и дополнительное ребро жесткости.
При взгляде на обратную сторону печатной платы, на себя обращает внимание сложность разводки элементов на текстолите, однако помимо нескольких танталовых конденсаторов и ряда светодиодов, других элементов мы здесь не обнаружили – все важные узлы расположены на лицевой стороне, что должно положительно сказаться на охлаждении видеокарты в целом.
Кристалл GK104 включает 1536 универсальных шейдерных процессоров (или ядер CUDA по терминологии NVIDIA) и 32 блока растеризации, а обмен данными с видеопамятью осуществляется через 256-битную шину. Повторимся, что базовая частота работы графического ядра на ASUS GeForce GTX 680 DirectCU II ОС была повышена относительно эталона(1006 МГц) и составляет 1020 МГц (1085 МГц с учетом технологии GPU Boost). Напомним также, что шейдерный блок в новом поколении графических адаптеров NVIDIA GeForce работает на той же частоте, что и остальные блоки GPU. Остальные характеристики чипа GK104 приведены на скриншоте выше.
Видеопамять стандарта GDDR5 общим объемом 2 ГБ набрана с помощью восьми чипов по 256 МБ производства компании Hynix. Микросхемы имеют маркировку H5GQ2H24MFR ROC и согласно документации могут функционировать на эффективной частоте 6 ГГц. На видеокарте ASUS GeForce GTX 680 DirectCU II OC видеопамять (в отличие от GPU) функционирует без заводского разгона на рекомендованной специалистами NVIDIA частоте — 6008 МГц.
Одной из ключевых особенностей видеокарты ASUS GeForce GTX 680 DirectCU II ОС является фирменная система охлаждения DirectCU II, которая занимает 3 слота расширения и согласно заявлению производителя, обеспечивает на 20% более высокую эффективность по сравнению с «референсным» кулером для GeForce GTX 680 при уровне шума на 14 дБ ниже.
Применяемый охладитель состоит из массивного двухсекционного алюминиевого радиатора, пронизанного двумя медными тепловыми трубками с внутренним сечением 7 мм и тремя — 8 мм, которые контактируют с графическим ядром напрямую, а также кожуха с двумя 90 мм вентиляторами, которые поддерживают регулировку скорости вращения с помощью метода широтно-импульсной модуляции (PWM).
Отдельный небольшой радиатор предусмотрен и для охлаждения силовых элементов питания, да и «бекплейт», расположенный с обратной стороны печатной платы, способствует лучшему охлаждению видеокарты в целом. Учитывая направленность рассматриваемого решения на геймеров и энтузиастов разгона, столь продуманное охлаждение элементов модуля стабилизации питания отнюдь не будет излишеством, но в то же время микросхемы памяти не имеют контакта с основным радиатором и охлаждаются лишь воздушным потоком, которые генерируют вентиляторы, что не позволяет надеяться на их выдающийся разгон.
Тепловые трубки у основания сильно подогнаны друг к другу, однако ни у основания, ни на рёбрах радиатора следов пайки не обнаружено, что мы считаем, хоть и незначительным, но упущением инженеров ASUS.
Что ж, пришло время проверить систему охлаждения видеокарты ASUS GeForce GTX 680 DirectCU II ОС в деле и для этого мы провели наш стандартный набор испытаний с помощью утилиты MSI Kombustor . Тесты проводились в двух режимах работы кулера: автоматическое управление и максимальная скорость вращения вентиляторов.
В автоматическом режиме при продолжительной максимальной нагрузке температура графического ядра не превышала отметку 70 градусов, что является действительно хорошим результатом для продукта такого уровня. При этом вентиляторы работали на 38% своей мощности, не слишком выделяясь на фоне остальных компонентов системного блока.
После того как мы установили скорость вращения «пропеллеров» на максимум и провели тестирование еще раз, мы зафиксировали снижение максимальной температуры GPU на целых 13 градусов, однако уровень шума, издаваемый кулером, при этом ощутимо вырос и его можно было охарактеризовать как «выше среднего».
При отсутствии нагрузки, частоты графического ядра и памяти автоматически понижаются, что приводит к меньшему энергопотреблению и тепловыделению. Кулер в таком режиме работает всего на 20% от максимальной мощности, практически не издавая шума, а температура GPU не превышает 33 градуса.
По итогам наших тестов, система охлаждения, применяемая для видеокарты ASUS GeForce GTX 680 DirectCU II ОС, продемонстрировала себя в качестве достойной замены штатной «турбины». Данный кулер отлично справился со своей задачей, обеспечивая невысокую температуру GPU при умеренном уровне шума в режиме автоматического регулирования скорости вращения вентиляторов.
При тестировании использовался Стенд для тестирования Видеокарт №3
Процессор Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц Материнская плата MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX) Кулер Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ) Оперативная память 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX) Жесткие диски 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB) Блок питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ) Корпус Antec LanВoy Air Yellow (MidiTower, Transformer) Монитор ASUS VG236H (Full HD, 1920x1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit Операционная система Microsoft Windows 7 64-bit Как и следовало ожидать, видеокарта ASUS GeForce GTX 680 DirectCU II ОС с небольшим заводским разгоном, по результатам тестирования продемонстрировала лишь немного более высокий уровень быстродействия в сравнении с графическим ускорителем на базе NVIDIA GeForce GTX 680 «референсного» дизайна. Преимущество альтернативной версии флагмана линейки GeForce от компании ASUS над «эталоном» составило лишь несколько процентов и в особо тяжелых графических режимах такая прибавка вряд ли будет заметна.
Актуальный флагман линейки AMD Radeon — Radeon HD 7970 — оказался медленнее ускорителя ASUS GeForce GTX 680 DirectCU II ОС практически во всех тестовых приложениях в среднем на 10-15%, что в полной мере соответствует разнице в стоимости между этими продуктами. Безоговорочной победы над двухчиповым «графическим монстром» предыдущего поколения — AMD Radeon HD 6990 — новинке не удалось добиться, однако в большинстве тестов разрыв между этими соперниками совсем незначительный.
Об особенностях разгона видеокарт на базе чипсета NVIDIA GeForce GTX 680 с учетом использования технологии GPU Boost мы уже успели подробно рассказать в обзоре графического ускорителя ASUS GeForce GTX 680 , поэтому не будем повторяться, а перейдем непосредственно к изучению результатов ручного оверклокинга нашего семпла ASUS GeForce GTX 680 DirectCU II ОС.
Вооружившись фирменной утилитой ASUS GPU Tweak и увеличив напряжение питания GPU, нам удалось разогнать графическое ядро видеокарты до частоты 1197 МГц (прирост 17% относительно эталона), а эффективная частота памяти составила 7080 МГц (прирост 18% относительно «референса»). Немаловажно, что в процессе проведения экспериментов с оверклокингом система охлаждения постоянно функционировала в режиме максимальной эффективности. В таблице ниже вы можете оценить прирост производительности вследствие ручного разгона:
Есть две разновидности видеокарт этой серии, одна из которых изначально уже разогнана производителем до базовой частоты GPU, равной 1083 МГц (до 1150 МГц в режиме GPU Boost), память типа GDDR5 работает на 6300 МГц. Именно она и попала на тестирование в лабораторию.
Результаты тестов: сравнение производительности
-
Hard Reset (Flying Wild Hog) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.
Благодарим компанию Nvidia за предоставление лицензионного продукта.Все наши пояснения направлены, как правило, на новичков или неопытных пользователей, желающих, однако, произвести апгрейд своего компьютера или просто собрать новый.
Тем, кто вообще не понимает, что́ такое ядро, почему в нем столько процессоров, что́ такое потоки и прочее, имеет смысл ознакомиться с нашими краткими справочниками по семействам современных видеокарт и процессоров, на основе которых они выпускаются. Следует отметить частоты работы, поддержку современных технологий (шейдеры), а также конвейерную архитектуру.
А теперь посмотрим на тесты.
Читайте также: