Gtx 280 какой нужен блок питания
Вот и еще одно решение, продаваемое под «флагами» компании ZOTAC попало на наш тестовый стенд. Эта топовая видеокарта, как и многие ее собратья от других «реализаторов», выполнена по «эскизу» рекомендованному компанией разработчиком графического процессора. И, совершенно, не важно, кто является конечным продавцом ускорителя, выпуском топовых видеокарт занимается непосредственно сама NVIDIA на производственных мощностях партнеров. В этом обзоре мы постараемся найти отличия от уже описанного нами полностью эталонного решения ASUS GeForce GTX 280. Ведь всегда есть возможность у конечного продавца изготовить свою упаковку под готовый ускоритель, изменить BIOS на свой фирменный, разогнать видеокарту или поменять кулер на альтернативный. Самой главной особенностью таких видеокарт от менее раскрученного производителя всегда остается их цена. Здесь нет необходимости платить за громко рекламируемое имя и красивый дизайн коробки, ведь суть и наполнение купленного вами продукта полностью идентична. Можно все же понадеяться получить от известного бренда более качественный гарантийный сервис и обслуживание в течение срока эксплуатации данного продукта, но это не для всех оправданный шаг, а ценовой критерий говорит сам за себя.
И так, пожалуй, начнем разговор непосредственно о видеокарте ZOTAC GeForce GTX 280 AMP!, которая покажет, как даже из эталонного решения можно получить нечто особенное. Этот продукт основан на самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200. Все наиболее интересные особенности этого GPU, новшества, архитектура и отличия от предыдущих чипов были рассмотрены нами в выше упомянутом обзоре ASUS GeForce GTX 280. Здесь же мы постараемся адекватно оценить и протестировать производительность схожей топовой видеокарты, но с более высокими частотами работы, что может дать существенный прирост в быстродействии.
Видеокарта ZOTAC ZT-X28E3LA-FCP на NVIDIA GeForce GTX 280
Начнем с обобщения и уточнения спецификации GeForce GTX 280, приведенной на сайте производителя и непосредственно на коробке этого ускорителя от компании ZOTAC.
ZT-X28E3LA-FCP (GeForce GTX 280 AMP! Edition)
NVIDIA GeForce GTX 280 (G200-300-A2)
240 унифицированных потоковых
DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1
Частота ядра (шейдерного домена), МГц
Объем (тип) памяти, МБ
Частота (эффективная) памяти, МГц
PCI Express 2.0 x16
До 2560 x 1600 в режиме Dual-Link DVI
До 2048 х 1536 при 85 Гц по аналоговому VGA
До 1080i через HDTV-Out
2x DVI-I (2x VGA через переходники)
TV-Out (HDTV, S-Video и Composite)
Поддержка HDCP
Декодирование HD-видео
Есть
H.264, VC-1, MPEG2 и WMV9
Простота изготовления коробки и ее небольшие размеры слегка удивили. Для топовых ускорителей обычно производитель не экономит на упаковочном материале. Здесь даже нет пластиковой ручки для удобного переноса, правда и габариты не такие, как у некоторых конкурентов. Дизайн и стиль оформления сохраняется у всей линейки видеокарт от данного производителя. Все затраты при создании этого «упаковочного материала» явно были сведены к минимальным, что можно считать и положительным качеством – конечному покупателю не придется платить за лишнюю красоту.
На обратной стороне упаковки перечислены общие возможности видеокарты и фирменного программного обеспечения. На одной из сторон заботливо указана информация о минимальных требованиях к системе, в которую будет установлена ZOTAC GeForce GTX 280 AMP! Edition. Наиболее интересной и критичной частью является рекомендация использовать минимум 550 Вт блок питания, который способен выдать до 40 А по линии 12V. Также БП должен обеспечить необходимое число выходов питания PCI Express или иметь свободные периферийные разъемы, к которым и будут подключаться переходники питания.
На другой стороне старательно указаны основные задействованные технологии, частотные характеристики и поддерживаемые драйверами операционные системы.
Внутри красочной и информативной обложки, т.е. внешней коробки, находится полностью белая внутренняя разделенная еще на несколько отдельных отсеков, вмещающих всю комплектацию.
Комплект поставки является вполне достаточным для установки и использования ускорителя, а помимо самого видеоадаптера включает в себя:
- диск с драйверами и утилитами под Windows;
- диск с бонусной игрой «Race Driver: GRID»;
- бумажные руководства по быстрой установке и использованию видеокарты;
- переходник с 2-x Molex (питания периферийных устройств) на 6-pin PCI-Express;
- переходник c S-Video TV-Out на покомпонентный HDTV-Out;
- переходник с DVI на VGA;
- переходник c DVI на HDMI;
- провод для подключения выхода SPDIF звуковой карты к видеокарте.
Классический формфактор характерен всем последним топовым решениям от компании NVIDIA и видеокарта на GeForce GTX 280 не стала исключением. Она имеет такие же габариты и внешность как ускорители на NVIDIA GeForce 9800 GX2 , а с NVIDIA GeForce 9800 GTX . Система охлаждения тоже почти не изменилась - она занимает соседний с видеокартой слот расширения, обеспечивая отвод нагретого воздуха за пределы корпуса.
Обратная сторона видеокарты теперь скрыта за металлической пластиной, которая играет роль радиатора для чипов памяти, располагающихся теперь с обеих сторон печатной платы.
Сверху видеокарты, почти у самого края, находятся разъемы подключения дополнительного питания. Рядом с разъемами питания под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании переходника на HDMI. С другой стороны тоже под заглушкой находится двойной разъем SLI, который обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с невероятно производительной видеосистемой.
За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле выходной решетки турбины, расположен индикатор питания видеокарты, отображающий его статус в данный момент.
Не будем углубляться во внутренние подробности, спрятанные под столь качественно и продуманно исполненным кожухом. Вся плата и система охлаждения в подробностях описана нами в статье ASUS GeForce GTX 280. Учитывая внешне полностью «референтное» исполнение ZOTAC GeForce GTX 280 AMP! Edition можно с уверенностью утверждать о полном ее внутреннем сходстве с рассмотренным нами ранее продуктом от компании ASUS.
Основным потребителем электроэнергии является чип NVIDIA GT200-300-A2 второй ревизии, который и именуют GeForce GTX 280. Именно он содержит 240 унифицированных потоковых процессоров, которые работают на тактовой частоте 1400 МГц (на 8% выше от рекомендованной) при работе остального ядра на частоте 700 МГц, что на 16% выше рекомендованной частоты. Обмен данными с видеопамятью производится по 512-битной шине. Видеопамять работает на эффективной частоте 2300 МГц, которая тоже на 86 МГц выше рекомендованной.
Что касается эффективности охлаждения GeForce GTX 280 AMP! Edition, то, уже непродолжительная серьезная нагрузка на видеокарту заставляет турбину раскручиваться до максимальной скорости, что заметно нарушает акустический комфорт. Температура ядра при этом удерживается на вполне приемлемом значении в приделах 85°C.
Отметим еще одну особенность этой видеокарты. При отсутствии 3D нагрузки температура графического ядра значительно снижается, что достигается еще и дополнительным понижением рабочих частот и уменьшением напряжения – в режиме 2D видеокарта потребляет на 200 Вт меньше. Этот же факт позволяет медленнее вращаться и турбине кулера, что делает его практически беззвучным.
При тестировании использовался Стенд для тестирования Видеокарт №2
Процессор | Intel Core 2 Quad Q9550 (LGA775, 2,83 ГГц, L2 12 МБ) @3,8 ГГц |
Материнские платы | ZOTAC NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX) |
Кулеры | Noctua NH-U12P (LGA775, 54,33 CFM, 12,6-19,8 дБ)Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 дБ) |
Дополнительное охлаждение | VIZO Propeller PCL-201 (+1 slot, 16,0-28,3 CFM, 20 дБ) |
Оперативная память | 2x DDR3-1333 1024 MБ Kingston PC3-10600 (KVR1333D3N9/1G) |
Жесткие диски | Hitachi Deskstar HDS721616PLA380 (160 ГБ, 16 МБ, SATA-300) |
Блоки питания | Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)Seasonic SS-650JT (650 Вт, 120 мм, 39,1 дБ) |
Корпус | Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120x120x25, 53 CFM, 24 дБ) |
Монитор | Samsung SyncMaster 757MB (DynaFlat, [email protected] Гц, MPR II, TCO'99) |
Получив на тестирование видеокарту ZOTAC GeForce GTX 280 AMP! Edition, которая функционирует на повышенных частотах, сразу возник вопрос – насколько эффективней такое решение относительно его стандартной реализации с рекомендованными частотами? Именно это мы и хотим показать более наглядно.
Меняй блок,бери 650 ват для этой видюхи,а лучше 700,а 550 ват маловато для такой,я на печь 260 600ват брал.
млять. вот и не видать доп. оперативы((, ну чтож придется раскошелиться на блок питания. ладно спасибо за помощ попер я в магаз. млять((
Ну чем мог тем помог,притом ща новенький возьмёш,с гарантие,да и с 6 и 8 пиновыми контактами и мучатся не нада будет,не пилить ничё,воткнул и погнал играть.Кстати скока у тя оперативы?
drovalet
Замыкаешь два оставшихся контакта и все. Если блок нормальный, то потянет без проблем.
И всяких "знатоков" тут поменьше слушай.
ну щас пока 2 гига, вот хотел еще 2 взять, но видимо позже. и забегая на перед проц амд 6000+ (два ядра)
2 Отец Викториус. падре))) подскажи поподробней чтоб я ничего не напутал, на видяхе два оставшихся контакта замнкнуть кусочком проволоки и всё? это точно не навредит видяхе? а то жалко 15 тыр выкинуть))
Отец Викториус А вдруг блок не выдержит и пойдёт тогда и блок и видюха в расход.550 ват хватит в притык,если там 550 честных ват.Лучше не рисковать
drovalet
Да, замыкаешь и все.
Dr. Ж.Е.К.А.
Сама карта кушает 180W в нагрузке, 550W более чем достаточно для питания всей системы.
Кстати извините за отступление,Отец Викториус ты на кого учишся? И эт подскажи пацану какие контакты замыкать,а то спалит ненароком,и гарантия слетит.
550W честных там. я и сам в обзоре читал что вроде не много кушает эта видеокарта. я ее вместо ати4870х2 изза этого и взял, что жрет она меньше греется меньше и проигрывает в тестах не много, ну это уже другая история. ладно рискну))) перемкну!! а там видно будет кто был прав ;)
ок. не раньше чем завтра, седня до поздна работе, если желание будет вечером заморочусь и завтра отпишусь.
В легких играх и при небольшом разрешении он не до конца раскроет потенциал карты,а в нормальных от 1280 со сглаживанием все потянет,это я про твой процессор.У меня тоже атлон 6000
ну вот только что связывался с магазом в котором брал "карточку", их паренек заверил что перемкнуть можно, и ни чего с ней не будет, так что если что ему ее и принесу в подарок. кстати что удивило в этой видяхе так это то что она парядком легче чем моя предыдущая 2900про, но вот по размерам она поболее будет она подлиннее этак сантиметра на полтора (изза чего мне пришлось делать перестановку винтов) да и в целом пообъемнее будет.
Ну вот я и попробовал. теперь у меня нет проблем так как нет и видяхи((( она торжественно пыхнула вместе с блоком питания и вроде даже мамкой(((. ну да ладно это я пошутил)) все заработало! и отлично шуршит)) попробовал в гта4 (исесно пиратке ломаной и кривой) с этой картой у меня на 1280-1024 все ползунки на среднем, текстуры высоко и еще чето там высоко, все работает баз тормазов))) прошлая видяха канечно такого не могла, она на почти минимуме тупила безбожно. ну да ладно че эт я про гта. этож уже совсем другая тема для разговора.
как итог хочу сказать спасибо всем помогавшим, вобщем то при наличии нужной суммы денег советую эту видяху, впринцепе мне понравилась, работает тише чем моя б\у, блок питания 550 ват вывез ее без проблем, перегревов не наблюдал за вчерашние прогоны в гта4, по цене непонятно как-то с ней все слажилось. она у меня идет с завода оверклокерская (т.е. разогнаная слегка) что сделало ее всего на 500 руб. дороже аналогичной карты без разгона в том же магазе, но в том же магазе в прайсе есть но к сожалению в наличие небыло 4870х2, внекоторых комплектациях которая была всего на 2000 руб. дороже гтх280 (ОС), что делало ее весьма привлекательной для покупки, но её отсутствие в магазе и нежелание ждать доставки сыграло свою решающую роль. и вот я стал счастливым обладателем гтх280, и скажу я вам весьма доволен своим преобретением. теперь осталось взять оперативки и все. апгрейд готов))
Извените..может быть повторяюсь..может быть кто-то уже и спрашивал об этом но..она в России-то етсь эта GeForce gtx 280 ? потому что когда я у себя в городе ее спрашиваю на меня как на дурачка смотрят..как буд-то я сам себе ее выдумал..вот я и думаю что если в Москве допутсим она появилась..то с Москвы заказать? сколько она ктстаи если кто знает стоит?
GTX280 стоит от 14000р. Только зачем она нужна если за 8000р можно купить Radeon 4870 который обгоняет GTX260 и чуть отстает от GTX280.
Просто пока их тяжело найти, я например чтобы купить это чудо "на очередь подписывался"
заказать можно в магазине, если покупаешь в какой либо сети, тебе могут подогнать ее даже из другого города.
В Питере самая дешевая которую я недавно видел стоила 17000+ от BFG, чуть дороже Zotac, и ASUS каторая сползла до 20 с хвостом.
Еще можно по инету заказать, там торги начинаются с 18000
PS цены между производителями колеблются в районе 2500 - 3000 тысяч.
Я тоже ей интересовался, мне в трех точках отсоветовали ее. Сказали, мол бери пока 3800 и жди, а где то через пол года-год можно будет взять, что нибудь долгоиграющее. Типа щас лучше не лесь, а то потом будет мучительно больно за зря потраченные деньги.
тааак..это что за новые сведения.."худшая видеокарта в истории. я смотрел на тесты..в них она вроде как себя классно показала..а HD 4870. она ведь по идее хуже. неважно насколько но ведь отстает от 280..а 4870 ктстаи вообще продается? или точно так-же в очередь ее заказывать нужно?
P.S - так в статье говорится лишь о том что она хреново распродается скорее всего ввиду дороговизны..4870 берут только из-за дешевизны. да и к тому-же когда выйдет двухпроцессорный 4870? через две недели или исче через месяц? так можно до посенения выжидать. ) вообщем вы советуете 4870? хм..а 4870 считается ммм боле-менее долгоииграющей картой? я так понел она на уровне с 260 идет. ништяк что у кого-то хоть продавцы в магазинах путевые чего-то советуют, отсоветуют..я в три центра заходил там какие-то гуси сидят нехрена незнают.
p.s. думаю фирмам-производителям виднее что gt200 худший чип.
Статью надо бы доконца прочитать..
"Интересная информация пришла и от вендоров, которые заявили, что видеокарты NVIDIA GeForce GTX 280/260 являются самым худшим продуктом в истории калифорнийской компании. При этом объемы продаж видеокарт на розничном рынке Северной Америки могут не превысить весьма скромную сумму в три тысячи устройств ежемесячно. Причем, речь идет не только о GTX 280, но и о GTX 260. На этом фоне проблемы испытывает не только компания NVIDIA, но и сами продавцы, которые из-за невысокого спроса с трудом распродают свои запасы видеокарт."
А падение цен лучше всего говорит о неудачности продукта - минус 250$ за две недели.. Причём в США фирмы даже возвращают разницу в цене за купленные GTX'сы по первоначальным ценам..
В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.
Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.
Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» - конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.
Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.
Выход нового флагмана
Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты - неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.
Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.
Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.
Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.
Графический ускоритель GeForce GTX 280
- кодовое имя чипа GT200;
- технология 65 нм;
- 1,4 миллиарда (!) транзисторов;
- унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
- аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
- 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
- частота ядра 602 МГц (GeForce GTX 280);
- ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
- 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
- 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
- возможность динамических ветвлений в пиксельных и вершинных шейдерах;
- 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
- запись результатов до 8 буферов кадра одновременно (MRT);
- все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.
Спецификации референсной видеокарты NVIDIA GeForce GTX 280
- частота ядра 602 МГц;
- частота универсальных процессоров 1296 МГц;
- количество универсальных процессоров 240;
- количество текстурных блоков – 80, блоков блендинга — 32;
- эффективная частота памяти 2,2 ГГц (2*1100 МГц);
- тип памяти GDDR3;
- объем памяти 1024 МБ;
- пропускная способность памяти 141,7 ГБ/с;
- теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
- теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
- два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
- двойной SLI разъем;
- шина PCI Express 2.0;
- TV-Out, HDTV-Out, DisplayPort (опционально);
- энергопотребление до 236 Вт;
- двухслотовое исполнение;
- изначальная рекомендуемая цена $649.
Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.
В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:
- В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
- В 2,5 раза увеличено число одновременно исполняемых потоков.
- Вдвое увеличена максимальная длина сложного шейдерного кода.
- Вдвое увеличена точность расчетов с плавающей запятой.
- Намного быстрее исполняются геометрические расчеты.
- Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
- Увеличена скорость доступа к буферу памяти.
- Улучшены внутренние связи чипа между различными блоками.
- Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
- Поддержка 10-битной глубины цвета.
Приведём основную диаграмму чипа GT200:
Основные архитектурные особенности CUDA
С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.
Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.
Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.
Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.
Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:
Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!
Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.
С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.
Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.
В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.
Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.
При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.
Улучшенная технология управления питанием
Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:
- режим простоя или 2D (около 25 ватт);
- режим просмотра HD/DVD видео (около 35 ватт);
- полноценный 3D режим (до 236 ватт);
- режим HybridPower (около 0 ватт);
Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.
С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.
Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280
Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.
Изначальная дороговизна ускорителей на графическом чипе NVIDIA GT200 отпугивала многих, в том числе и не очень стойких фанатов марки. Но успехи конкурирующего RV770 от AMD ATI вынудили снизить отпускные цены на флагманские решения от NVIDIA, поэтому сейчас интерес к видеокартам серии GeForce GTX вспыхнул с новой силой. И если с учетом новых цен ускорители GeForce GTX 280 все еще остаются дорогим удовольствием, то GeForce GTX 260 теперь многие рассматривают как интересный вариант обновления видеосистемы.
NVIDIA GeForce GTX 260
Графические процессоры GeForce GTX 280 и GeForce GTX 260, как было отмечено выше, имеют одни и те же корни – чип NVIDIA GT200 (подробнее о нем в обзоре GeForce GTX 280). Только для более дорогих ускорителей используется полноценная версия этого GPU, а для GeForce GTX 260 «урезанная», что, кроме всего прочего, позволяет производителю продать и частично нерабочие GT200.
Блок-схема GeForce GTX 260 (GT200-100), затемнена отключенная часть чипа.
Как видно из схемы, у GeForce GTX 260 стало меньше активных унифицированных процессоров, блоков выборки и фильтрации текстур, блоков растеризации, а также уменьшилась ширина шины памяти. Такие изменения, конечно же, привели не только к уменьшению производительности, но и энергопотребления, повлияв на уменьшение стоимости.
GeForce 9800 GTX
GeForce GTX 260
GeForce GTX 280
Частота ядра, МГц
Частота унифицированных процессоров, МГц
Количество унифицированных процессоров
Количество блоков адресации/фильтрации текстур
Количество блоков ROPs
Объем памяти, МБ
Эффективная частота памяти, МГц
Разрядность шины памяти, бит
Пропуская способность памяти, ГБ/с
Количество транзисторов, млн
Технический процесс производства
Видеокарта XFX на NVIDIA GeForce GTX 260
Подогрев интерес к графическому чипу, перейдём непосредственно к обзору одной из видеокарт на нем, тестированию, сравнению и, естественно, разгону. Встречаем XFX GeForce 260 GTX 896MB DDR3 Standard.
GeForce 260 GTX 896MB DDR3 Standard
(GX-260N-ADF9, GF GTX260 576M 896MB DDR3 DUAL DVI TV PCI-E)
NVIDIA GeForce GTX 260 (G200-100-A2)
192 унифицированных потоковых
DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1
Частота ядра (шейдерного домена), МГц
Объем (тип) памяти, МБ
Частота (эффективная) памяти, МГц
PCI Express 2.0 x16
До 2560 x 1600 в режиме Dual-Link DVI
До 2048 х 1536 при 85 Гц по аналоговому VGA
До 1080i через HDTV-Out
2x DVI-I (HDMI и VGA через переходники)
TV-Out (HDTV, S-Video и Composite)
Поддержка HDCP
Декодирование HD-видео
Есть
H.264, VC-1, MPEG2 и WMV9
Поставляется видеокарта в совсем не маленькой двойной картонной коробке, верхняя из которых имеет оформление в фирменном стиле XFX, а внутренняя – традиционно, кислотно-зеленого цвета. Лицевая часть упаковки сообщает только самые ключевые особенности содержимого – модель GPU и его тактовую частоту, объем и тип видеопамяти, интерфейс, некоторые поддерживаемые технологии, а также комплектацию игрой «Assassins Creed».
Одна из боковых сторон коробки содержит полный перечень минимальных и рекомендуемых системных требований. Наиболее интересно отметить необходимость использовать минимум 500 Вт блок питания, который способен выдать до 36 А по линии 12V. При этом для полной уверенности в длительной бесперебойной работе системы предлагается использовать более мощный источник питания: от 630 Вт для одиночного ускорителя и от 680 Вт для конфигурации SLI.
Обратная сторона упаковки рассказывает о преимуществах использования GeForce GTX 260 для игр, перечисляет все возможности и поддерживаемые технологии для данного графического процессора, а также немного поясняет некоторые из них.
Комплект поставки является вполне достаточным для полноценного использования ускорителя и помимо самого видеоадаптера включает:
- переходник с 2-x Molex (питания периферийных устройств) на 6-pin питание PCI-Express;
- переходник c S-Video TV-Out на покомпонентный HDTV-Out;
- кабель подачи на видеокарту аудиосигнала в формате SPDIF;
- переходник с DVI на VGA;
- диск с драйверами и сопроводительным ПО;
- DVD с полной версией игры «Assassins Creed»;
- бумажные руководства по быстрой установке видеокарты и использованию TV-Out;
- табличку для дверной ручки «Я играю – не беспокоить».
Отметим, что кроме обычных общих данных по правильной установке видеокарты в слот PCI Express и инсталляции дарайверов с комплектного диска, руководство содержит рекомендации по правильной организации вентиляции и укладке кабелей и шлейфов в корпусе.
Также в руководстве отмечены рекомендуемые и нерекомендуемые способы подачи питания на видеокарту. Интересно, что использование каких-либо переходников не приветствуется, хотя в комплекте видеокарты такой «неправильный» переходник имеется, видимо, как забота о пользователях с не самым подходящим для GeForce GTX 260 блоком питания.
Видеокарта на GeForce GTX 260 имеет такие же габариты, как ускорители на старшем GeForce GTX 280, что совсем не удивительно, т.к. и сама печатная плата, вместе с системой охлаждения, используются те же. Но разобрать тестируемый ускоритель оказалось очень тяжело, т.к. компания XFX позаботилась о тщательном скрытии фирменными наклейками всех винтиков. Обратная сторона видеокарты скрыта за металлической пластиной, которая играет роль радиатора для чипов памяти располагающихся с обеих сторон печатной платы. А под заглушкой по-прежнему находится двойной разъем SLI, что обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с очень производительной видеосистемой
Сверху видеокарты под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании выхода HDMI. Тут же расположены и разъемы подключения дополнительного питания, но поскольку энергопотребление GeForce GTX 260 уменьшилось, то теперь достаточно пары 6-контактных разъемов PCI Express.
За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле отверстий выброса нагретого воздуха, расположен индикатор питания видеокарты, отображающий его статус в данный момент.
Что касается эффективности охлаждения GeForce GTX 260, то, похоже, отключение части исполнительных блоков и уменьшение тактовой частоты ядра привели к меньшему тепловыделению чипа. Теперь, та же турбина, при максимальной нагрузке на графический процессор, раскрутилась только до вполне терпимых 1100 об/мин, обеспечивая температуру GPU на уровне 80°C. Это значительно лучше, чем у GeForce GTX 280, который в тех же условиях закрытого корпуса при максимальной скорости турбины в 1500 об/мин «раскалялся» до 100°C и более.
Читайте также: