Самая первая видеокарта nvidia
Споры о том, кто правил миром 3D-графики в самом начале, не утихают и по сей день. Отдавая дань роли компании 3Dfx Interactive, теперь уже ставшей частью истории, не нужно забывать и другие эпохальные события, например, выпуск чипа NV1. Стал ли первый продукт NVIDIA революцией в мире объемной графики на ПК, попыткой сформировать новую область рынка или просто неудачно спроектированным решением?
Firingsquad: "Выпущенный в 1995 году, NV1 и его модификация STG2000 были первыми "полными" мультимедиа-ускорителями. Оба чипа были идентичны за исключением того, что NV1 использовал высокопроизводительную VRAM, а STG2000 - более дешевую DRAM. Несмотря на то, что NV1 был первым продуктом NVIDIA, для свого времени он был весьма продвинутым решением: 2D- и 3D-графика, встроенный аудиопроцессор мощностью 350 MIPS и процессор ввода-вывода. Самой известным ускорителем на основе NV1 был Diamond EDGE 3D.
Когда чип NV1 был только представлен, многие из 3D-стандартов, которые сейчас кажутся непререкаемыми, еще принимались. Пока полигоны не были окончательно утверждены в качестве стандарта для 3D-игр, NVIDIA решила использовать другой способ формирования примитивов объемного изображения - Quadratic Texture Maps (кривые поверхности третьего порядка). Тогда как современным 3D-ускорителям требуется большое количество маленьких полигонов для воспроизведения гладкой поверхности, в NV1 использовались искривленные стороны полигонов. Это позволяло чипу отображать гладкие поверхности без особой нагрузки. Текстуры хранились в системной памяти и подавались через шину PCI или VESA Local Bus по мере необходимости - по тому же принципу через несколько лет будет работать AGP.
Однако первый продукт NVIDIA не состоял целиком из графического ядра. В NV1 была интегрирована микросхема для воспроизведения звука. С 32 каналами, 16-битным CD-качеством и аппаратным ускорением примитивного объемного звука, NV1 производила более сильное впечатление, чем многие PCI звуковые карты первого поколения. В качестве банка для MIDI (таблица MIDI была сертифицирована Fat Labs) использовалось 6 МБ системной памяти.
Вместо традиционного игрового порта на NV1 был размещен разъем, поддерживающий геймпады и джойстики от Sega Saturn, которые можно было использовать в любой совместимой с DirectInput игре, включая Virtua Fighter, Virtua Cop и Panzer Dragoon.
Хотя чип NV1 намного превосходил возможности конкурентов и был значительно перспективней, именно технология кривых поверхностей третьего порядка привела к его рыночной смерти. Когда Microsoft утвердила спецификации Direct3D, незадолго после того, как NV1 появился на полках магазинов, именно полигоны были выбраны в качестве стандартных примитивов. И, несмотря на все усилия NVIDIA и Diamond, разработчики больше не хотели ориентироваться на NV1. Компания Diamond даже пыталась увеличить число покупателей огромными скидками и включением в комплект поставки геймпада от Sega, но и это не принесло успеха.
С помощью Direct3D Microsoft практически уничтожила NVIDIA. Производители ПК отказывались ставить в машины видеокарты на чипе, несовместимом с Direct3D, и инженеры NVIDIA понимали, что не смогут вывести на рынок новый полигональный 3D-ускоритель. Компания ушла от общественного интереса и была вынуждена уволить несколько сотрудников.
Чип: nVidia Riva TNT2 (TNT2 Vanta, TNT2 M64, TNT2 Pro);
Технологический процесс: 0,25 микрон (0,22 микрон у TNT2 Pro);
Архитектура чипа 128 бит;
Разрядность интерфейса памяти 128 бит (64 бит у TNT2 Vanta и TNT2 M64)
Разрядность шины данных 128 бит (64 бит у TNT2 Vanta и TNT2 M64)
Пропускная способность памяти 2,4 Гб/сек., ( 1,2 Гб/сек у TNT2 Vanta и TNT2 M64; 2,65 Гб/сек. у TNT2 Pro)
Интерфейс AGP 4X (режим Fast Writes не поддерживается);
Частота работы ядра 125 МГц, (100 МГц у TNT2 Vanta, 125 МГц TNT2 M64 и 142 МГц у TNT2 Pro)
Частота работы памяти 150 МГц, (125 МГц у TNT2 Vanta, 150 МГц TNT2 M64 и 166 МГц у TNT2 Pro)
Тип памяти SDR / SGR;
Максимальный объем видеопамяти: 32 Мб;
Конвейеров рендеринга: 2, с двумя блоками текстурирования на каждый;
Скорость заполнения при мультитекстурировании: 125 Мпикселей/сек., 250 Мтекселей/сек., (100 Мпикселей/сек., 200 Мтекселей/сек. у TNT2 Vanta, 125 Мпикселей/сек., 250 Мтекселей/сек. у TNT2 М64 и 142 Мпикселей/сек., 284 Мтекселей/сек. у TNT2 Pro);
Нет аппаратной поддержки T&L;
0.18 микрон;
Частота чипа ожидается в районе 160 - 200 МГц;
Частота памяти от 183 МГц до 200 МГц для SDR и от 333 МГц до 400 для DDR;
Поддержка памяти SDR, DDR SDRAM/SGRAM;
Внутрення шина памяти 128 и 256 бит;
До 128 Мб памяти;
Производительность в режиме мультекстурирования 640-800 млн. пикселей (Ge Force 256 - 240 млн. пикселей);
RAMDAC 350 МГц;
PCI 2.2 и AGP x4 (включая режим Fast Writes);
Поддержка HW T&L, FSAA, HDTV процессор, edge anti-aliasing (краевое сглаживание)
Технология: 0.15 мкм
около 60 миллионов транзисторов
Частота графического ядра: 200+ МГц (позже, вероятны "Ultra" и "Pro" варианты, например на 250 МГц)
Число пиксельных конвейеров рендеринга: четыре
Число текстурных блоков на конвейер рендеринга: два
Возможность наложения четырех текстур на один пиксель (требуется два такта)
Интерфейс памяти: 128 бит
Поддерживается память типа DDR SDRAM/SGRAM
Пиковая пропускная способность шины памяти при 250 Мгц шине: 8 Гб/с
Поддерживаемый объем локальной видеопамяти: до 128 Мб (первые карты, как и наш образец, будут иметь 64 Мб)
RAMDAC: 350 МГц
Максимальное разрешение: 2048x1536@75Hz
Аппаратный T&L: эффективная производительность порядка 40+ млн. полигонов в секунду (у нашего образца чуть меньше 40 млн. полигонов в секунду на синтетическом тесте)
6 пиксельных конвейеров рендеринга
частота ядра - 300MHz
частота памяти - 600MHz, полоса пропускания - 10.5GB/sec
поддержка TwinView
аппаратная поддержка декодирования MPEG-2
улучшенный модуль T&L, алгоритмы сглаживания
технология производства - 0.13микрон.
63 млн транзисторов (только на 3 млн больше GeForce3);
Изготовитель: TSMC по 0,15 мкм техпроцессу;
T&L производительность: 75-100 млн вершин/с;
128 Мб кадровый буфер по умолчанию;
Движок nFiniteFX II;
Сглаживание Accuview;
Архитектура памяти Lightspeed II;
nView.
73 миллиона транзисторов
0.13-мкм технологический процесс;
частота ядра - 450 МГц;
поддержка AGP 8x;
8 конвейеров рендеринга;
4 блока вертексных шейдеров;
2 блока пиксельных шейдеров;
Lightspeed Memory Architecture III (в продолжение LMA II в GeForce4);
двойной Z-Buffer;
новый метод анизотропной фильтрации под названием "12nvx";
поддержка Glide;
отдельный процессор T&L, работающий на тех же 450 МГц (помните 3dfx с ее отдельным T&L-процессором Sage? Между прочим, все специалисты из этой компании до сих пор трудятся в NVidia);
256-битный доступ к памяти, имеющей частоту в 750 МГц (DDR), то есть пиковая пропускная способность памяти составляет 24 Гбайт/с
Про современные архитектуры подробнее:
Флагманской моделью линейки NV4x является чип NV40, увидевший свет в апреле 2004 года. Он производится по хорошо отработанному, но стремительно устаревающему 130-нм техпроцессу на заводах IBM, его 222 миллиона транзисторов потребляют до 120 Ватт энергии, поэтому "силовых" возможностей штатного интерфейса AGP 8x уже катастрофически не хватает и на видеокартах, изготовленных на базе NV40, обычно устанавливают по два (!) дополнительных разъема питания. Да и система охлаждения всей этой "печки" должна быть не самой слабой. Наряду с NV40, выпускается и его PCI Express-модификация NV45, все отличие которой от базовой модели, заключается в интегрированном в корпус чипа AGP-PCI-E мосте HSI. В производственной линейке NVIDIA встречается еще и чип NV48, который отличается от базового NV40 только тем, что выпускается на фабриках TSMC. Таким образом, NVIDIA целиком и полностью отказалась от услуг IBM в области изготовления чипов, и вернулась к своему старому и, видимо, более приемлемому, чем IBM, технологическому партнеру.
256 битный четырехканальный (организация 64х4) интерфейс памяти NV40 обеспечивает подключение до 1 Гбайта памяти любого типа - как обычной DDR1/DDR2, так и специально разработанной для использования в видеоустройствах GDDR3. Что касается архитектурных особенностей NV40, то стоит отметить, что он стал первым графическим процессором, возможности которого полностью соответствуют требованиям DirectX 9.0с, иными словами, его вычислительные возможности позволяют выполнять шейдеры версии SM (Shader Model) 3.0. Высокую производительность обеспечивают 6 вершинных и 16 пиксельных конвейеров (каждый из которых, в свою очередь, оборудован двумя шейдерными блоками и одним блоком текстурирования). Одновременно могут работать либо два шейдерных блока, либо текстурный и один из шейдерных блоков. Таким образом, NV40 позволяет выполнить за такт до 16 текстурных операций или 32 операций с глубиной и буфером шаблонов, обеспечивая анизотропную фильтрацию с соотношением сторон до 16:1 включительно.
На базе ядра NV40/NV45/NV48 выпускаются видеокарты: GeForce 6800 Ultra, GeForce 6800 GT, GeForce 6800 и GeForce 6800 LE. Типовые значения частоты ядра/шины памяти GeForce 6800 Ultra составляют 400 МГц/1,1 ГГц, у модификации GeForce 6800 GT они снижены до 350 МГц/1 ГГц, у GeForce 6800 - до 325 МГц/700 МГц, а у GeForce 6800 LE частотные параметры не оговорены вообще - все отдано на усмотрение производителей видеокарт. При этом у последних двух еще и уменьшено до 12 количество пиксельных конвейеров. Причем, в отличие от общепринятой практики, когда "урезание" осуществляется путем программного отключения некоторого числа процессоров (что дает возможность народным "умельцам" путем нехитрой операции подключить неиспользуемые блоки, получив, таким образом, полнофункциональную GeForce 6800 за небольшие деньги), в данном случае компания NVIDIA выпустила специальное "усеченное" ядро NV41. В нем имеется всего лишь 12 "физических" пиксельных процессоров, тогда как все остальное полностью соответствует базовому NV45. Ядро NV42 является 110-нм версией NV41. Кстати, именно оно лежит в основе самой последней новинки NVIDIA - GeForce 6800 GS (частота чипа - 425 МГц, памяти - 1000 МГц), призванной составить конкуренцию ATI Radeon X1600 XT.
Для видеокарт среднего уровня, компания NVIDIA в августе 2004 года выпустила графическое ядро NV43, являющееся, впрочем, несколько упрощенным (путем уменьшения числа вершинных и пиксельных процессоров и каналов контроллера памяти) решением, основанным на архитектуре NV40. Однако NV43 выполнен по 0,11-мкм технологии TSMC (количество транзисторов в ядре составляет 146 млн.), и, кроме того, он стал первым графическим ядром NVIDIA с встроенным контроллером PCI Express (возможна трансляция интерфейса PCI-E в APG 8х с помощью двустороннего PCI-E-AGP моста HSI). Благодаря более "тонкому" технологическому процессу и меньшему количеству исполнительных устройств в ядре, тепловыделение NV43 не превышает 70 Вт, то есть на PCI-Express карте разъем для дополнительного питания не нужен.
Набор вычислительных ресурсов NV43 ровно вдвое меньше, чем у старшей модели NV40 - он оснащен восемью пиксельными конвейерами и тремя вершинными, а ширина шины памяти уменьшена с 256 до 128 бит.
В настоящее время представлено две Mainstream-модификации видеокарт, базирующихся на графическом процессоре NV43 - GeForce 6600 и GeForce 6600 GT, а также одна класса Low-End - GeForce 6200 (впрочем, с недавних пор она переименована в GeForce 6600 LE). Частоты ядра и шины памяти GeForce 6600 составляют 300 и 550 (иногда - 500) МГц, а у модификации GT - 500 и 1000 МГц соответственно. В GeForce 6200/6600 LE используется "усеченное" ядро NV43V с четырьмя (вместо пиксельными конвейерами, а его частотный диапазон соответствует GeForce 6600.
В младшей модели семейства графических процессоров NVIDIA GeForce 6x00 - GeForce 6200ТС используется преимущественно ядро NV44, изготовленное по 0,11-мкм проектным нормам. Как и в случае NV43, PCI Express у него нативный (то есть реализованный на чипе), а AGP 8х вариант чипа обозначается как NV44А. NV44 имеет 3 вершинных процессора, как у NV43, и 4 пиксельных, какие-либо глобальные архитектурные отличия от NV40 и NV43 отсутствуют.
Главным ограничителем производительности у NV44, является подсистема памяти - ширина шины ограничена 64-битами. Индекс TC обозначает поддержку технологии TurboCache, призванная задействовать часть системной памяти при рендеринге буфера кадра, благо, пропускной способности шины PCI-E x16 для этого хватает. Конечно, такие видеокарты заметно проигрывают по уровню производительности своим полноценным собратьям, зато немного выигрывает у них по стоимости. А для бюджетных решений, каждый сэкономленный доллар может оказаться решающим в деле продвижения на рынок решений той или иной конкурирующих фирм. Тем не менее, для того, кто захочет немного сэкономить, приобретя такую видеокарту, такой выигрыш окажется иллюзорным. Ведь системная память, в особенности DDR2, от которой "оттяпывает" свою часть видеосистема, отнюдь не безразмерна и далеко не бесплатна.
Середина лета 2005 года стала новой вехой в истории компании NVIDIA - был выпущен графический процессор нового поколения G70. Но, несмотря новое кодовое название чипа, его архитектуру нельзя считать принципиально новой - он является очередным этапом эволюции хорошо знакомой всем нам архитектуры семейства NV4x (о чем свидетельствует первоначальное кодовое обозначение чипа - NV47).
Плюс к этому, NVIDIA не стала рисковать и выпустила его по хорошо отработанному 110-нм техпроцессу TSMC, поэтому нет ничего удивительного в том, что видеокарты семейства GF7800GTX стали доступны в массовых количествах сразу после анонса.
Основным новшеством G70, базирующемся на все том же наборе шейдеров Shader Model 3.0 (SM 3.0), стало увеличение до 24 (или, по терминологии NVIDIA, до 6 процессоров квадов) числа слегка улучшенных, по сравнению с NV4x, пиксельных процессоров, а вершинных - до 8, объем адресуемой памяти типа GDDR3 может достигать 1 Гбайт. Кроме того, была осуществлена оптимизация питания и энергопотребления, благодаря чему типовое потребление видеокарты GeForce 7800 GTX не превышает 110 Ватт, то есть осталось на уровне GeForce 6800 Ultra, несмотря на 30% увеличение числа транзисторов. В G70 появилась аппаратная поддержка ряда потенциальных "хитов" ближайшего будущего: воспроизведение видео в формате HDTV, а также поддержка важных специальных возможностей графической драйверной модели Windows Vista. Кроме High-End видеокарты GeForce 7800 GTX (430/1200 МГц), процессор G70 устанавливается и в его чуть более скромном собрате - GeForce 7800 GT, отличающимся от GTX не только пониженными (до 400/1000 МГц) частотами, но и урезанным числом конвейеров (20 пиксельных и 7 вершинных) рендеринга, что обеспечивает ему место (по показателям производительности) где-то посередине между GeForce 7800 GTX и GeForce 6800 Ultra.
Очередными новыми чипами NVIDIA должны стать G72 и G74 (официальные названия GeForce 7600 и GeForce 7200), которые следует ожидать в феврале-марте 2006 года. Они, скорее всего, будут урезанными версиями базового G70, и станут первыми графическими чипами NVIDIA, выпускаемыми по 0,09 мкм технологии. Они должны заменить NV43 и NV44 в Mainstream- и Low-End секторах соответственно. Таким образом, в ближайшие полгода NVIDIA собирается полностью заменить все чипы NV4x на новинки из линейки G7x. Кроме того, NVIDIA в начале 2006 года планирует представить чип G71, являющийся 0,09 мкм версией G70 с меньшей площадью кристалла и пониженным энергопотреблением.
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
Выпущенный в 1995 году, NV1 и его модификация STG2000 были первыми "полными" мультимедиа-ускорителями. Оба чипа были идентичны за исключением того, что NV1 использовал высокопроизводительную VRAM, а STG2000 - более дешевую DRAM. Несмотря на то, что NV1 был первым продуктом NVIDIA, для свого времени он был весьма продвинутым решением: 2D- и 3D-графика, встроенный аудиопроцессор мощностью 350 MIPS и процессор ввода-вывода. Самой известным ускорителем на основе NV1 был Diamond EDGE 3D
Интерес рынка к продукту окончательно закончился, когда Microsoft объявила о спецификациях DirectX, основанных на традиционном полигональном рендеринге. Попытка исследовательской группы NVIDIA портировать квадратичную технологию на API Microsoft провалился. Попытка выполнить наложения текстуры и операцию clipping приводило к уравнениям 5 степени невычислимыми в радикалах. Хотя демонстрационные примеры с квадратичными поверхностями выглядели довольно неплохо, работа с ними оказалась чрезвычайно трудной. Nvidia пыталась добавить ограниченную поддержку Direct3D, но она была медлительна, т.к. использовалась программная обработка. DirectX API был "фундаментально" несовместим с NV1 и означал неизбежную смерть NV1 и потерю Nvidia лидерства на рынке.
Дальнейшая разработка NV1 под новым названием - NV2 была остановлена, NV1 производство было свернуто. В 1996 году Nvidia начала разработку классического акселератора. К этому времени естественное развитие производства микросхем сняло проблему перспективного преобразования и квадратичная технология прекратила своё существование, оставшись частью истории.
NV2 использовал такой же механизм рендеринга и так и не появился на свет.
RIVA TNT2 NV5: первая Ultra
В 1999 году вышла видеокарта TNT2. Кодовое название чипа —- «NV5», так как он является пятым графическим процессором, разработанным Nvidia,сменившим Riva TNT (NV4) Карты TNT2 распределялись по частотам. nVidia тогда решила использовать только две версии TNT2 и TNT2 Ultra. TNT2 была весьма мощной видеокартой.Это была первая видеокарта nVidia AGP 4x NV6, которая тоже вышла в 1999 году, представляла собой урезанную версию TNT2.
Летом 2008 года NVIDIA выпускает GeForce GTX 280 новую топ-модель технически во многом связанную с Geforce 8. В отличие от AMD Radeon HD 4800 NVIDIA отказалась от DirectX 10.1, который не использовался разработчиками игр за несколькими исключениями.
Nvidia Geforce 300 (2009)
Geforce 310- это просто переименованый продукт предыдущего поколения с дополнительной поддержкой DirectX 10.1 Технически ничего нового.
Nvidia Geforce 400 (2010)
После нескольких задержек и через полгода после AMD Nvidia в конеце марта 2010 представила первую свою DirectX 11 видеокарту . GeForce GTX 480 предлагает исключительно высокую производительность, но ест много энергии очень горячая и имеет невыносимо шумный вентилятор.
Nvidia Geforce GTX 460 (2010)
Geforce GTX 460 не дотягивал даже до середины GTX 480 но имел тихий вентилятор и был также успешным для Nvidia как видеокарты GeForce 8800 GT. За несколько месяцев появились несколько "урезанных" версий, но только GTX 460 имеет 1.0 ГБ видеопамяти.
Nvidia Geforce GTX 580 (2010)
Через шесть месяцев после GeForce GTX 480 Nvidia выпускает GeForce GTX 580 с оптимизированной версией второго поколения DirectX 11 . По сравнению с GTX 480 на 20 процентов более мощная и тихая.
Nvidia Geforce GTX 680 (2012)
Nvidia Geforce GTX Titan (2013)
GeForce GTX Titan Nividia выпустила в феврале 2013 года. Первая видеокарта с новым чипом GK110 на рынке.Titan особенно хорош в играх с разрешениями более чем 1920x1080 и к тому же относительно тих. Тем не менее, это слишком дорогое удовольствие для большинства игроков .Цена почти 1000 евро.
Nvidia Geforce GTX 700 (2013)
Серия GTX 700 в значительной степени основана на чипе GK104, который уже используется в предыдущем поколении. Карта имеет такойже радиатор который был введен с GTX Titan. Однако новое поколение расходует от 15 до 20 процентов больше энергии.
Nvidia Geforce GTX 780 Ti (2013)
В ответ на R9 290x в ноябре 2013 NVIDIA выпускаетGeForce GTX 780 Ti. Чтобы победить AMD Nvidia устанавливает чип GK110 в полном расширении. GTX 780 Ti с Radeon 290x R9 примерно равны, но Geforce работает даже при полной нагрузке относительно тихо в то время как Radeon издает оглушительный шум и расходует на 10 процентов больше энергии.
NV1 была выпущена в 1995 году под названием Diamond Edge 3D. Прорыва ни какого не было , даже звуковые возможности не помогли . Когда Microsoft объявила стандарт DirectX-1995, архитектура NV1 определенно устарела.
Nvidia Riva TNT (1998)
Riva TNT, должна была составить конкуренцию мощному Voodoo 2 3dfx, но проиграла . В связи с низкой популярностью Riva TNT Nvidia изменила имя следующих видеокарт на "Geforce".
Nvidia Geforce 256 (1999)
После Riva TNT Nvidia представила первую DirectX 7 карту. Благодаря T & L блоку (Transform & Lighting) Geforce 256 превосходила конкурентов из 3Dfx, в такой игре как Quake 3 .
Nvidia Geforce 2 (2000)
Geforce 2 была намного быстрее Geforce 256 и являло пример отличного соотношения цена-качество . Это была первая карта Nvidia с поддержкой двух мониторов.
Nvidia Geforce 3 (2001)
Через три месяца после того как Nvidia приобрела 3Dfx была выпущена GeForce 3 с поддержкой DirectX 8.Наступила эпоха программируемых графических чипов. Пиксельные и вершинные шейдеры были еще относительно новы по сравнению с сегодняшним днем. По сравнению с GeForce 2 было ускорено сглаживание и улучшена анизотропная фильтрация текстур.
Nvidia Geforce 4 (2002)
Geforce 4 была сделана на основе GeForce 3, но работала гораздо быстрее. В частности, Geforce 4200 Ti предложила в свое время, почти наилучшее соотношение цена-качество и поэтому была очень популярна среди игроков.
Nvidia Geforce FX (2003)
Через несколько месяцев после удивительного скачка Radeon 9700 Pro Nvidia выпустила GeForce FX 5800 Ultra с поддержкой DirectX 9 . Карта страдала от недостатков и издавала адский шум. Более поздние модели догнали конкурентов Radeon которые были все еще на первой версии PCI-Express.
Nvidia Geforce 6 (2004)
С Geforce 6 Nvidia возобновляет технологическое лидерство. Передовые шейдерные возможности DirectX 9.0c дали разработчикам игр беспрецедентную свободу в творчестве. Карта поддерживала среди прочего HDR освещение . Первая карта Nvidia с поддержкой SLI .
Nvidia Geforce 7 (2005)
Geforce 7 является значительно улучшенной GeForce 6. Far Cry можно было свободно запускать с HDR освещением.Geforce 7 была последней картой Nvidia которая поддерживала слот AGP.
Nvidia Geforce 8 (2006)
Nvidia входит в эру DirectX 10 . Покупатели Geforce 8800 GTX играли почти в каждой игре в течение двух лет не заморачиваясь . Первые DirectX 10 игры правда выглядели не лучше, чем игры под DirectX 9. Средний вариант GeForce 8800 GT стал одной из самых успешных видеокарт Nvidia вообще.
Nvidia Geforce 9 (2008)
В Nvidia Geforce 9 было увеличена тактовая частота. Некоторые модели, такие как GeForce 8800 GT были просто переименованы ( GeForce 9800 GT). Для Nvidia наступило время перехода к серии Geforce 200.
Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX NVIDIA Corporation — американская технологическая компания, разработчик графических процессоров и систем-на-чипе (SoC). Разработки NVIDIA получили распространение в индустрии видеоигр, сфере профессиональной визуализации, области высокопроизводительных вычислений и автомобильной промышленности, где бортовые компьютеры NVIDIA используются в качестве основы для беспилотных автомобилей. Важным приоритетом для компании также является рынок искусственного интеллекта (ИИ).
Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX
реклама
NVIDIA Corporation — американская технологическая компания, разработчик графических процессоров и систем-на-чипе (SoC). Разработки NVIDIA получили распространение в индустрии видеоигр, сфере профессиональной визуализации, области высокопроизводительных вычислений и автомобильной промышленности, где бортовые компьютеры NVIDIA используются в качестве основы для беспилотных автомобилей. Важным приоритетом для компании также является рынок искусственного интеллекта (ИИ).
Компания была основана в 1993 году. На III квартал 2018 года NVIDIA была крупнейшим в мире производителем PC-совместимой дискретной графики с долей 74,3% (статистика включает все графические процессоры, доступные для прямой покупки конечными пользователями — GeForce, Quadro и ускорители вычислений на базе GPU Tesla). По состоянию на январь 2018 года численность сотрудников превышала 11,5 тысяч человек. Штаб-квартира компании находится в городе Санта-Клара, штат Калифорния (США).
Желаю всем приятного просмотра!
реклама
Ещё больше интересного материала, качественного косплея и превосходных артов вы сможете найти здесь!
NV 1. Первый графический 3D-ускоритель от NVIDIA, выпущен в 1995 году.
реклама
Примечательная особенность данной карты состоит как в необычном подходе с 3D-рендерингом, когда использовались Quadratic Texture Maps, вместо привычных нынче полигонов, так и в наличии микросхемы, отвечавшей за обработку звука.
Riva 128/128ZX. В 1997 году компанией был выпущен второй графический чип, основанный на 350-нм техпроцессе, сыскавший звание "народного".
реклама
Название RIVA является акронимом Real-time Interactive Video and Animation, а цифра 128 указывает на разрядность шины. Главной "фишкой" GPU является технология рендеринга, основанной на квадратическом маппинге текстур, который не поддерживался в Direct3D.
В 1998 году была выпущена Riva TNT - комбинированный 2D/3D ускоритель
Суффикс TNT означал, что чип способен работать с двумя текселями одновременно, а TNT сокращение от TwiN Texel. Для справки: Тексель это минимальная единица текстуры 3D объекта, а пиксель наименьшая единица текстуры 2D объекта.
Riva TNT2
В начале 1999 года компания NVIDIA начала производство графического процессора пятого поколения.
Riva TNT2 была доработанным вариантом TNT: добавлена поддержка AGP интерфейса, техпроцесс уменьшился до 250-нм, а частота чипа выросла с 90 до 150 мегагерц.
GeForce 256
Всё в том же 1999 году появился первый GPU из линейки GeForce.
Название GeForce появилось в результате конкурса, который проводился компанией. Главной фишкой GeForce 256 являлось наличие встроенного геометрического процессора, а также появился аппаратный блок трансформации и освещения (T&L). Кроме того именно с GeForce 256 началось использование самой быстрой на тот момент памяти DDR.
GeForce 2
В 2000 году на свет появился новый графический процессор, ядро которого было самым совершенным и производительным на то время.
Всего на базе GeForce 2 появилось более десятка модификаций, отличавшихся друг от друга разными частотами и шириной шины памяти. Именно в линейке GeForce 2 появились первые вариации для старшего модельного ряда, обозначенные суффиксом Ti - Titanium. Основу бюджетной линейки составляли карты с приставкой MX. К слову, в основу первого чипсета для материнских плат nForce легли именно GeForce 2 MX.
Следуя своему 6-месячному циклу, уже в 2001 году, компанией было представлено новое поколение графических процессоров - GeForce 3.
Следует отметить, что в отличие от GeForce 2, у GeForce 3 не было GPU начального уровня, все вариации обладали высокими на тот момент частотами, 256-битной шириной шины памяти, а также 128 битной DDR памятью. Тогда же появился шейдерный движок nfiniteFX.
GeForce 4
В 2002 году появилось четвертое поколение видеокарт GeForce, под этим именем выпускалось две линейки карт, Ti – высокопроизводительные, и бюджетные с приставкой MX.
И если старшая линейка GF4 продолжала развивать архитектуру GeForce 3, то бюджетная линейка ограничилась архитектурой GeForce 2. Ядро бюджетной модели GeForce 4 MX легло в основу чипсета nForce 2.
GeForce FX. Пятое поколение процессоров GeForce появилось в 2003 году.
Приставке FX карты обязаны новой версии шейдеров Shader Model 2.0, на тот момент продвигавшими графику на новый кинематографический уровень.
GeForce 6. В 2004 году появилось шестое поколение микропроцессоров от компании NVIDIA.
Примечательной особенностью GeForce 6 являлась обработка видео PureVideo, наличие технологии SLI, а также поддержка Shader Model 3.0.
GeForce 7
Седьмое поколение графических процессоров NVIDIA появилось в 2005 году.
Линейка GeForce 7 не привнесла каких-либо революционных нововведений, однако вполне успешно продолжила развивать заложенные технологии в GeForce 6. Например, за счет изменений в поточно-конвейерной архитектуре удалось добиться повышения производительности в полтора раза, при том же количестве потоковых конвейеров.
GeForce 8
В 2006 году состоялся выпуск восьмой серии графических акселераторов GeForce.
Эта серия имела унифицированную шейдерную архитектуру, благодаря которой изменилось представление о специализированном графическом конвейере. Например, унифицированные процессоры могли проводить как геометрические, так и пиксельные, вершинные и даже физические рассчеты. Также GeForce 8 дал свет программно-аппаратной архитектуре параллельных вычислений, которая называется CUDA (Compute Unified Device Architecture).
В 2008 году появилось девятое поколение графических процессоров GeForce 9.
Новый графический чип использовал доработанную архитектуру Tesla, заложенную в предыдущей модели карт GeForce 8. Следует отметить, что эта архитектура послужила базой для карт серий: GeForce 8, GeForce 9, GeForce 100, GeForce 200 и даже GeForce 300, настолько успешной на тот момент оказалась Tesla. Относительно GeForce 9 примечательной особенностью было очередное уменьшение техпроцесса до 65нм, а позднее и до 55нм, что положительно сказалось на габаритах печатных плат, а также на энергоэффективности конечного решения.
GeForce 100
В 2009 году появилось десятое поколение графических процессоров семейства GeForce.
Самой младшей в линейке являлись карты сотой серии, о которых мало кто слышал у нас, по причине нацеленности карт на ОЕМ-рынок. Относительно технических характеристик, то G150 были урезаны вдвое относительно GTX9800, GT130 были немногим лучше GeForce 9600GSO, а G100 являлась картой начального уровня и уступала в возможностях GT9400.
GeForce 200
Всё в том же 2009 году на рынке появилось логическое продолжение карт 9 серии в лице GeForce 200.
Первыми свет увидели GTX 280 и GTX 250, которые поддерживали технологию CUDA версии 2.0, PhysX а также улучшенную PureVideo с поддержкой декодирования видео в формате H.264, VC-1 и MPEG-2. Кроме того картами поддерживался DirectX 10 и Shader Model 4.0. Позже вышедшие 210/G210, GT 220 и GT240 получили поддержку DirectX 10.1 и Shader Model 4.1
GeForce 400
В 2010 году появилось новое поколение графических процессоров, основанное на архитектуре NVIDIA Fermi, первом ускорителе в арсенале компании с поддержкой DirectX 11.
Примечательной особенностью чипа является поддержка технологий DirectCompute и OpenCL, позволяющих проводить вычисления компьютерной графики при помощи графического процессора. Также появилась поддержка Shader Model 5.0
GeForce 500
В 2010 году компания продолжила развивать архитектуру Fermi.
Графический процессор получил поддержку технологий: 3D Vision Surround, CUDA, PhysX, а также 3-Way SLI. Карты на базе GTX 590 получили поддержку NVIDIA Quad SLI. Следует отметить, что улучшения коснулись не только новых технологий, но и была проведена работа по повышению общей производительности, а также по снижению энергопотребления, по сравнению с картами предыдущего поколения.
GeForce 600
В 2012 году, спустя два года после своего анонса, миру были представлены первые графические процессоры на основе новой архитектуры Kepler.
Новая архитектура подразумевала под собой не только ряд нововведений, среди которых есть технология GPU Boost, динамически управляющая частотой чипа, но и поддержка Nvidia TXAA. Однако самой главной особенностью 600 серии является переход на 28нм техпроцесс, что благоприятно сказывается на эргономичности и энерегоэффективности конечных решений. К слову, карты 600 серии получили поддержку не только DirectX 11.0, но и частично еще не вышедшей DirectX 12
GeForce 700
В 2013 году появились карты семейства GeForce 700, которые были представлены как на базе предыдущей архитектуры Kepler, так и новейшего Maxwell.
Следует отметить, что первыми ласточками в 700 серии стали карты GeForce GTX Titan и GTX 780 - флагманские карты, демонстрирующие всю мощь архитектуры Kepler. В 2014 году начали выходить карты GeForce GTX 750 и GTX 750 Ti на основе архитектуры Maxwell. Основной фишкой архитектуры можно назвать как динамическое разрешение для сглаживания неровностей без ущерба производительности, так и развитие технологии CUDA. Совместимость с DirectX 12 является немаловажным фактором как для геймеров, так и для разработчиков.
GeForce 900
Новейшая линейка видеокарт 900 серии основана на архитектуре Maxwell.
На данном этапе на рынке представлены две карты высшего ценового диапазона, относящихся к 900 серии - это GTX 970 и 980, а также среднего ценового диапазона GTX 960. Энергоэффективность на ватт у карт существенно возросла в отношении предшествующей линейки карт, а также снизилась теплоотдача, что выгодно сказалось на температурных режимах.
GeForce GTX 10 - Совершенство для игр
8 июля 2016 года была представлена видеокарта среднего ценового диапазона GeForce GTX 1060, сопоставимая по производительности с GeForce GTX 980, но потребляющая намного меньше энергии.
22 июля 2016 года компания NVIDIA представила профессиональную видеокарту NVIDIA TITAN X (Pascal) (не путать с видеокартой предыдущего поколения GeForce GTX Titan X (GM200), однако она не относится к игровой серии видеокарт, несмотря на то, что она основана на новом флагманском чипе GP102. Однако по обещаниям компании в дальнейшем должен выйти игровой аналог новинки.
1 марта 2017 года в ходе мероприятия GDC 2017 компания NVIDIA представила видеокарту GeForce GTX 1080 Ti, которую глава компании назвал самым мощным игровым графическим ускорителем в мире. По словам NVIDIA, новинка на 35 % производительнее GeForce GTX 1080 и обходит даже Titan X Pascal.
GeForce RTX 20 Series — семейство графических процессоров NVIDIA, представленное 20 августа 2018 в рамках конференции Gamescom. Чипы семейства GeForce RTX 20 основаны на новой архитектуре Turing, названной в честь английского математика, логика и криптографа Алана Тьюринга. Заявлено увеличение производительности до 6 раз в области трассировки лучей по сравнению с графическими процессорами предыдущего поколения. В продаже с 20 сентября 2018 года.
Серия GeForce RTX 20 поддерживает трассировку лучей в реальном времени, которая реализована с помощью новых RT-ядер. Для увеличения детализации изображения используются решения на базе искусственного интеллекта
Ещё больше интересного материала, качественного косплея и превосходных артов вы сможете найти здесь!
А какой была ваша первая видеокарта?
Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news - это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.
NV4: Twin Texels и TNT
Riva TNT, первая скоростная 3D-видеокарта с большим объёмом памяти (на то время) и встроенными 2D-возможностями. За исключением производительности видео (у карты не было поддержки ускорения MPEG2, в отличие от карт ATI), TNT оказалась очень успешной. Это была первая видеокарта nVidia, способная накладывать две текстуры за один проход, отсюда карта получила название TNT - "TwiN Texel". Используя 250-нм техпроцесс с тактовой частотой 110 МГц (200 МГц для памяти). Но на самом деле TNT использовала 350-нм техпроцесс и тактовую частоту 90 МГц а память работала на 110 МГц.
RIVA 128
В 1997 году nVidia перешла на полигональный рендеринг с чипом NV3, который больше известен под названием Riva 128. Кстати, "Riva" расшифровывается как "Real-time Interactive Video and Animation accelerator" работал по совершенно иной технологии рендеринга, основанной на квадратичном маппинге текстур, не поддерживаемой Direct3D. RIVA 128, напротив, был спроектирован с максимальной совместимостью с Direct3D 5 и OpenGL API. На кристалле этого GPU, выполненном по 350-нанометровому техпроцессу, размещалось 3,5 миллиона транзисторов; рабочая частота ядра — 100 МГц
Читайте также: