Bus interface видеокарты что это
Майнеры, любители видеоигр и оверклокеры – люди, интересующиеся подробностями о графических ускорителях, повышением их производительности без вложений. Для разгона, тестирования и мониторинга видеокарт написаны десятки приложений. Среди них выделяется информационная утилита GPU-Z. Разгонять и тестировать видеоадаптеры не умеет, но кое-чем начинающему оверклокеру поможет.
Из публикации узнаете, чем именно. Покажем, как пользоваться GPU-Z: подготовить к работе, мониторить видеокарту, сохранять отчёты, тестировать линию PCI. Расскажем, что обозначает каждый информационный блок и вкладка в приложении. Внизу можете скачать GPU-Z на русском и английском языке.
Заключение
GPU-Z можно считaть эталоном информативности, если вы хотите получить сведения касательно видеокарты, которая устанoвлена в вашем компьютере или ноутбуке. Надеюсь, что данная статья оказалась вам полезной и теперь вы знаете, как пользоваться GPU Z.
Блок шестой
Последний блок, где рассматривается третья вкладка программы GPU-Z под названием «Validation». Если коротко, тут вы можете связаться с разработчиком, если вам есть что сказать. Например, вы могли обнаружить ошибку в работе софта. Помимо этого, можно просто задать интересующий вас вопрос.
Важно! В нижней части есть кнопка переключения между видеокартами, если в вашей системе их сразу две.
Как узнать производителя оперативной памяти видеокарты?
Данные о марке видео-памяти можно посмотреть в GPU-Z во вкладке «Graphics Card»: Memory Type, Memory Size, Memory (частоты).
Вкладка «Graphics Card» («Видеокарта»)
В основной вкладке GPU-Z отображается ~30 параметров графического ускорителя. При подведении курсора появляется подсказка с кратким пояснением, вариантами значений.
Утилита GPU-Z определяет следующее:
- Name – название модели.
- GPU – чип, кодовое имя;
- Revision – номер ревизии (в AMD отсутствует);
- Technology – технологический процесс;
- Die Size – площадь кристалла;
- Release Date – дата выпуска видеокарты;
- BIOS Version – редакция графического БИОСа; галочка возле UEFI говорит о поддержке EFI;
- Subvendor и Device ID – производитель и идентификационный номер графического ускорителя;
- ROPs/TMUs – число блоков растеризации;
- Bus Interface – интерфейс подключения видеокарты;
- Shaders – количество шейдерных процессоров;
- DirectX Support – поддерживаемая версия DirectX;
- Pixel Filrate и Texture Filrate – количество пикселей и текселей, обрабатываемых видеокартой за секунду;
- Memory Type – тип графической памяти;
- Bus Size – ширина шины, по которой видеоадаптер обменивается информацией с материнской платой;
- Memory Size – размер графической памяти;
- Bandwith – пропускная способность шины данных;
- Driver Version, Driver Date – версия и дата выхода графического драйвера;
- GPU Clock, Memory, Shader – текущая и исходная частоты ядра, памяти и шейдерных блоков соответственно;
- AMD CrossFire либо Nvidia SLI – поддержка технологии объединения видеокарт.
Ниже флажками отмечены поддерживаемые программные графические технологии. В впадающем списке переключаются видеокарты, если на ноутбуке или компьютере их несколько.
Иконка со знаком вопроса правее от поля «Bus Interface» откроет модуль для оперативной проверки слота PСI Express, к которому подключена видеокарта.
Производительность графической карты GPU-Z не оценивает.
Совместимость PCI Express 3.0, 4.0 и 5.0
При появлении новых версий PCI Express всегда сохраняет полную совместимость с предыдущими версиями интерфейса. PCI Express 4.0 и 5.0 не являются исключением и также полностью совместим с предшественниками.
При этом совместимость двунаправленная. Это означает, что вы можете приобрести новую видеокарту с PCI-e 4.0 и установить ее в старую материнскую плату с поддержкой 3.0, а также наоборот, старые видеокарты с 3.0 поддерживаются новыми материнскими платами с 4.0.
При подключении двух устройств с разными версиями PCI-e они будут работать на той версии интерфейса, которая поддерживается обоими устройствами. В случае использования устройств с интерфейсами 3.0 и 4.0 они будут работать на версии 3.0.
Возможности GPU-Z
- Утилита собирает подробные технические характеристики о встроенных и дискретных видеокартах Intel, AMD (ATI), Nvidia.
- Строит миниатюрные графики на основании показателей десятка датчиков и системных сведений: загруженность памяти, центрального и графического процессоров.
- Во вкладке «Advanced» визуализирует подробности о графических программных технологиях.
Блок пятый
Теперь речь будет идти уже о соседней вкладке с названием «Sensors». Если говорить о сути, то вы сможете наблюдать данные, получаемые с датчиков графической платы, в режиме реального времени. Очень удобно для тестирования того, как изменяется нагрузка на модуль при работе с теми или иными программами. Вот основные параметры:
- PGU Core Clock. Видно то, как изменяется текущая выбранная частота процессора для производительного режима функционирования.
- GPU Memory Clock. Тут вы сможете видеть то, какую в данный момент времени частоту памяти имеет ваша видеокарта.
- GPU Temperature. Предлагается узнать, какую температуру имеет графический процессор.
- GPU Load. Обобщённый параметр, который сообщает о загруженности модуля.
Обратите внимание! Показатель высчитывается в процентах для максимальной наглядности.
- Memory Usage. Отражена загруженность видеопамяти вашего графического адаптера. Показатель выражен в мегабайтах.
Все данные, описанные в пятом блоке, вы можете сохранить в специальный лог-файл. Для реализации задумки достаточно активировать опцию «Log to file» в нижней части окна.
Блок четвертый
Продолжая разбирать структуру данных, предоставляемых программой GPU-Z, необходимо выделить последние пункты, относящиеся к разделу «Graphics Card».
- Default Clock. Тут вы увидите то, какую исходную частоту графического процессора имеет ваша видеокарта без учёта разгона.
- Memory. Всё то же самое, как и в пункте выше, информация о видеоадаптере без учёта разгона. Только в этот раз отображается исходная частота памяти.
- Shader. В этой графе есть сведения об исходной частоте шейдеров без учёта разнога видеокарты. Чтобы понимать, почему показатель может отсутствовать, прочитайте информацию, расположенную выше на несколько абзацев.
Есть ещё и нижняя панель, где отображается ряд возможностей видеокарты. Например, вы узнаете, доступны ли технологии OpenCL, NVIDIA CUDA, DirectX Compute. Помимо этого, есть информация о том, доступно ли аппаратное ускорение NVIDIA PhysX.
Блок второй
Следующий блок информации, который носит уже немного иной характер.
- BIOS Version. Тут отображена версия BIOS для вашего графического адаптера.
Обратите внимание! При необходимости вы можете данную информацию экспортировать в файл текстового формата. Для этого нужно лишь нажать не специальную кнопку. Помимо этого, есть возможность обновления базы данных разработчика в сети, это тоже делается в пару действий.
- UEFI. Собственно, на основе этого пункта вы узнаете, присутствует ли такое явление в вашем случае.
- Devise ID. Каждый производитель и отдельная модель видеокарты имеют уникальный идентификатор. В данной строке вы их найдёте.
- Subvendor. Ещё один пункт, где вы сможете увидеть идентификатор непосредственно производителя модуля. При этом он присваивается специальной ассоциацией PCI-SIG. Для каждой компании создаётся уникальный и неповторимый код.
- ROPs/TMUs. Данный информационный блок затрагивает вопрос производительности. Если говорить именно о технической стороне, то отображается количество блоков растровых операций, которое характерно именно для данной видеокарты.
- Bus Intefrace. Параметр касательно шины. Во-первых, вы можете без проблем узнать сведения непосредственно об интерфейсе системной шины. Во-вторых, есть информация о настройках пропускной способности.
- Shaders. Отображается точное количество шейдерных процессов. Помимо этого, вы можете узнать их тип, что тоже немаловажно.
- DirectX Support. Тут вы сможете увидеть версии DirectX. Помимо этого, есть доступ к информации о шейдерной модели, которая поддерживается установленной графической платой.
Обратите внимание! Нужно отметить тот факт, что в данном случае сведения отображаются не о тех версиях, которые установлены в вашей системе.
- Pixel Filtrate. Информация по поводу того, какое количество пикселей способна отрендерить видеокарта за одну секунду времени. Так как числа действительно огромные, используется конвертация. Например, 1 GPixel равен одному миллиарду пикселей.
- Texture Filtratre. Аналогичный пункт по отношению к предыдущему, но тут отображается количество текстелей, которые обрабатываются графическим адаптером за одну секунду времени.
Блок первый
В данном случае собрана в основном вся самая ключевая информация о вашем графическом модуле.
- Name. Отображается полное имя устройства в операционной системе. Параметр определяется драйверами. Стоит отметить, что опираться на эту информацию не всегда целесообразно. Дело в том, чтобы модель видеокарты отображалась правильно, в системе должны быть установлены на неё правильные драйвера.
- GPU. Отображается кодовое наименование графического процессора, которое использует непосредственно компания, производящая видеокарты.
- Revision. Это номер ревизии процессора, который так же задаётся производителем.
Обратите внимание! В данном моменте может не быть никакой информации. В таком случае знайте, что у вас установлен процессор ATI.
- Technology. Информация интерпретируется как производственный процесс, характерный для вашей видеокарты.
- GPU Die Size. Отображается площадь ядра процессора. Если видеокарта является интегрированной, вероятность отображения подобной информации очень низка.
- Release Date. Вписывается официальная дата релиза той модели видеокарты, которая вами используется в данный момент.
- Transistors Count. В строке будет показана информация относительно того, каково общее количество транзисторов, которые фактически присутствуют в процессоре графического ускорителя.
Как отображаются данные в GPU-Z, если подключено несколько видеокарт
На ПК с парой и более графических ускорителей информация отображается об активном, для ноутбука это обычно интегрированный. Для переключения кликните по выпадающему списку внизу и выберите нужную видеокарту.
Информация в окне сразу же изменится.
Вкладка «Advanced» («Дополнительно»)
Во вкладке GPU-Z отображает информацию о поддерживаемых устройством графических технологиях: Vulkan, DirectX, OpenCL, CUDA, архитектуре (WDDX). В ней найдёте подробности о БИОСе видеокарты, задержках памяти на разной частоте, аппаратном декодировании видео, энергопотреблении.
Выпадающее меню.
Что такое PCI Express 3.0, 4.0 и 5.0
PCI Express (PCIe, PCI-e) – основный интерфейс для подключения к компьютеру дополнительных комплектующих. Его используют для подключения видеокарт, твердотельных накопителей (SSD), звуковых и сетевых карт, а также других устройств.
Интерфейс PCI Express появился в 2003 году и с тех пор широко распространился, вытеснив шину PCI, которая ему предшествовала. За первые несколько лет появилось 3 версии данного интерфейса, которые получили названия PCI Express 1.0 (2003 год), PCI Express 2.0 (2007 год) и PCI Express 3.0 (2010 год).
На версии 3.0 развитие интерфейса несколько затормозилось. С 2010-го по 2017-й новых версий не появлялось, и версия 3.0 долгое время являлась последней и самой актуальной. Впрочем, скорости передачи данных, которую обеспечивала третья версия, было вполне достаточно. При использовании всех 16 линий скорость версии 3.0 достигала 15,8 ГБайт/с.
PCI Express версии 4.0 появился в 2017 году и при использовании 16 линий обеспечил скорость 31,5 ГБайт/с. С тех пор выход новых версий PCI Express значительно ускорился, и версия 5.0 со скоростю 63 ГБайт/с была выпущена уже через два года, в 2019-м. А выход версии 6.0 ожидается в 2021 году, его скорость должна составить 126 ГБайт/с.
Но, реальные устройства с поддержкой новых версий PCI Express появляются не так быстро. На данный момент основной версией можно считать 4.0, именно с этой версией интерфейса выпускается большинство новых видеокарт и твердотельных накопителей (SSD-дисков). Что касается версии 5.0, то для нее устройств пока почти нет. Поддержку PCI Express 5.0 получили только новые материнские платы для процессоров Intel.
Учитывая медленное распространение новых стандартов, многие пользователи интересуются стоит ли переплачивать за новинки с поддержкой PCI Express 4.0 и 5.0 или можно сэкономить и взять железо с более старой версией этого интерфейса.
Вкладка «Sensors» («Датчики»)
В динамике отображает системные параметры, строит миниатюрные графики для мониторинга. Кнопкой «Log to file» сохранит данные мониторинга в файл.
Клик по треугольнику правее от опции откроет её меню:
- Hide – скрыть параметр, восстанавливается через настройки;
- Show in GPU-Z Window title – вывести показатель в заголовок окна;
- Show Current/Lowest/Highest/Average Reading – отображать текущее, наименьшее, максимальное либо среднее значение.
Среди основных показателей GPU-Z:
- GPU Clock и Memory Clock – реальная частота графического процессора и памяти;
- GPU Temperature – температура ядра видеокарты;
- Fan Speed (% и RPM) – частота вентилятора в процентах от пиковой и в числе оборотов за секунду;
- GPU Load – процент загруженности графического ядра;
- Memory Used Dynamic – занято видеопамяти;
- VDDC и VDDC Current – напряжение графического процессора, потребляемый им ток;
- CPU Temperature – нагрев центрального процессора;
- System Memory Used – расход ОЗУ.
Положительные стороны
Программа GPU-Z занимает минимум места на вашем компьютере и совсем не потребляет системных ресурсов. Самый большой плюс в огромной информативности. Сведения предстaвлены в доступном виде, хорошо структурирoваны.
Даже с учётом того факта, что поля не переводятся, вы легко разберётесь, где и что указaно. Расшифровка, описанная выше, вам в этом поможет.
Как узнать ASIC quality в GPU-Z
Параметр расшифровывается как «качество процессора». Выдает сведения о состоянии видеокарты, основываясь на показателях токов утечки. Чем ближе к 100%, тем лучше. Находится в выпадающем списке вкладки «Advanced».
Качество процессора.
GPU-Z в разгоне видеокарты
Утилита не участвует в разгоне графического адаптера, для оверклокинга используйте MSI Afterburner. GPU-Z покажет только разницу между штатным режимом работы видеокарты и её состоянием после разгона. Позволяет следить за динамикой нагрева, нагрузки, параметрами вентилятора, питающим напряжением во вкладке «Sensors».
Как настроить GPU-Z
Перед проверкой видеокарты через GPU-Z приложение стоит подготовить к работе. Откройте настройки кликом по иконке гамбургера.
Кнопка находится под «крестиком».
Среди доступных параметров:
- Windows always on top – окно отображается поверх других;
- Minimize on cloze – сворачивать вместо закрытия;
- Load on Windows startup – автоматическая загрузка с ОС;
- Enable help tooltips – включить всплывающие подсказки. После активации сможете выбрать язык, в том числе русский.
- Active tab on startup – какая вкладка будет активной при запуске.
Соседняя вкладка «Sensors»:
- Refresh sensors with GPU-Z… – обновлять информацию с датчиков, когда приложение свёрнуто;
- Temperature sensors use Fahrenheit – температура по шкале Фаренгейта;
- Sensors display mode – метод отображения информации с датчиков: текущие показания, минимальные, пиковые, средние за время мониторинга;
- Sensors refresh rate – периодичность опроса датчиков;
- Active… – уберите флажки возле названий показателей, чтобы скрыть их.
Как работать с вкладками в программе
Интерфейс GPU-Z, кроме настроек, представлен единственным окном с четырьмя тематическими вкладками.
Под кнопками управления размером окна расположены иконки для:
- создания скриншотов;
- принудительного обновления информации об устройстве;
- вызова настроек (функциональность дублируется через контекстное меню заголовка).
Выводы
Все версии PCI Express полностью совместимы друг с другом. Поэтому основным отличием между ними является пропускная способность, которая при появлении новой версии возрастает в 2 раза. Но, чтобы использовать преимущества этой скорости нужны устройства, которым она требуется. Такими устройствами могут быть быстрые SSD накопители. Если SSD-накопитель поддерживает PCI-e 4.0, то его лучше устанавливать на плату с поддержкой PCI-e 4.0. Иначе накопитель значительно потеряет в скорости.
Для видеокарт версия PCI Express не так критична. В играх разница между PCI-e 3.0 и 4.0 почти не заметна. Хотя в будущем, с появлением более требовательных игр и более производительных видеокарт, потери, вероятно, станут более значительными.
Задайте вопрос в комментариях под статьей или на странице «Задать вопрос» и вы обязательно получите ответ.
«Первыми стали видеокарты AMD Radeon RX 5500 XT, Radeon RX 5700 и Radeon RX 5700 XT»? Как же у меня RX570 8Gb на 4й версии, если она не из новой линейки? Где-то неувязочка
Я думаю, вы что-то напутали, у вашей карты PCI Express 3.0. Можете поискать характеристики этой видеокарты чтобы убедиться.
Влад, не выдумывайте. Возможно вас обманул продавец) PCI-E v3.0 — это Ваше!
УВЕЛИЧЕНА ПРОПУСКНАЯ СПОСОБНОСТЬ
Отличительной особенностью Radeon RX 5700 является поддержка PCI Express 4.0 с пропускной способностью 16 ГТ/с, вдвое превышающей показатели PCI Express 3.0. Подготовься к играм на ПК следующего поколения.
Вы путаете RX 570 и RX 5700.
У RX 570 — PCI-Ex 3.0, а у более новой RX 5700 уже PCI-Ex 4.0.
У меня немного другая тематика, но хочу спросить:
Вот AMD c 5000 линейкой, ryzen 5 5600 поддерживает PCI-E 4 версии и требует материнскую плату на 500 чипсете, а ryzen 5 5600G только PCI-E 3 версии и не все платы на 500 чипсете поддерживает его.
Я хочу обновить свой комп, и хотел пересидеть на 5600G без дискретных видеокарт, но все знакомые говорят что потом нормальный апгрейд не возможен на нормальные комплектующие без замены материнской платы.
Вопрос: лучше сразу собирать систему на нормальных комплектующих с дискреткой?
Вопрос не очень понятен. Если вы о PCI Express, то проблем с совместимостью не будет. Вы сможете установить новую видеокарту с PCI Ex 4.0, она просто заработает в режиме 3.0. Скорости PCI Ex 3.0 для видеокарты вполне достаточно, потеря производительности минимальна.
Поставил процессор с pcie 4.0 в материнскую плату с pcie 3.0, совместимости нет, хотя заявлено материнской платой, что подойдут.
Какой совместимости нет? Если компьютер не включается, то нужно обновить биос. Если вы про поддержку PCI Ex 4.0 в такой конфигурации, то напишите название процессора и платы.
Здравствуйте.
Подскажите пожалуйста, будет ли накопитель SSD WD Black SN850 Gen4 1Tb работать на плате Asrock Z370 Taichi?
На матери только pcie 3.0, а ssd pcie 4.0.
Будет работать в режиме PCI Ex 3.0 и с соответствующем ограничением скорости.
Здравствуйте. Подскажите пожалуйста, а видеокарта с 3.0 будет работать на материнке z590 с PCI 4.0? Потому что видюха с PCI 2.0 не работает с такой материнкой и просто черный экран.
Должна работать, но гарантии дать вам не могу.
Что касается другой видеокарты, котрая выдает черный экран, то причины могут быть разные. Возможно нужно обновить BIOS на материнской плате или видеокарта не поддерживает UEFI, а у вас при этом включен Secure Boot, и т. д. Все таки PCI Express 2.0 — это уже очень старое железо.
Ребят, нужна помощь, читал разную информацию по поводу своего вопроса, ничего не нашёл. Так вот, если я поставлю 1000 ГБ SSD M.2 накопитель Samsung 980 PRO [MZ-V8P1T0BW] (PCI-E 4.0 x4, чтение — 7000 Мбайт/сек, запись — 5000 Мбайт/сек, Samsung Elpis, 3D NAND 3 бит MLC (TLC), NVM Express) на материнскую плату ASUS PRIME A320M-K (1xPCI-Ex16, AM4, AMD A320, 2xDDR4-3200 МГц, аудио 7.1, Micro-ATX), то будет ли sdd с PCI-E 4.0 x4 выдавать заявленную скорость чтения и записать на PCI-E 3.0 x4 ?
Нет, конечно. Будет работать в режиме 3.0, там скорость вполовину ниже.
Как я вас понял, можно характеристики ssd PCI-E 4.0 x4, просто, в два раза порезать, если на PCI-E 3.0 x4 ставить. Но вот почему именно в два раза, как это считается? Я на сайте читал, что пропускная способность PCI-E 3.0 x4 равна 15,8 Гбайт/с, но не совсем понял что означает «пропускная способность», я думал, для ssd это скорость чтения + скорость записи, подозреваю, что я глубоко ошибаюсь. Можете пожалуйста рассказать точно на сколько уменьшится скорость чтения и записи 1000 ГБ SSD M.2 накопитель Samsung 980 PRO [MZ-V8P1T0BW] PCI-E 4.0 x4, если его поставлю на PCI-E 3.0 x4. Просто от этого зависит мой выбор ssd, буду очень благодарен за подробный ответ, заранее спасибо.
В статье на Википедии есть таблица с пропускной способностью для всех версий PCI Express и разного количества линий.
PCI Ex 3.0 x4 — это 3,9 ГБайт/с или ~4000 МБайт/с.
PCI Ex 4.0 x4 — это 7,9 ГБайт/с или ~8000 МБайт/с.
Соответственно, если установить данный SSD в PCI Ex 3.0 x4, то максимум на что можно расчитывать это 4000 МБайт/с, а на практике даже меньше.
А 15,8 ГБайт/с — это для PCI Ex 3.0 x16, а не x4. Здесь вы что-то перепутали.
Такая проблема, чипсет B560, ssd nvme 3.0, ставлю в слот с поддержкой 4.0, не заводиться(не видит мать,биос свежий), ставлю ниже в 3.0 — все отлично? Возможно нужен проц 11 поколения, у меня 10-го…?
Да, вам нужен процессор 11 поколения.
Этот верхний разъем подключен напрямую к процессору, а процессоры 10 поколения Интел не поддерживает PCI Express 4.0. Более того, у процессоров 10 поколения нет отдельных линий для SSD, там SSD подключаются через чипсет, а напрямую от процессора только 16 линий для видеокарты.
на мамке MSI MAG B550M MORTAR, Wi-Fi, Micro-ATX стоит видео-карта RTX 3060 — оба устройства поддерживают SATA 4.0 , а вот если всунуть на плату SSD который поддерживает PCI Express 3.0 — он заработает? будет ли замедленна видео-карта в этом случае? Или как? Обьясните?
В инструкции от вашей платы сказано:
2x M.2 slots (Key M)
▪ M2_1 slot (from AMD processor)
▫ Supports PCIe 4.0/ 3.0 x4 *
▫ Supports SATA 6Gb/s
▫ Supports 2242/ 2260/ 2280 storage devices
M2_2 slot (from AMD B550 chipset)
▫ Supports PCIe 3.0×4
▫ Supports 2242/ 2260/ 2280 storage devices
* The supported specification depends on installed processor.PCI_E4 will be unavailable when an M.2 SSD is installed in the M2_2 slot.
Соответственно, верхний M.2 будет работать в режиме PCI Express 3.0 или 4.0 в зависимости от поддержки со стороны процессора, так как это отдельные процессорные линии для SSD, от видеокарты они не зависят.
Нижний разъем M.2 также будет работать, но только в режиме PCI Express 3.0, и в случае использования нижнего M.2 перестанет работать последний слот PCI Express.
Уважаемый автор, спасибо большое за статью! У меня вопрос: моя материнка MSI B450 TOMAHAWK MAX, хочу поставить видеокарту RTX 3060, но ее нет в перечне поддерживаемых видеокарт на официальном сайте. Она будет работать на этой материнке или лучше не рисковать и взять что-то с PCI Express 3.0? Как считаете?
Вопрос не такой простой, поскольку тесно связан не только с оценкой технических показателей устройства, но и с вопросом цены. В сети немало материалов на эту тему, но мы все же обратимся к ней еще раз и постараемся рассмотреть ее комплексно, учесть наиболее важные факторы и их взаимосвязи. Чтобы извлечь из этого максимум пользы, возьмем отстраненный от сегодняшнего дня пример, видеокарту, которая уже стала историей: Sapphire Radeon X1650 PRO (RV535). Этот пример уже не может вызывать бурных споров, цена устройства тоже теперь не имеет значения, поэтому на него можно смотреть достаточно трезво.
В этом разговоре мы остановимся на технических характеристиках и их значении. Мы не станем вдаваться в нюансы, а сосредоточимся на главном. При этом постараемся рассмотреть это кратко и просто. Тех, кто помнит и знает, я приглашаю к ностальгической рефлексии и вспомнить, как это было, кто не помнит или не знает - узнать, а всех вместе - задуматься над тем, как же должно все-таки быть. Одновременно не будем забывать о важности вопроса стоимости характеристик видеокарт, который отложим на будущее.
Ответ на поставленный в первом абзаце вопрос определяется множеством характеристик видеокарты. Кроме того, видеокарта - это не вещь в себе, она является частью более сложной системы - компьютера. Несбалансированные характеристики системы (наиболее типичный источник проблем), даже если сами по себе выглядят привлекательно, могут в итоге оказаться дорогим и малополезным решением. Как известно, наиболее удачное приложение для просмотра характеристик видеокарты - GPU-Z. Используем его для наглядности.
На примере этого рисунка разберем по порядку ключевые характеристики выбранной для примера видеокарты. Для ясности будем указывать в скобках конкретные значения параметров, списывая их с рисунка.
ЧАСТЬ 1
GPU Clock (594 MHz) - тактовая частота видеочипа в герцах. Чем выше, тем производительнее карта.
Memory Clock (1391 MHz) - тактовая частота видеопамяти. Влияние на производительность такое же.
Memory Type (GDDR3) - тип видеопамяти. Чем новее тип, тем выше частота памяти.
Memory Size (256 MB) - объем памяти (здесь - в Мбайтах). Чем выше значение, тем больше текстур сможет хранить видеокарта в собственной памяти. Если ширина шины видеокарты шире ширины шины интерфейса подключения видеокарты к компьютеру (см. ниже), то этот параметр оказывает очень заметное влияние на производительность. Если ширина шины видеокарты такая же, или даже ниже, чем у интерфейса подключения, то влияние малозначительно.
Bus Width (128 bit) - ширина внутренней шины видеокарты. Очень важный параметр. Чем шире шина, тем выше ее пропускная способность, т. е. способность пропустить через себя определенное количество информации. Сегодня 128 бит - это минимум, необходимый для комфортной работы с CG и игр. С этой ширины начинаются решения среднего класса. Предпочтительно выбирать карты с внутренней шиной 192, 256 и более бит. Сегодня предлагается очень много видеокарт с шириной шины 64 бита. Часто такие карты снабжаются высокопроизводительными памятью и процессором, большим объемом видеопамяти, но по существу их покупать для задач CG и игр не следует. Это бюджетные решения (хотя порой они могут стоить не так уж и мало), которые являются хорошим вариантом для домашнего и офисного компьютера, нетребовательных игр и просмотра фильмов. В этом плане заметным преимуществом таких устройств может стать их абсолютная бесшумность (зачастую они не снабжаются кулерами).
Bandwidth (44,5 GB/s) - пропускная способность шины видеокарты. Этот параметр производен от частоты и ширины шины видеопамяти: ширина * частота / 8. В нашем случае 128 * 1400 / 8 = 22 400 (т. е. 22,4 GB/s; как видно, GPU-Z тут ошибается, выдавая 44,5 GB/s). Чем больше пропускная способность, тем выше производительность видеокарты.
Bus Interface (AGP 8x @ 8x) - интерфейс подключения видеокарты к материнской плате. Мы говорили о нем выше. Его характеристики следует сравнивать с пропускной способностью шины самой видеокарты. Интерфейс AGP сегодня устарел и в новых машинах его нет. Однако принципы оценки интерфейса для современных карт те же, что и для AGP, и для любых других интерфейсов. Разберем наш пример. AGP 8x работает на частоте 66 MHz и обладает шириной шины 32 бита. Это немного, однако благодаря ряду хитрых решений AGP 3.0 (он же 8x) может передавать 2 GB/s. И все равно этого мало. Как видно, это в 10 раз меньше, чем пропускная способность шины обсуждаемой видеокарты. Значит, в нашем конкретном случае объем видеопамяти является критичным. Это означает, что на данном интерфейсе карта с теми же характеристиками, но бо'льшим объемом видеопамяти будет значительно производительнее.
Почему это так? В общем виде все достаточно просто. Когда видеокарте не хватает собственной памяти для хранения данных (например, текстур), они хранятся в системной памяти. Мы помним, что в нашем примере обмен данными с системной памятью идет на скорости 2 GB/s, а с видеопамятью - на скорости 22,4 GB/s. Поэтому очевидно, что при визуализации конкретной трехмерной сцены обращение не к видео-, а к системной памяти снизит скорость обработки данных примерно в 10 раз. Именно поэтому видеопамяти должно быть достаточно много. Точности ради надо заметить, что такой линейной зависимости вы все равно почти никогда не обнаружите, потому что реальная схема обмена процессора с памятью не так груба, как в нашем рассуждении. Однако общая схема не меняется: а) карта должна получить некоторое количество данных из системной памяти; б) карта должна заполнить этими данными видеопамять; в) видеочип будет работать с этими данными, пока не потребуются другие данные; г) порядок обмена данными с системной памятью и видеопамятью определяет общую скорость и логику обработки данных.
В современных компьютерах используется шина PCI-Express. Пропускная способность ее последней версии достигает 64 GB/s. Видеокарта из нашего примера (а похожих решений для PCI-Express достаточно много, поэтому пример вполне актуален) просто не даст раскрыться возможностям такой шины. Видеокарта будет работать на пределе, а процессор, системная шина и память будут "недозагружены".
Наш вывод на этом этапе: главное - сбалансированность характеристик компонентов системы. Если ее не будет, это означает, что вы переплатили либо за материнскую плату, либо за видеокарту. При этом одно устройство будет "недорабатывать", а другое - работать на пике своих возможностей, что сделает всю систему менее стабильной и сократит срок жизни отдельных ее компонентов. Никто, кроме нас самих (ни тематический форум, но оценки потребителей, ни тесты на производительность, ни критические или хвалебные обзоры, ни авторы компьютерных сборок в магазинах) - никто на самом деле не заинтересован в том, чтобы проследить сбалансированность характеристик нашей машины. Это только наша задача. Что хорошо на одной машине и для одних целей, то вполне может быть плохо в других условиях.
ЧАСТЬ 2
На нашем рисунке осталось еще несколько не рассмотренных позиций.
DirectX Support (9.0c / SM3.0) - пункт показывает, какую версию DirectX и модель шейдеров (SM) поддерживает видеокарта. Чем старше версия, тем лучше. DirectX - это совокупность библиотек обработки мультимедиа контента, в том числе звука и видео. От версии библиотек зависит производительность системы и качество картинки в видеоиграх. Разные версии DirectX сориентированы на разные процессорные архитектуры и операционные системы. Например, 10 версия DirectX практически не работает с WindowsXP, хотя при желании из нее (из DirectX) можно вытащить ряд библиотек, совместимых с XP (народным умельцам это удалось). А вот DirectX 11 ни в каком виде на этой операционной системе работать не будет. В свою очередь, производители программ тоже ориентируются на возможности DirectX со всеми вытекающими из этого последствиями. Шейдерная модель (SM) видеокарты взаимодействует с DirectX. Шейдеры - это специализированные инструкции/процессоры видеокарты, выполняющие те или иные виды обработки картинки.
Shaders (12 Pixel / 5 Vertex) - количество шейдерных процессоров на видеокарте. В современных видеокартах уже не используется специализация шейдеров на пиксельных (Pixel Shader обрабатывает цвет и глубину пикселей) или вершинных (Vertex Shader обрабатывает вершины, т. е. геометрию объектов) выборках, а применяются универсальные процессоры. В ходе обработки данных видеокарта сама определяет, как перераспределить задачи между шейдерными процессорами. В нашем примере мы имеем всего 17 шейдерных процессоров. По современным меркам это, конечно, неприлично мало. У разных производителей шейдерные процессоры устроены по-разному, поэтому сравнивать чипы Ati и Nvidia между собой по количеству шейдеров некорректно. Но в пределах решений одного производителя работает правило - чем больше шейдерных процессоров, тем выше производительность видеокарты.
Pixel Fillrate (2.4 GPixel/s) - количество пикселей, которые может отрендерить видеокарта за 1 секунду. Эта характеристика определяет максимально возможное разрешение, при котором видеокарта теоретически обеспечит необходимую частоту смены кадров. Считается, что для человека комфортной является смена кадров с частотой не менее 24/s. Исходя из этого определим количество пикселей на 1 кадр: 2.4 / 24 = 0.1 GPixel. Это 100 MPixel. Остается узнать, какое это разрешение. К примеру, FullHD это 1920 * 1080 = 2 073 600 Pixel, т. е. округленно это 2 MPixel. Получается, что в "запасе" у нас еще 98 Mpixel на каждый кадр. С этим карта справится без проблем, но только в том случае, если мы не будем иметь в сцене никаких текстур. Однако на каждый объект послойно спроецированы карты текстур, а каждый слой - это плоское изображение определенного разрешения (растр), отвечающее за какой-либо визуальный эффект (основной цвет, неровности, блики и пр.). Таким образом, видеокарта обрабатывает геометрию объектов (по вершинам) и информацию о цвете и глубине пикселей, получаемую из различных карт текстур, для попиксельной отрисовки и раскраски объектов сцены. Поэтому надо различать пиксели как часть результирующего растра (кадра) и пиксели как составные элементы текстур объектов (тексели).
(Между прочим, не будем забывать также, что комфортность восприятия частоты смены кадров зависит от выводящего картинку устройства. Для старых ламповых мониторов нормальной считалась частота развертки в районе 80 - 100 Гц. В современных жидкокристаллических мониторах в качестве стандарта используется частота 60 Гц. Поскольку частота развертки - это количество обновлений экрана в секунду, очевидно, что наилучшее восприятие движущейся картинки будет обеспечено, если частота смены кадров кратна частоте развертки. Например, для частоты 60 кадров наибольший комфорт будет достигнут при частоте 30 и 60 кадров в секунду. Частота в 15 кадров тоже кратна 60, но она заметно ниже комфортных для глаза 24 кадров в секунду. Частота выше 60 кадров не имеет смысла, если монитор не способен ее поддерживать. Более того, любой выход за пределы кратности будет неизбежно приводить к дефектам изображения, так как какие-то кадры будут "выпадать" и не выводиться монитором. Поэтому наилучшим выходом является принудительный рендеринг с жестко заданной частотой, который в настройках видеокарты получил название "вертикальная синхронизация". Существуют и некоторые другие нюансы, связанные с технологией обновления жидкокристаллического экрана, которые снижают комфорт от просмотра даже тогда, когда видеокарта уверенно "держит планку" в 60 кадров, заведомо превышающую комфортные для глаза 24 кадра в секунду. Выражается это в том, что обновление экрана происходит не мгновенно, и предыдущий кадр как бы растворяется в последующем. При ближайшем просмотре глаз это фиксирует и воспринимает как размытость кадров. Поэтому для игровых мониторов стандарт частоты развертки увеличивается, поэтому и VR требует как минимум стабильных 90 кадров в секунду. Ведь матрица в шлеме находится очень близко от глаз и эффекты размытия чрезвычайно заметны и даже способны приводить к нежелательным последствиям, таким как головокружение, тошнота и пр.)
Вернемся к пикселям и текселям.
Texture Fillrate (2.4 GTexel/s) - количество текселей, обрабатываемых картой за 1 секунду. Надо учитывать, что количество текселей отнюдь не равно количеству пикселей на экране. Разберем простой пример. Допустим, что мы видим кадр в разрешении FullHD, ПОЛОВИНУ которого занимает стена. При этом положим, что текстура стены тоже сделана в разрешении FullHD. Означает ли это, что видеокарте надо отренедрить текстуру стены в каком-то "половинном" разрешении (т. е. FullHD/2)? Нет! Если в сцене мы наблюдаем две стены, каждая из которых занимает половину экрана и "покрыта" текстурой FullHD, видеокарта будет рендерить 2*FullHD текселей. И так со всеми объектами, а их в сцене сотни. Предположим условно, что надо отрендерить 100 объектов, для каждого из которых используется по одной текстурной карте с разрешением 1024х1024. Тогда получим 104 857 600 текселей, или округленно 0,1 GTexel (на каждый кадр). Значит, наша карта сможет обеспечить для такой сцены частоту 2.4 / 0,1 = 24 кадра в секунду. Таким образом, мы нашли верхний предел возможностей карты обеспечить более-менее комфортное восприятие движущейся картинки. Разумеется, здесь речь не идет о комфортном выводе изображения на жидкокристаллический монитор (60 кадров) или в шлем VR (90 кадров).
Проблема ограничения возможностей карты по количеству обрабатываемых текселей в секунду остроумно решается в играх с открытым миром (например, от Bethesda), где необходимо выводить на экран огромные пространства и тысячи объектов. Для человека естественно видеть то, что находится далеко, размытым и нечетким. Столь же естественно просто терять из виду мелкие объекты. Поэтому очевидным было решение скрывать удаленные мелкие объекты, а текстуры высокого разрешения заменять на текстуры низкого разрешения, что и обеспечивает возможность одновременно вывести на экран сотни объектов, уложив их обработку в некий заданный пользовательскими настройками текстур лимит Texture Fillrate. Для поддержки высокой частоты кадров при обработке вершин (выполняемой шейдерными процессорами) используется аналогичное решение - заменять геометрию удаленных объектов с детальной на упрощенную.
Из всего сказанного выше можно сделать простой практический вывод. Основные ресурсы видеокарты уходят на обработку геометрии и вычисление проекционных координат текстур и их визуализацию. Поэтому скорость отрисовки трехмерной сцены зависит не столько от разрешения результирующего кадра (см. "запас" Pixel Fillrate), сколько от количества и размера карт текстур и сложности топологии объектов. Миллионы пикселей (текселей) больших карт занимают в памяти много места (1024 * 1024 = 1 048 576 пикселей) и требуют много процессорного времени для обработки. Более частая, густая сетка каркаса объекта содержит больше вершин - следовательно, опять же больше данных для обработки.
ROPs / TMUs (4 / 4) - количество блоков растеризации / текстурирования, отвечающих за отправку просчитанных кадров в буфер видеокарты (т. е. уже в сторону вывода на экран) и их постобработку / выборку данных из памяти. Количество блоков в видеокарте влияет на ее производительность. В частности, число ROP определяет Pixel Fillrate, а от числа TMU зависит скорость выборки текстур из памяти и, соответственно, показатель Texture Fillrate . Исходя из того, что мы уже сказали про оба показателя, можно сделать вывод, что наиболее критичным является Texture Fillrate и, следовательно, количество блоков TMU.
ВМЕСТО ЗАКЛЮЧЕНИЯ
Итак, мы обсудили все ключевые параметры видеокарты и постарались ясно описать их взаимосвязь между собой и с другим оборудованием компьютера.
В следующем разговоре мне хотелось бы перейти к финансовой стороне вопроса и описать методику сопоставления стоимости характеристик видеокарт, которая позволяет взвесить характеристики разных видеокарт и соотнести их (характеристики) с ценами на устройства.
В заключение приглашаю отдать дань ретро-устройствам и полюбоваться на дизайн видеокарты, которая верно послужила нам в качестве примера (на фотографии слева).
Программа GPU-Z представляет собой уникальный софт, дающий подробнейшие сведения о вашей видеокарте. В основном, её используют продвинутые пользователи, которые хотят знать максимум информации о том модуле, который установлен в их компьютере. Работа с программой не вызывает никакого дискомфорта, но иногда достаточно сложно разобраться с тем, где и какая информация расположена. Если человек профессионал, он разберётся, а вот в случае с новичками не всё так однозначно.В данной статье я подробно расскажу о том, как пользоваться GPU Z, что позволит вам полностью изучить всё, что предлагает данная программа. Информация ниже разбита на блоки, чтобы вам было удобнее во всём ориентироваться.
Блок третий
Данный блок содержит достаточно большое количество различных параметров, связанных непосредственно с производительностью видеокарты, которая подключена к вашему компьютеру и в данный момент анализируется.
- Memory Type. Тут вы сможете увидеть то, какой тип памяти у вашего видеоадаптера.
- Bus Width. Один из важнейших показателей в плане производительности. Он указывает ширину между графическим процессором, а также видеопамятью. Если говорить другими словами, это ширина шины.
Обратите внимание! Показатель играет действительно важную роль, так как он определяет то, какое количество информации в единицу времени сможет передавать ваша видеокарта. Чем больше тут число, тем лучше, так как модуль качественнее реализует все свои возможности и обеспечивает больше мощности.
- Memory Size. Тут вы получите данные касательно общего набора набортной памяти в графическом адаптере. В том случае, если в строке не указано значение, есть два варианта. Во-первых, у вас может быть установлена интегрированная видеокарта. Во-вторых, возможно, для компьютера характерна многоядерная система.
- Bandwidth. Тут вы можете увидеть эффективную пропускную способность шины вашей модели видеокарты. Речь идёт о передаче данных между видеопамятью, а также графическим процессором.
- Driver Version. Тут совмещено сразу два показателя. Во-первых, вы увидите актуальную версию драйвера, который установлен в данный момент времени. Во-вторых, отображена версия операционной системы вашего компьютера. Для удобства пишется даже разрядность.
- GPU Glock. Напротив этого пункта вы найдёте показатель выбранной частоты процессора. Он отображается для производительного режима функционирования графической карты, характеристики которой рассматриваются.
- Memory. Всё по аналогии с предыдущим вариантом, только теперь вы получаете сведения о частоте видеопамяти для производительного режима видеоадаптера.
- Shader. Как и в предыдущих двух случаях, параметр рассчитан для производительного режима работы модуля. Но в данной ситуации вы получаете сведения касательно выбранной частоты шейдеров.
Важно! В том случае, если напротив пункта нет никаких данных, нужно понимать, что у вас либо карта ATI, либо интегрированный модуль. В таких случаях шейдерные процессоры работают на частоте ядра.
Как узнать температуру видеокарты
Закрепляется любое из значений.
При разгоне и тестировании следите, чтобы отображался текущий показатель – «Show Current Reading». К сожалению, предупреждать о нагреве свыше указанной температуры GPU-Z не умеет.
Вкладка «Validation» («Проверка»)
Служит для отправки на серверы TechPowerUp параметров о графической подсистеме, поддержания обратной связи с разработчиком. Информация хранится открытой для индексирования и других пользователей либо конфиденциально – доступна только в личном профиле (опционально). После отправки получите идентификатор для посещения личной страницы, отправки параметров видеокарты другим пользователям.
Опция доступна без регистрации, однако только после авторизации увидите свои идентификаторы.
Личная страница.
В чем разница между PCI Express 3.0, 4.0 и 5.0
Основная разница между PCI Express 3.0, 4.0 и 5.0 заключается в скорости передачи данных. Каждая версия PCI Express получает удвоение пропускной способности и последнии версии не исключение. Например, при использовании 16 линий через PCI-e 4.0 можно передавать данные со скоростью 31,5 ГБайт/с, что в два раза быстрее, чем при использовании 16 линий версии PCI-e 4.0. Тоже самое с PCI-e 5.0, она в два раза быстрее PCI-e 4.0.
Год | Версия | Пропускная способность |
2010 | PCI Express 3.0 x16 | 15,8 Гбайт/с |
2017 | PCI Express 4.0 x16 | 31,5 Гбайт/с |
2019 | PCI Express 5.0 x16 | 63,0 ГБайт/с |
Разница в пропускной способности выглядит впечатляюще, но многим устройствам такая большая скорость на данный момент не нужна. Поэтому при переходе на новую версию реальный прирост производительности может быть намного меньше.
Например, в таблице внизу приведены результаты видеокарты Radeon RX 5700 XT при ее подключении с помощью PCI-e 3.0 и PCI-e 4.0. Как видно, пока что более высокая пропускная способность PCI-e 4.0 практически не влияет на производительность видеокарты в играх.
Средний FPS на максимальных настройках в FullHD | ||
PCI-e 3.0 | PCI-e 4.0 | |
Shadow of the Tomb Raider | 104 | 105 |
Gears 5 | 100 | 101 |
Red Dead Redemption 2 | 66 | 66 |
Metro Exodus | 52 | 52 |
Borderlands 3 | 82 | 83 |
The Division 2 | 101 | 101 |
Assassin’s Creed Odyssey | 64 | 64 |
С другой стороны, твердотельные диски (SSD) очень чувствительны к скорости подключения и в этом случае разница между PCI Express 3.0 и PCI Express 4.0 более заметна.
Например, в таблице внизу приведены результаты двух похожих SSD накопителей: FireCuda 510 и FireCuda 520. Первый из которых использует интерфейс PCI-e 3.0, а второй PCI-e 4.0.
FireCuda 510 2 Тбайт | FireCuda 520 2 Тбайт | |
PCI-e 3.0 | PCI-e 4.0 | |
Последовательное чтение | 3450 Мбайт/с | 5000 Мбайт/с |
Последовательная запись | 3200 Мбайт/с | 4400 Мбайт/с |
Как видно, при последовательном чтении прирост производительности почти полуторакратный. В новых SSD, которые будут выпускаться под PCI-e 4.0 эта разница может быть еще существенней.
Отрицательные стороны
У данной программы нет минусов. Один лишь минимальный недостаток может проявиться в том, что иногда нельзя точно определить некоторые параметры. Но это скорее вина изготовителя, который в недостаточной степени идентифицировал устройство.
Как сделать скриншот в программе
GPU-Z делает снимки собственного окна с последующим сохранением в файл или отправкой в интернет в любой вкладке.
Необходимость узнать характеристики видеокарты может возникнуть в различных ситуациях. Например, характеристики видеокарты могут потребоваться перед установкой драйверов или новой компьютерной игры.
Скачав и запустив данную программу на на Windows 7 или Windows 10 вы увидите небольшое окно с тремя вкладками. Первая вкладка называется « Graphics Card ». Здесь сосредоточена вся информация о технических характеристиках видеокарты.
В самом верху, в поле указывается название видеокарты.
Чуть ниже название графического чипа (GPU), а также его основные характеристики (ревизия, техпроцесс, размер кристалла, дата выхода, количество транзисторов).
Дальше указывается версия BIOS видеокарты. Нужно отметить, что BIOS видеокарты это не тоже самое что BIOS материнской платы. У видеокарт есть свой собственный BIOS, никак не зависящий от BIOS материнской платы.
Дальше название производителя видеокарты и ее Device ID. С помощью Device ID можно определить полное название видеокарты и найти драйверы для нее.
Нужно понимать, что производитель видеокарты и производитель чипов это не одно и тоже. Компании AMD и NVIDIA производят чипы для видеокарт и разрабатывают референсные видеокарты. Тогда как производителя видеокарт (такие как MSI, ASUS, GIGABUTE и другие) используют эти чипы и референсные видеокарты для разработки и производства уже готовых к использованию массовых видеокарт.
В нижней части окна расположен целый блок характеристик видеокарты.
- ROPs/TMUs – количество блоков растеризации (ROP) и текстурирования (TMU).
- Bus Interface – характеристики интерфейса PCI-express, который используется для подключения видеокарты. Эти характеристики зависят от материнской платы, количества установленных видеокарт, а также режима их работы.
- Shaders – количество шейдерных процессоров.
- DirectX Support – версия DirectX, которую поддерживает данная видеокарта.
- Pixel Fillrate – скорость пиксельного заполнения.
- Texture Flillrate – скорость заполнения текстурами.
- Memory Type – тип памяти, который используется на видеокарте. В некоторых случаях, здесь также указывается производитель чипов памяти.
- Bus Width – ширина шины межу видео памятью и графическим процессором видеокарты.
- Memory Size – объем видео памяти, который установлен на видеокарте.
- Bandwidth – пропускная способность канала, между видео памятью и графическим процессором видеокарты.
- Driver Version – версия драйвера видеокарты, который установлен в операционной системе.
- GPU Clock – тактовая частота графического процессора (с разгоном).
- Memory – частота видео памяти (с разгоном).
- Boost – тактовая частота графического процессора в Boost режиме (с разгоном).
- Default Clock – стандартная тактовая частота графического процессора (без разгона).
- Default Memory – стандартная частота видео памяти (без разгона).
- Default Boost – стандартная тактовая частота графического процессора в Boost режиме (без разгона).
- ATI CrossFire или Nvidia SLI – характеристика видеокарты, указывающая на использование связки из нескольких видеокарт.
- Computing – поддержка технологий, ускоряющих обработку некоторых процессов в компьютерных играх и профессиональных программах.
В самом низу есть выпадающий список видеокарт. Если в системе используется больше одной видеокарты, то с помощью данного выпадающего списка можно переключаться между разными видеокартами и просматривать их характеристики.
Если вы хотите узнать не только технические характеристики видеокарты, но и текущие параметры ее работы. То для этого перейти на вкладку « Sensors ».
Здесь можно получить следующую информацию:
- GPU Core Clock – текущая тактовая частота графического процессора видеокарты.
- GPU Memory Clock – текущая тактовая частота видео памяти видеокарты.
- GPU Temperature – текущая температура графического чипа видеокарты.
- Fan Speed (%) – текущая скорость вращения вентиляторов на видеокарте (в процентах от максимальной скорости).
- Fan speed (rpm) – текущая скорость вращения вентиляторов на видеокарте (в оборотах за минуту).
- Memory Used – используемая видео память.
- GPU Load – загрузка графического процессора видеокарты.
- Memory Controller Load – загрузка контроллера видео памяти.
- Video Engine Load – загрузка видео движка.
- Bus Interface Load – загрузка шины памяти.
- Power Consumption – уровень тепловыделения.
- VDDC – напряжение на графический процессор видеокарты.
При необходимости характеристики видеокарты из вкладки «Sensors» можно сохранить в текстовый файл. Для этого нужно активировать функцию «Log to file».
Задайте вопрос в комментариях под статьей или на странице «Задать вопрос» и вы обязательно получите ответ.
Недавно на рынке компьютерных комплектующих стали появляться устройства с поддержкой интерфейса PCI Express 4.0. Появление новой версии вызвало у пользователей вопросы. Далеко не все понимают, что такое PCI Express 4.0, в чем разница между PCI Express 3.0 и 4.0 и насколько они совместимы друг с другом.
Читайте также: