Графическое ядро в процессоре что это такое
Не нужно путать GPU в компьютере с видеокартой, потому что GPU — это небольшой микрочип для обрабатывания графики, а видеокарта — это уже полноценное отдельное устройство. GPU является частью видеокарты. Когда GPU в компьютере размещается как отдельный микрочип, тогда его именуют графическим процессором. А если GPU интегрирован в процессор или материнскую плату, то в этом случае его часто называют встроенным или интегрированным графическим ядром.
Если подробнее изучать строение персональных компьютеров, то можно заметить , что разделение между интегрированным графическим ядром в процессор и отдельными видеокартами составляет примерно 50/50. Это объясняется тем, что «железо» с интегрированными графическими ядрами дешевле, чем «железо» с видеокартами. На практике люди, которые самостоятельно приобретают себе персональный компьютер , предпочитают покупать их с отдельными видеокартами. А компьютеры с графическим ядром, встроенным в процессор, в основном предпочитают покупать корпоративные клиенты , чтобы устанавлива ть их в офисах. Этим и объясняется такое разделение в устройствах.
Итоги
Встроенная графика – отличный вариант в 3 случаях:
- вам необходима временная видеокарта, поскольку денег на внешнюю не хватило;
- система изначально задумывалась как сверхбюджетная;
- вы создаете домашнюю мультимедийную станцию (HTPC), в которой основной акцент делается именно на встроенное ядро.
Надеемся одной проблемой в вашей голове стало меньше, и теперь вы знаете, для чего производители создают свои APU.
В следующих статьях поговорим о таких терминах как виртуализация и не только. Следите за обновлениями блога, чтобы быть в курсе всех актуальных тем, связанных с железом.
Комментируйте, не стесняйтесь, делитесь в соц.сетях. Жду вас завтра на моем блоге.
Всем привет! Сегодня разберем графический процессор — что это такое в компьютере и зачем он используется.
Зачем нужно?
Данное графическое ядро выступает в роли простой видеокарты, которая идет встроенной в процессор:
- Позволяет выводить изображение на экран, включая в высоком разрешении.
- Отлично подходит для офисных задач (например ПО Microsoft Office), для работы с офисными документами, простыми редакторами, просмотра фильмов, мультимедийными веб-сайтов.
- Топовые процы содержат немного улучшенное видеоядро, позволяющее запускать старые игры более-менее нормального уровня играбельности, просто иногда при низком разрешении, отключенных эффектах графики.
Видеоядро представляет из себя чип, который расположен под теплораспределительной крышкой на плате текстолита возле самого чипа проца:
Процы без видеоядра теоретически немного холоднее.
Видеосигнал данного видеоядра подается на монитор при помощи видеовыходов, которые расположены на материнской плате:
Синий — устаревший аналоговый порт VGA, можно встретить на небольших мониторах, старых (например ЭЛТ). Белый — цифровой разьем DVI, поддерживает почти все современные мониторы. Также рядом — небольшой разьем HDMI, некоторые мониторы поддерживают и его. Все данные разьемы функционируют при наличии графического ядра. Иногда таких выходов нет, обычно касается игровых материнок. Тогда нужно ставить отдельную видеокарту. Видеовыходы не будут функционировать при отсутствии видеоядра. Однако почти все современные модели процессоров его содержат.
Кстати процессоры Intel без видеоядра маркируются буквой F, а которые предназначены для разгона — K. Некоторые модели содержат обе буквы.
Если рассуждать с точки зрения инженерного замысла, то встроенное графическое ядро, повсеместно используемое в своих продуктах компаниями Intel и AMD, не является видеокартой как таковой. Это видеочип, который интегрировали в архитектуру ЦП для исполнения базовых обязанностей дискретного ускорителя. Но давайте разбираться со всем более подробно.
Графическое ядро в процессоре
Процессор — это небольшой микрочип, который устанавливается на материнскую плату ; это не «весь компьютер», как считают некоторые. Мы уже знаем, что такое GPU в компьютере и как это может быть организовано.
С видеокартой как бы ясно — это отдельное устройство, которое можно купить в магазине и установить в свой ПК. Хорошая видеокарта стоит недешево. Она занимает отдельное место в материнской плате и греется при своей работе.
Графическое ядро в процессоре — это та же видеокарта, только более простая и минимизированная. Оно не занимает отдельного места в материнской плате, так как находится внутри самого процессора. Как правило, такие ядра могут быть менее мощными, чем стационарные видеокарты. Но со своей основной целью — выводить изображение на экран компьютера — они справляются на «отлично». Поэтому такие процессоры рекомендуется применять в офисных компьютерах, где нет больших нагрузок на GPU.
Что такое графический процессор
GPU (аббревиатура с английского термина graphics processing unit) — компонент компьютера, игровой консоли, планшета или смартфона, который предназначен для рендеринга графики, то есть преобразует код в изображение, преимущественно 3D. Массовое применение таких девайсов началось с 2000 года.
До этого и разработчики, и пользователи обходились возможностями центрального процессора: игры и программы были слишком примитивны, чтобы задействовать дополнительный компонент. Отрисовка нескольких пикселей, какими и были первые игры и графические редакторы, не требует большой вычислительной мощности.
С началом развития 3D графики и появлением первых игр этого формата ситуация изменилась. Оказалось, что CPU, который прекрасно справляется с арифметическими операциями, даже не примитивной низко полигональной графике уже начинает «захлебываться».
Дальнейшее развитие к этому направлению привело к тому, что современная видеокарта, где и используется GPU — очень мощное устройство, которое идеально справляется с поставленными задачами. Оно и неудивительно: кат-сцены современных игр класса ААА уже практически не отличаются от 3D мультфильмов.
Недостатки встроенной графики
Поскольку разобрались с плюсами, нужно проработать и недостатки решения.
- Главный минус подобной затеи – производительность. Да, вы можете с чистой совестью играть в более-менее современные игрушки на низких и высоких настройках, однако любителям графики, такая затея точно не придется по вкусу. Ну а если вы работаете с графикой профессионально (обработка, рендеринг, монтаж видеороликов, постпродакшн), да еще и на 2-3 мониторах, то интегрированный тип видео вам точно не подойдет.
- Момент номер 2: отсутствие собственной скоростной памяти (в современных картах это GDDR5, GDDR5X и HBM). Формально видеочип может использовать хоть до 64 ГБ памяти, однако вся она будет браться откуда? Правильно, из оперативной. А значит необходимо заранее построить систему таким образом, чтобы ОЗУ хватило и для работы, и для графических задач. Учитывайте, что скорость современных DDR4-модулей значительно ниже, нежели GDDR5, а потому времени на обработку данных будет тратиться больше.
- Следующий недостаток – тепловыделение. Помимо собственных ядер на процессе появляется еще одно, которое, в теории, прогревается ничуть не меньше. Охлаждать все это великолепие боксовой (комплектной) вертушкой можно, но готовьтесь к периодическим занижениям частот в особо сложных расчетах. Покупка более мощного кулера решает проблему.
- Ну и последний нюанс – невозможность апгрейда видео без замены процессора. Иными словами, чтобы улучшить встроенное видеоядро, вам придется в буквальном смысле покупать новый процессор. Сомнительная выгода, не так ли? В таком случае проще через некоторое время приобрести дискретный ускоритель. Производители вроде AMD и nVidia предлагают отличные решения на любой вкус.
История появления
Впервые компании начали внедрять графику в собственные чипы в середине 2000-х. Интел начали разработку еще с Intel GMA, однако данная технология довольно слабо себя показывала, а потому для видеоигр была непригодной. В результате на свет появляется знаменитая технология HD Graphics (на данный момент самый свежий представитель линейки – HD graphics 630 в восьмом поколении чипов Coffee Lake). Дебютировало видеоядро на архитектуре Westmere, в составе мобильных чипов Arrandale и десктопных – Clarkdale (2010 год).
AMD пошла иным путем. Сначала компания выкупила ATI Electronics, некогда крутого производителя видеокарт. Затем начала корпеть над собственной технологией AMD Fusion, создавая собственные APU – центральный процессор со встроенным видеоядром (Accelerated Processing Unit). Дебютировали чипы первого поколения в составе архитектуры Liano, а затем и Trinity. Ну а графика Radeon r7 series на долгое время прописалась в составе ноутбуков и нетбуков среднего класса.
Графическое ядро в процессоре
Процессор — это небольшой микрочип, который устанавливается на материнскую плату ; это не «весь компьютер», как считают некоторые. Мы уже знаем, что такое GPU в компьютере и как это может быть организовано.
С видеокартой как бы ясно — это отдельное устройство, которое можно купить в магазине и установить в свой ПК. Хорошая видеокарта стоит недешево. Она занимает отдельное место в материнской плате и греется при своей работе.
Графическое ядро в процессоре — это та же видеокарта, только более простая и минимизированная. Оно не занимает отдельного места в материнской плате, так как находится внутри самого процессора. Как правило, такие ядра могут быть менее мощными, чем стационарные видеокарты. Но со своей основной целью — выводить изображение на экран компьютера — они справляются на «отлично». Поэтому такие процессоры рекомендуется применять в офисных компьютерах, где нет больших нагрузок на GPU.
Заключение
Сегодня вы узнали, что такое «GPU в компьютере», а также кто такой «графический процессор» , и много-много другого. А главное — вы сможете понимать, на что обращать внимание при выборе персонального компьютера. Если ПК вам нужен для решения небольших повседневных задач, то можете смело ориентироваться только по цене, при этом смело можно брать компьютер со встроенным ГП. Если же ПК вам нужен для более производительной работы, то нужно обратить внимание на наличие отдельной видеокарты и на ее характеристики. А если смотреть на встроенные графические ядра, то лучше изучить их линейки от разных производителей, чтобы понимать, ч его ожидать от будущего персонального компьютера.
Мы будем очень благодарны
если под понравившемся материалом Вы нажмёте одну из кнопок социальных сетей и поделитесь с друзьями.
Приветствую друзья! Сегодня я постараюсь простым языком рассказать вам зачем нужно процессору встроенное графическое ядро. Надеюсь что вы все поймете и вопросов у вас не будет.
Сразу определимся — процессор это устройство, маленькое, которое устанавливается на материнскую плату в специальное гнездо/разьем (сокет). Под словом процессор не имею ввиду системный блок (компьютер).
Итак, смотрите, компьютер это у нас что? Это системный блок, мышка, клавиатура.. и главное — это монитор. Чтобы выводить на монитор изображение, в компьютере должно быть специальное устройство — видеокарта.
Видеокарту можно купить. Но она стоит денег, даже самая дешевая видеокарта будет стоить как самый дешевый процессор. Во-вторых она выделяет тепло, даже минимальное, но все равно. В третьих она занимает место в слоте PCI-E на материнке. Все это мелочи, но в целом, если суммировать — то если можно обойтись и купить процессор, в котором встроена видеокарта, то это кажется лучшим решением.
То есть графическое ядро в процессоре — это видеокарта, но базового уровня, то есть она простенкая, но отлично подходит для офисного ПК. Она не занимает место и вообще ничего не требует, так как она — встроена в процессор:
На многих материнских платах есть видеовыходы VGA/HDMI/DVI:
Некоторые могут отсутствовать, зависит от модели, от цены платы.
Вот все эти видеовыходы будут работать при условии что процессор содержит графическое видеоядро, или простыми словами — видеокарту. Скажу сразу — во многих процессорах она есть.
Видеоядро в процессоре нужно попросту для того чтобы выводить изображение на экран, при том еще скажу что его более чем хватает для офисного ПК. Даже если монитор с высоким разрешением — никаких проблем, все показывает идеально.
И при том смотрите, самый дешевый процессор с встроенной видеокартой будет стоить как самая дешевая отдельная видеокарта. Другими словами для офисного ПК, или если вы собираетесь смотреть фильмы, то встроенного графического ядра в процессоре — более чем достаточно.
Современные процессоры (особенно топовые модели) содержат такое графическое ядро, что его хватит даже для просмотра HD-фильмов, возможно не всех, но то что технологии развиваются — поверьте, это точно.
Графическое ядро в процессоре (iGPU) позволяет выводить изображения на монитор компьютера без приобретения отдельной внешней видеокарты (GPU), которая устанавливается в разьем PCI-E.
Значение некоторых важных терминов:
- GPU — видеокарта, иногда обозначается как dGPU.
- iGPU — встроенное графическое видеоядро.
- CPU — процессор. Кстати RAM — это оперативка.
Технические особенности GPU
По сравнению с центральным процессором графический имеет меньший набор исполняемых команд (который ограничен осознанно) и несколько иную архитектуру, «заточенную» под обработку текстур и трехмерных объектов.
Изначально ГПУ проектировался как много потоковый компонент со множеством ядер, чем и обусловлена такая высокая мощность. В то время как ЦП проводит последовательные арифметические вычисления, графический процессор рассчитан на одновременную обработку множества объектов, то есть массовые параллельные вычисления.В плане технической реализации GPU разделяются на интегрированные, которые выполнены на одном кристалле с ЦП, и дискретные, которые наряду с видеопамятью и некоторыми другими компонентами являются частью видеокарты.
Если сравнивать вычислительную мощность, то последние более производительны. Интегрированные обычно графические ускорители начального уровня, которые можно использовать для несложных вычислений.
Конкурентная борьба между разными брендами привела к тому, что сегодня на рынке осталось только 2 компании, выпускающие графические чипы для видеокарт — Nvidia и AMD. Последние поглотили ATI, ранее независимого производителя, выпускающего видео чипы Radeon.
Относительно того, какой бренд лучше, то вопрос, по моему мнению, некорректный: такое сравнение — одна из тем для «священных войн», которые ведутся в интернете вокруг «железа» уже пару десятков лет. У каждого есть как удачные, так и не очень модели, и при покупке графического адаптера надо рассматривать конкретную модель.
Наличие конкуренции же между этими двумя «китами» для обычного пользователя значит только их непримиримую гонку — в погоне за деньгами потенциального покупателя каждый стремится создать GPU с лучшими характеристиками, который будет дешевле, чем у «заклятого врага».
Ну а появление новых моделей автоматически влечет за собой удешевление старых.
Вариант для офисных задач и домашнего использования
Какие требования чаще всего вы выдвигаете к своему ПК? Если исключить игры, то получится следующий набор параметров:
- просмотр фильмов в HD-качестве и роликов на Youtube (FullHD и в редких случаях 4К);
- работа с браузером;
- прослушивание музыки;
- общение с друзьями или коллегами с помощью мессенджеров;
- разработка приложений;
- офисные задачи (Microsoft Office и похожие программы).
Все эти пункты прекрасно работают со встроенным графическим ядром на разрешениях вплоть до FullHD. Единственный нюанс, который необходимо учитывать в обязательном порядке – поддержка видеовыходов той материнской платой, на которую вы собираетесь ставить процессор. Заранее уточните этот момент, чтобы не возникло проблем в дальнейшем.
Преимущества встроенных решений в играх
Итак. Для чего же нужна интегрированная карта и в чем заключаются ее отличия от дискретной.
Постараемся сделать сравнение с пояснением каждой позиции, сделав все максимально аргументировано. Начнем, пожалуй, с такой характеристики как производительность. Рассматривать и сравнивать будем наиболее актуальные на данный момент решения от Intel (HD 630 c частотой графического ускорителя от 350 до 1200 МГц) и AMD (Vega 11 с частотой 300-1300 Мгц), а также преимущества, которые дают эти решения.Начнем со стоимости системы. Встроенная графика позволяет неплохо сэкономить на покупке дискретного решения, вплоть до 150$, что критически важно при создании максимально экономного ПК для офисного и домашнего использования.
Частота графического ускорителя AMD заметно выше, да и производительность адаптера от красных существенно выше, что говорит о следующих показателях в тех же играх:
Как видите, Vega 11 – лучший выбор для недорогих «игровых» систем, поскольку показатели адаптера в некоторых случаях доходят до уровня полноценной GeForce GT 1050. Да и в большинстве сетевых баталий она показывает себя прекрасно.
На данный момент с этой графикой поставляется только процессор AMD Ryzen 2400G, но он определенно стоит внимания.
Для чего нужно такое «объединение»?
- уменьшить энергозатраты аппаратной части компьютера;
- создать более компактное «железо»;
- снизить стоимость компьютера.
Недостатки встроенного ГП в компьютере
- Более низкая производительность. Что это будет означать для пользователя компьютера? В строенных версий GPU очень много, как и производящих их фирм. Но большинству пользователей компьютеров и не нужно будет разбираться со всем многообразием, потому что для повседневных дел возможностей ГП в компьютере будет более чем достаточно: полазить в и нтернете, посидеть в соцсетях, посмотреть фильм в отличном качестве, поиграть в современную игрушку на низких настройках и др. Проблемы с производительностью начинаются, когда нужно делать более производительную работу: монтаж видеороликов, 3D-моделиров а ние и другое , и все это на 2-х мониторах.
- Отсутствие собственной памяти. Получается, что встроенный ГП в компьютере не имеет собственно й памяти, а это означает, что вся нагрузка, которая ложится на него , будет прямо влиять на оперативную память. Поэтому об этом заранее нужно беспокоит ь ся, чтобы оперативки хватало и на работу , и на графические задачи.
- Дополнительно е тепловыделение. На процессоре и так есть собственные ядра, которые греются , и их нужно охлаждать, а тут еще встроенный графический чип, который тоже неплохо греется.
- Нет возможности улучшить обработку графики. Встроенный ГП в компьютере можно поменять только вместе с процессором, а это так себе затея.
Зачем и где используется GPU
Первое, что приходит на ум для юзера, который хотя бы немного знаком с компьютерами — видеоигры. Это действительно так: киберспорт — отрасль, где графические адаптеры используются по максимуму. Сегодня сложно представить «серьезную» игру, которая реализована не в 3D.Большинство из игр в чем-то похожи: действие происходит в трехмерном мире от первого или третьего лица, а все это должна отрисовывать видеокарта. В играх других жанров, где используется изометрическая картинка, то есть вид сверху, например стратегиях или МОБА, давно уже используются такие же 3D модели.
Однако видеоигры — не единственная отрасль, где нужен GPU. Вспомните недавний хайп по поводу майнинга криптовалют, в частности биткоина, и последующее массовое появление на вторичном рынке графических адаптеров, ранее используемых для майнинга.
Сегодня эта тема теряет актуальность: трудолюбивые китайцы изобрели майнеры — девайсы, в которых нет графического чипа, но которые майнят даже лучше, чем видеокарты.
Также графический адаптер используется для обработки любого изображения — будь то просмотр видео на Ютубе или редактирование фотографий в «Фотошопе». Соответственно, если мощности GPU недостаточно, с запуском «прожорливых» в плане вычислительной мощности приложений могут быть проблемы.
Подписывайтесь на меня в социальных сетях, чтобы быть в курсе о поступлении новых материалов. До скорой встречи!
Читайте также: