Помогает ли видеокарта процессору
Видеокарта у меня НД 7770, а процессор старый и слабый, (32 бит, 2,7 гц, кеш л1 512, кешов л2,3 нет, сокет ам2.
По моему нет, видеопроцессор отвечает за потоковую передачу изображения и кластеров видео, а ЦП отвечает за быстродействие системы в целом, как перекинуть часть обязанностей на цп не могу даже представить))
ваша видеокарта поддерживает технологию OpenCL, значит при необходимости она может взять часть нагрузки на себя
как видеокарта может отвечать за процессор если у неё нет памяти и она не тянет ни один герц для работы программ нужна память а память есть только в проццесоре в видеокарте тоже есть память но она отвечает не за программы
Видеокарта берет на себя нагрузку от ЦП если приложение заточено под это, например фиизикс от нвидиа, если стоит видеокарта АМД то физикс целиком и полностью ложитсья на ЦП от чего и проседают ФПС в подобных играх, если ты расчитываешь что во что упрется, так вот лучше если видеокарта мощнее цп, чем наоборот, тупой пример пенек 4ый + например новая видеокарта - приложение запуститься и будет работать/ обратный пример и7 без видео адаптера - 3д приложение даже не запуститься
Современные графические адаптеры без проблем выполняют конвертирование видео, однако их специализация – сложные компьютерные трехмерные игры. Это совершенно другой объем работы. Если с воспроизведением видео графическая плата справляется легко, то в трехмерных играх ей приходится формировать и отрисовывать целые сцены. Для этого видеокарта выполняет детальную проработку трехмерных моделей и обеспечивает правильное освещение игрового мира. В результате центральный процессор получает возможность переключаться на другие задачи, например просчет поведения игровых персонажей или моделирование физических явлений. Впрочем, современные видеокарты и здесь уменьшают нагрузку на процессор, взяв на себя просчет физических процессов, например взрывов или разрушений зданий.
Если я не сильно ошибаюсь, эта видеокарта не поддерживает математические операции с двойной точностью.
О каком-либо практическом применении видеокарт для расчётов можно говорить лишь начиная с Radeon HD 7870, GeForce GTX 460, GeForce GTX 660. Это видно по результатам тестирования GPU в Folding@Home (проект распределённых вычислений по моделированию поведения белка) . У более слабых видеокарт математические способности их GPU "порезаны" в целях удешевления.
PS: Процессоров АМ2 без кэша Л2 не бывает в природе.
Последним процессором без кэша Л2 был Intel Celeron 366 МГц под Слот 1.
Видеокарта в современном исполнении.. . выполняет ряд функций. ранее выполняемые процессором, даже умудрилась залезть в интерфейс операционной системы, на ней висит обработка мультимедийной информации, ТV выход . декодированием сжатого видеосигнала (это позволяет очень сильно разгрузить процессор при воспроизведении видео высокой четкости) имеет свою оперативную память и работает независимо от системной, собственной шиной передачи данных.. разгружает процессор по полной я не говорю уже о играх, о пиксельных шейдерах, блоках расчета освещенности и многое другое. Чаще всего мощность графического процессора в разы превышает показатели центрального процессора. Вот тебе и видеокарта.. и порой цена мощной видеокарты превышает стоимость всего компьютера.
В задачах по кодированию видео видеокарта может разделить "участь" процессора с ним, не более.. .
Хотя есть аналогичные по типу нагрузки, майнинг, матиматические пргши, какие я незнаю.
Приветствую, любознательный читатель. Возможно собирая ПК ты слышал следующие выражения: "У тебя идёт упор в видеокарту", "У тебя всё упирается в процессор" и т.д. А ведь не утихают споры до сих пор.
И всё что нужно, это достигнуть баланса, о котором мы поговорим ниже.
Явление Bottleneck "бутылочное горлышко" возникает там, где нарушен баланс производительности в одну либо другую сторону. Как правило, это связка центральный процессор + видеокарта — один компонент не должен быть мощней чем другой и наоборот, у них должен наблюдаться паритет, для получения большего FPS в играх
В нашем случае уместно провести аналогию с человеком. Человек тренирую одну часть тела не может существенно её увеличить без увеличения всей массы тела. Так и со сборкой ПК. Будет нецелесообразно ставить слабый процессор и мощную видеокарту вместе, они попросту не смогут раскрыть заложенный в них технический потенциал.
При подборе комплектующих для ПК, должна соблюдаться сбалансированность всей системы. Для снижения риска упора в GPU или CPU, требуется грамотно подбирать процессор под видеокарту и наоборот, с запасом по производительности. Нам так же придут на помощь техно-каналы на Youtube, которые производят сборки, тестируют, и говорят о плюсах, минусах и целесообразности.
Для определения "узкого" места в сборке, мы воспользуемся одной из следующих программ: FPS Monitor, MSI Afterburner и др.
Если при тесте нагрузка на процессор составляет 100%, а видеокарта, к примеру загружена на 80% и меньше, в таком случае "упор" идёт в процессор , если же ситуация обратная и видеокарта загружена на 100%, а нагрузка на процессор составляет 80% и меньше, тогда "упор" идёт в видеокарту.
* «после просмотра видео, ответьте на вопрос в конце статьи!»
Как итог, не стоит к маломощным(недорогим) процессорам ставить мощные(дорогие) видеокарты и наоборот. В каждой конкретной сборке нужно соблюдать баланс производительности между CPU и GPU!
*Вопрос: сталкивались ли вы с дисбалансом у себя в системе?
Ставьте лайки если вам понравилась статья, а так же пишите в комментариях свою связку процессор + видеокарта!
Видеокарта – самая важная составляющая игровой системы и не только. В рендере, некоторые пользователи предпочитают работать именно через графический ускоритель, но и в задачах попроще видеокарта бывает полезной. Было бы отлично, если не приходилось покупать для компьютера процессор, ведь он уже есть в GPU. Но почему видеокарта не может заменить центральный процессор?
Начну с того, что видеокарта – это отдельная система, имеющая собственную плату, оперативную память, чип, а иногда и несколько. Имеется даже отдельная подсистему питания. Казалось бы – компьютер в миниатюре… От части поэтому, графические ускорители стоят довольно дорого, но вернёмся к теме… Схема работы видеокарты почти такая же, как с целым ПК. Видеокарта обменивается данными с центральным процессором по средствам линий PCI. Данные поступают в оперативную память, а та в свою очередь передаёт информацию графическому процессору.
А теперь краткий вывод – GPU и CPU почти одно и тоже, но выполняют разные задачи. Почему же они не взаимозаменамы? Проблема кроится на уровне логики их работы. Уверен, на уроке информатики многие учили алгоритмы – самый важный элемент для получения результата. Большая часть знающих тему людей скажет, что есть алгоритмы типа «И», «ИЛИ», «НЕТ», хотя на самом деле, вариантов алгоритма очень много. Процессор состоит из миллионов транзисторов и каждый из них относится к одному из 16 видов алгоритма.
В CPU транзисторы скомпонованы так, чтобы решать каждый случай, даже однотипный, по уникальной схеме. То есть, центральный процессор проявляет гибкость и редко повторяет один и тот же алгоритм для решения задачи. GPU сделан совершенно иначе… Транзисторы скомпонованы для решения однотипных задач и их выстраивания в единый поток. Из-за этого, графический процессор не проявляет «инициативу» и сужает возможность получения широкого спектра данных.
Объясню чуть проще… GPU и CPU можно сравнить как человека, который работал всю жизнь в одной сфере и человека, который сменил не одну профессию. GPU решает однотипные задачи каждый раз, получая примитивный ответ, а CPU, каждый раз решает задачу уникальным путём, получая самые разные итоги.
А были ли попытки совместить GPU и CPU? Конечно… В Intel задавались целью объединить центральный и графический процессор в одно целое ещё в конце 70-х начале 80-х и даже вернулись к теме в нулевые, но решение не получило распространения из-за отсутствия стандарта, а для одного универсального устройства слота PCI-Express мало – нужна большая пропускная способность.
Дак у меня комп выключается. от перегрева проца. кулер новый поставил, на прочистку отдал, корпус поменял. не помогает.
причём тут видяха. ну если она у вас слабая то конечно надо сменить на более подходящую под процессор-посоветуйтесь лучше в магазине с консультантами-вам всё нормально расскажут что и как!
Если играешь в игры - то да, часть операций видеокарта берет на себя. А в офисных приложениях толку от смены карточки мало.
Если беспокоит только перегрев проца, то лучше купить кулер помощнее, или в корпус на вытяжку дополнительно поставить.
Причом проц. Основти параметри компа, щоб не тормозив це главне проц, а также видуха, яку нада купить того что встроена максимув е на 128 мб. и оперативна память. В тебе е все крим видухи.
Встроеная полюбому плохо. Она снимает память с ОЗУ. У тебя не 1.49ГБ а гораздо больше. После покупки сам ето увидиш.
Ну а если процессор для игры сильно слабенький то тут и самая мощная видеокарта не поможет.
66 градусов под нагрузкой - вполне приемлемая температура для процессора, особенно для такого горячего, как Pentium 4 Prescott.
После установки видеокарты нагрузка на процессор не уменьшится (с чего бы это) , а вот производительность в играх возрастет очень сильно.
Также увеличится доступный объем оперативной памяти (сейчас часть забирает встроенная видеокарта) .
Проц слабый и в целом, и в частности. Ставь Core 2 Duo - материнка позволяет.
Вы уверены, что именно процессор перегревается? Мож блок питания, мож еще чего. Вообще очень развернутый вопрос получается. Есть утилиты, определяющие срабатывание троттлинга (термозащиты) в процессорах интел - можно проверить.
Процессор нагреется еще больше, еще чуть противней завоет вентилятор. Архитектура проца очнь слабая. Он примерно как Атлон2 на 1,5Ггерца (если бы такие были) , только жрет энергии в 4 раза больше
если вткнуть видео от энвидиа, нагрузка с цп спадёт в конвертировании видео, ибо cuda отлично справляется сама с этим. . но видео должно быть не меньше GeForce 8xxx.. и 66 градусов для пня 4 это холодно, у меня он на 80 цельсия 4 года работал )
Слабый процессор с мощной видеокартой. Имеет ли смысл?
" width="366" height="205" />
" width="366" height="205" />
Не плохой обзорщик . Частенько смотрю видосы!
грати можна но не рекомендую
Да, смысл имеет. Но нужен хотя бы слабенький 4-х ядерник, Phenom X4 например. Видеокарта вытягивает практически любую, даже процессорозависимую игру. Но главное! Если видеокарта Nvidia, нужно обработку PhysX поставить на видеокарту, а не на проц., как по умолчанию., незнаю только как у ATI, там как-то Havoc надо перенастроить только на обработку видеокартой. Убелся сам на личном опыте и на вроде как очень процессорозавимой игре GTA5, заменил просто 580 на GTX1080, имея слабый PhenomX4, игра пошла плавно на максе без лагов, вылетов и тормозов со всеми всключенными настройками, тесселяцией, HBAO+, даже с масштабированием текстур. Просадки FPS вообще сразу пропали, а я уже хотел было всю систему менять. В современных играх главную роль играет мощная видеокарта, а не проц. Но если играть в 4K, то там наверно картина будет другая, тут уж в любом случае нужен будет мощный проц.
Сам когда-то страдал той же фигней: была 9800 GT и Celeron 440. Во многих играх был тот самый "эффект медленного процессора" (размытие по краях изображения).
Можем. Практикуем. Не имеем денег.
xAGS37x согласен
блин а когда такая печалька как amd fx6300 разогнанный до 4.3 и gtx560 то что из этого все же слабее и менять надо?((( и какие тогда сейчас процессоры актуальны для современных игр?
все верно! но, есть нюансы. к примеру для Fallout 4 нужна связка мощный проц и карта ибо есть просадки и карта не нагружается на 100% (по крайней мере моя). в то же время в Far Cry 4 плавность картинки просто не реальная - карта нагружена на 90 - 100 % и связка относительно слабый проц + мощная карта работает нормально (опять же сужу по своему конфигу)! в любом случае, если есть запас мощности , его нужно использовать - подбор более мощного проца или разгон слабого, пересадка на PCe 3.0, если карта сидит на 2.0.
Народ подскажите какой прогой он пользуется для отображения загруженности GPU прямо на экран ? У меня 4670k (разогнан до 4.4) и видяха gtx 980, хочу посмотреть загружен ли GPU на 100% в играх.
Читайте также: