Почему рендерит процессор а не видеокарта
При рэндере в 3D-MAX посмотрела загрузку процессора видеокарты - показывает "0".
Теперь сам вопрос, при рэндере вообще используется видеокарта? Если да, то как включить? Какие есть настройки при V-ray?
Железо:
Core i7 920
RAM 6Gb DDR3
Video ATI R4870 T2D512
при рендере она не работает. Хотя в новых разработках типа технологии nVidia CUDA процессор видеокарты подключается в помощь основному. У ATI своя версия. Но пока толком не внедрили.
А также ждём новую интеловскую видеокарту Intel Larabee ктоторая будет x86 совместимая,а значит сможет работать как обычный многоядерный процессор.
К сож у ATI пока ничего такого нет.
вопрос по теме: кто нить на практике этим пользовался? если да то может какой нить мануал есть? Тема любопытная, но, к сожалению, погуглить времени вообще нет. за компом минут 20 в день сейчас.
Собрался за 60 косых, в магазине прикол был. парень собирал, комплектуху заказывал..скинул 10%
Когда забирала с доставки девушка еще 5% скинула. около 51 вышло.
Расскажу всем, дабы не строили иллюзий.
Видеокарта нужна для отображения картинки (анимации, фото, скрина и т.д.)
Для ренеринга нужна память (процессор+ОЗУ+винт) то, что получится отобразит видеокарта.
Кстати друзья! Нигде в мире не используется для рендеринга машина на которой моделят и программируют сцену, для этого существуют сети и сервера.
Я для чего ссылки то дал?Смотри мой предыдущий пост.
Вирей(надеюсь только ПОКА)не может использовать при рендере мощность видюх от nVIDIA,ты прав.
Но если рендерить(таким же как и вирей сторонним)рендердвижком Gelato Pro(бесплатно можно скачать по первой ссылке для 3д макс 2009 в среде ХР и Линукс(для Майи))имея видеокарту любую nVIDIA,начиная с FX 5200,то будет счастье неизбывное,Добрых Духов,Максорогов и других максоюзеров скоростью радующее.Если,конечно не лень всё это ставить,тестить и изучать рендердвижок,неизвестно ещё какого качества картинки выдающий.
Но факт есть факт.
А по второй ссылке информация о новой(скоро выйдет) интеловской видюхе,которая при использовании стандартного максовского Ментал Рея ускорит рендер раз в сто
Мне бы тоже очень хотелось узнать мнение отважных первопроходцев обо всём этом
ЗЫ:Графические процессоры считают на несколько порядков быстрее центральных,но однопоточные,могут выполнять только однотипные операции последовательно.
Центральные процессоры считают медленнее,но многопоточные,выполняют разнотипные задачи параллельно.
Вот как раз объединить скорость первых и многопоточность вторых сейчас и стараются производители железа и программисты.
Я думаю что все и так знают, что видео карта нужна для отображения любого изображения на экран.
Боюсь что мой вопрос не правильно понят. Из чего состоит компьютер я знаю, хотела подтвердить свои подозрения по поводу рендера и участия в нем видеокарты, т.к. в сети много всего написано, не все говорят однозначно. Куча мнений. Хотелось узнать по существу вопроса, а не слушать лекцию.
Спасибо всем за отзывы, все стало ясно.
Кстати друзья! Нигде в мире не используется для рендеринга машина на которой моделят и программируют сцену, для этого существуют сети и сервера.
Думаю у каждого свои возможности и потребности соответственно, у кого есть сервера или сеть, давайте не будем витать в облаках. У меня есть одна машина, на ней я делаю все, меня и заказчиков это устраивает.
Если я заблуждаюсь, то можете ткнуть носом почему - я не обижусь.
telefon
Принципиально понятно, не нужно по многу раз повторяться с проблемой, увы живем мы в другом мире и не можем располагать всеми благами цивилизации, но все же бороться за результат нужно, БУДЕТ КАРТИНА МАСЛОМ! как говорил Гоцман.
Да и вообще с наступающим.
maxorog
Ну я тебе скажу, что юзеров ментала на постсоветском пространстве - мизер.
Выставляй режим Cycles и на панели "свойства "(справа) во вкладке рендер есть кнопка девайс.
Не обманывайте пользователей!
все правильно
видеокарта тут в видео редакторах - не существенна
вся нагрузка идет строго на проц - это главное
и потом на оперативную память
Короче самое главное тут - это процессор и его мощность
Ник соответствует ответу. Как в рендере совсем не важна видеокарта? Если вы не в курсе, то спешу сообщить, что в видеокарте есть миллионы ядер предназначенных для обработки графики, процессор задействуется в меньшей части для вычислений движения, вращения, некоторой физики. Все остальное, касаемо графики - дело видеокарты а не процессора. Нагружается память видеокарты а не общая ОЗУ!
самолет самолетов Искусственный Интеллект (240855) А какой еще может быть? РАЗНЫХ рендеров существует десятки и что бы суметь выбрать подходящий под свои задачи, придется изучить всю тему, а это сотни, если не тысячи страниц текста. Так- что, ничего полезнее кроме: "учите Blender по учебникам" сказать в данном случае невозможно.
Файл > Параметры > Система - там можно выбрать устроство для рендеринта, если видюхи нет - установить драйвер. А еще нужно выбрать режим cycles
Для визуализации на GPU в cycles необходимо:
1) Указать на каких именно устройствах будет осуществляться визуализация. В настройках пользователя File->User Preferences->System установить CUDA и выбрать устройства. Если процессор не требуется задействовать для вычислений, то снять с него чек.
2) Установить чек в редакторе свойств в кладке Render Devive: GPU Compute
3) Установить размер плитки неменее 256х256 в секции Performance Tiles
Знаете что по этому?
На ноуте стоит встроенная видеокарта Intel. Рендерит только на cpu, для gpu пишет, что нет доступной видеокарты. Можно это как-то решить?
Всем привет. За что мы любим 3д графику? За то, что она не дает заскучать, скорость появления новых технологий зашкаливает и нам нужно постоянно держаться на гребне волны, чтобы быть в теме. Мы можем просиживать за компьютером сутками ̶и̶ ̶г̶у̶с̶я̶м̶и̶ . Кто то любит ковыряться в машинах, а мы собираем своих франкенштейнов своими руками, чтобы увеличить скорость рендера на 5%, разгоняем процессоры, жжем материнки и видеокарты, ведь адреналин может выделяться не только в экстримальных местах, но и прямо за рабочим креслом :) С выходом Vray 3.5 сильно захотелось попробовать ГПУ рендеринг, и это превратилось в этот пост. Под катом все подробности выбора железа, установки, настройки, все подводные камни и ощущения от нереальных скоростей :)
После просмотра демо ролика мне буквально не сиделось на месте и я начал собирать информацию о ГПУ рендере везде где только мог, выяснилось что Bulgarov уже давно переехал на ГПУ:
и собрал какого-то нереального монстра с водяным охлаждением, а так же небезызсвестный DabartiCGI тоже перешел на ГПУ и во всю пропагандирует вегетарианство и сыроедство его.
У него система уже попроще, но всё равно довольно дорогая. Основные тезицы которые я почерпнул исследовав интернет такие:
1. Видеокарты могут быть разными(но просчет только Nvidia)
2. Количество памяти может быть разным. Оно не суммируется и используется наименьший объем памяти из всех доступных у видеокарт
3. Можно сочетать Ati/AMD(для отображения изображения с мониторов) и Nvidia для рассчетов
4. Sli режим не нужен, достаточно просто выбрать нужное количество видеокарт для просчетов
5. Основная проблема это охлаждение и питание.
Первым делом выяснилось, что просто так вставить 7 видеокарт в одну материнскую плату невозможно, даже если в ней есть 7 PCI-express-x16, они попросту туда не влезут, поэтому покупать специальную материнскую плату не надо. Достаточно любой "Gaming" с 4хPCIexpress-x16(это стандартные длинные пазы для видеокарт) и 3xPCIexpress-x1(урезанные, обведены красным)
К сожалению моя настольная материнка была с тремя большими ГПУ слотами и совсем не подходила даже для простой ГПУ станции, поэтому я пошел на балкон:
У нормальных людей на балконе можно найти много чего полезного, а у меня там - рендерферма :) С открытым окном в минус 30 рендерится очень хорошо:) Оказалось что почти все материнки для Xeon "нормальные" и я выбрал Gigabyte x99 Gaming 5:
Она компануется 4мя длинными и 3мя короткими PCI через 1, что позволяет воткнуть 4 видеокарты в обычный корпус MidiTower за 1000 рублей. Вы спросите, а как же всё таки воткнуть все 7 видеокарт в одну материнскую оплату? Оказалось, что тут без рукожопства уже не обойтись и найти детали в обычном супермаркете электроники около дом нереально, потому что нужно расширить короткие PCIexpress слоты с помощью специальных расширителей - "Raiser" или "Extender PCI". Они есть разных видов, но мне посоветовали вот такие:
Попутно выяснилось что Fedex,DHL и все скоростные доставщики больше физлицам в РФ не отправляют ничего, продавец прискорбно сообщил об этом и добавил мне к заказу ещё 2 удлинителя(к 20 которым я купил) и отправил всё Почтой россии/EMS, я превратился в ждуна и собрал 4хГПУ систему:
До этого у меня была 980GTX 4 GB и я решил оставить её для тестов рендера с разной памятью. Zotac был самый дорогой, в металлическом корпусе, с диодной подсветкой и т п + ещё одна самая дешевая 1070gtx от нвидии из пластика и с всего 8 пинами питания вместо 16 как у остальных.
Проблемы при сборке:
1. Видеокарты очень длинные (возможно кому то придется вырезать мешающиеся запчасти)
3. Видеокарты лучше втыкать по одной, почему то на двух материнках изначально заработало только во втором слоте ГПУ с одной видеокартой(в биосе стоит по умолчанию первый PCIe)
4. Биос стартует гораздо дольше!
5. Windows может после старта висеть с черными экранами 2-5 минут каждый запуск(проверено на 7ке и 10ке). Просто ждите :)
Ну и вот так это всё примерно выглядит.
Я перешел на 4к рендеринг видео, поэтому мощностей всегда не хватает. Например этот 21 секундный ролик в Corona рендерился почти неделю, это конечно не приемлиемо:
Даже с использованием Vray один кадр с 4к честным дофом или моушен блюром рендерится около 2х часов на моем 44ядерном Xeon, что то типа такого:
GPU на 4х видеокартах рендерит подобные кадры за 25-30 минут. При этом стоимость видеокарт в сумме около 2000$ , а процессор 2500$ Конечно настраивать ГПУ сцены несколько сложнее, некоторые вещи ещё не поддерживаются, но доработка практически любой сцены не занимает много времени.
Первый тест ГПУ я провел на сцене изначально сделанной под ЦПУ :
Превью рендеринг анимации 480*320 с честным дофом занял 3 часа, пока я ездил в магазин за едой на одном компьютере! Это очень круто.(сетка немного глючит изза неверного подбора ФПС, именно за этим такие тесты и прогоняются :)
Остальные видеокарты ушли во второй рабочий комп моему напарнику, и в ожидании удлинителей пока всё останется так как есть, а потом будем добивать рабочий объем до 7 ГПУ :) но это уже в следующем посте, а пока все - итак сильно затянул, не забывайте ставить оценки, если вам понравилось и репостить где надо и не надо.
Всем привет! Помогите, пожалуйста!
After effects ужасно долго делает предосмотр и рендеринг.
В настройках
Edit/Preferences/Previews/GPU Information в Ray/Tracing стоит GPU
Драйвера последней версии.
Характеристики компьютера:
I5 3.3 GHZ
Nvidia GTX 1060 6GB
ОЗУ 8ГБ
Мои действия:
1. Добавил raytracer_supported_cards свою видеокарту
2. File/ Project Settings пробовал ставить в настройках USE/Mercury GPU Acceleration (CUDA) но стала выдавать ошибку при предосмотре
AEplug
Мастер
SpongeBoy
Пользователь сайта
AEplug
Мастер
SpongeBoy
Пользователь сайта
AEplug
Мастер
Emirt
Пользователь сайта
Всем привет! Помогите, пожалуйста!
After effects ужасно долго делает предосмотр и рендеринг.
В настройках
Edit/Preferences/Previews/GPU Information в Ray/Tracing стоит GPU
Драйвера последней версии.
Характеристики компьютера:
I5 3.3 GHZ
Nvidia GTX 1060 6GB
ОЗУ 8ГБ
Мои действия:
1. Добавил raytracer_supported_cards свою видеокарту
2. File/ Project Settings пробовал ставить в настройках USE/Mercury GPU Acceleration (CUDA) но стала выдавать ошибку при предосмотре
Emirt
Пользователь сайта
Привет!
Столкнулся с такой же проблемой.
Параметры:
Видеокарта GTX 1080 Ti
32Gb DDR
AMD 1950x
При рендере в AE загрузка GPU изредко поднимается до 15%, в основном 2-3%
Очевидно, что програмно что-то мешает раскрыть потенциал видеокарты.
В AE все галочки проставлены, raytracer_supported_cards и ogl_support_cards прописаны, в панели управлнения Nvidia все настроено на 1080 Ti но все без толку(((
Подскажите, у кого есть опыт победносной борьбы в таком деле?
AEplug
Мастер
Опять 25. У вас как будто гугла нет. С чего ты взял что After Effects должен нагружать GPU.
Где это написано?
Александр Казаков
Пользователь сайта
Опять 25. У вас как будто гугла нет. С чего ты взял что After Effects должен нагружать GPU.
Где это написано?
AEplug
Мастер
нет, там написано "Множество функций After Effects использует графический процессор для ускорения рендеринга."
Что можно читать и как "а еще множество функций After Effects НЕ использует графический процессор"
а вот где именно? где написано - ну там и работает, другие дело, что это 20% от всего остального процесса
Даниил Мирзаянц
Пользователь сайта
Здравствуйте форумчане, есть проблема.
Ноутбук Lenovo ideapad l340 15irh gaming, с видеокартой gtx 1650, проц. I5 9 поколения , 8 Гб озу ddr4 (2666 кажется, не помню), система с AE находятся на hdd (просто для инфы). Значит захожу в АЕ , добавляю собой отснятое видео на хромакее, делаю настройку зелёного цвета через "selective color". В превью все рендерится и просматривается быстро , но стоит добавить key light 1.2 , убрать зелёный фон , и буквально сразу перестает рендерить превью , то есть тупо стоит , менял даже качество рендера на четверть. Само видео в 720 p 30fps. Убираю key light, тоже не рендерит , если повезёт только одну сек , за 2 мин . Cuda и opengl включены . В чем проблема помогите пожалуйста?
Максим Ливень (LeviaFan)
Пользователь сайта
нет, там написано "Множество функций After Effects использует графический процессор для ускорения рендеринга."
Что можно читать и как "а еще множество функций After Effects НЕ использует графический процессор"
а вот где именно? где написано - ну там и работает, другие дело, что это 20% от всего остального процесса
Ну и зачем так душнить?
Вопрос нормальный. Могу его расширить, чтобы было понятнее.
Вот у тебя есть компьютер с мощным железом (хороший процессор и видеокарта).
Когда ты играешь в игры, каждый кадр рендерится на связке видеокарта + процессор. При чем видеокарта используется по-максимуму. Это можно заметить по её загрузке. Нормальная загрузка карты от 95 до 100 процентов для AAA-проектов. Процессор же так сильно загружен быть не должен, если сборка ПК оптимальная.
Что мы видим на той же сборке при рендеринге видео в AE (из коробки)? Процессор загружен полностью, видеокарта – дай бог, если до 15% доберется. Это говорит о том, что видеокарта практически не используется.
Соответственно, встаёт вопрос. Почему так происходит и чем это обусловлено?
Предпосылки две: мы можем использовать видеокарту для рендеринга; AE не использует все её возможности.
Видеокарта простаивает большую часть времени работы ПК. Раз так, было бы неплохо использовать при рендеринге её, а не нужный для всего подряд процессор.
макс практически не использует ресурсы видеокарты. и большую часть времени она просто простаивает. за исключением пары случаев когда я играл в игры. но это бывает крайне редко. поэтому я пришел к (как мне показалось гениальной мысли).
а не обменять ли мне свой нынешний процессор I5 и нынешнюю видеокарту на один проц Core I7 какой нибудь со встроенной графикой
и не пользоваться видюхой от слова совсем. (ну или поставить в крайнем случае какую нибудь за пару тыш на 500 магабайт)
зато проц мощный будет. норм? или бред?
Интрфейс макса если сцена не влезет в память видеокарты работать не будет, а рендер пожалуйста. Если настроить сцену на другом компе а рендерить без видеокарты то легко.
в Id оборудование написано это : acpiapic.
Интрфейс макса если сцена не влезет в память видеокарты работать не будет, а рендер пожалуйста. Если настроить сцену на другом компе а рендерить без видеокарты то легко.
поэтому я и написал что либо встроенной видюхи либо дешманской за пару тыщ. хватит для подобных задач. меня интересует. на сколько в целом эта идея хороша.
корона не использует видеокарту почти никак, кроме денойза, если включен nvidia denoiser, который лучше вообще не использовать, а при использовании обычного денойзера все делается исключительно процессором
сам рендер в короне исключительно на проце, у меня например ноды вообще без видеокарт и проблем никаких, видюхи там только интегрированные в мать для администрирования системы
На встроенной видяхе будет пахать и довольно хорошо даже. Как я понял у вас не супер сложные сцены. Так что вы не плохой вариант придумали.
Всё будет зависеть - какая встроенная видеокарта.
Рендорить это одно, а ворочать вьюпорт - это другое.
Я год сидел на встроенной.
Ну его на. этот самый
Лучше только проц продай, добавь и возьми i7))
И то, если мать поддерживает)
Вынужденно пришлось перейти на такую схему пару месяцев назад. Внезапно начались бсоды из-за старой видеокарты, а поскольку работать надо всегда и прямо сейчас, пришлось её вытащить и перейти на встроенное видеоядро процессора(планировал на следующий день купить новую карту, но пока что забил).
Всё работает стабильно, сцены до 1.5 гигабайт вполне комфортны для рабочего процесса. Иногда бывают просадки по оперативной памяти(32 гигабайта), подтормаживания и подвисания вьюпорта при просмотре видео в 720 на втором мониторе. Главная проблема, которая началась после работы на встроенном видеоядре - бсоды во время рендера, проц тупо стал перегреваться. Решение нашлось быстро. Рендер одновременно с видео в 720 на ютубе, макс в этом случае грузит процессор не на 100% и вроде как синих экранов нет.
Мне пока подходит такой вариант, финалы делаю на втором компьютере(более мощном), а первый использую для сборки сцен и превью.
Поставил бы я видеокарту? Однозначно да, но попозже, решил дождаться новых карт от amd. Старая карта была saphire hd 7770 ghz Edition. Её не хватало для больших экстерьерных сцен. Сейчас хочется что-то уровня 1070ti/2070.
Читайте также: