Redshift не видит видеокарту
Для версий Redshift 3.0 под Windows и Linux требуются последние или новейшие драйверы Nvidia. Эти версии содержат поддержку OptiX7, которая является частью драйвера Nvidia. Редшифт для Мак версии 3.0.45 и выше требуется macOS Big Sur 11.3 или выше. Если вы получаете неожиданные ошибки "License Mismatch", вам необходимо обновить macOS.
- Настройки Render View сцены, теперь используют обновленный формат, исправили различные баги, где некоторые настройки могли отлететь и не сохраняться
- Добавлен Object Position и Object Bump Normal
- Исправлен бан в Bump Normal, который был представлен в версии 3.0.60
- Добавлена поддержка волос
- Исправлена задержка GPU при переключении между сценами во время рендеринга
- Исправлены проблемы с NAN, вызывающие артефакт черного пикселя
- Исправлена проблема совместимости с устаревшим освещением C4D
- Исправлено некоторое смещение цвета альбедо из-за временного смешивания
- 8 GB of RAM
- 8 гигабайт RAM
- CPU c поддержкой SSE2 (Pentium 4 и выше)
- для Windows and Linux: NVIDIA GPU 8 гигабайт VRAM и поддержкой CUDA 5.0 и выше
- для Мак: Apple M1 16 гигабайт или AMD "Navi" или "Vega" GPU или новее с 8 гигабайт VRAM или больше.
- 16 гигабайт RAM или более
- Intel Core i7 или аналогичный Xeon-у, 3.0GHz и выше
- для Windows и Linux: Nvidia GPU c 8 гигабайт VRAM и поддержкой CUDA 7.0 и выше. Рекомендуют графические карты серии Quadro, Titan или RTX GPU для поддержки рейтрейсинга
- для Мак: Apple M1 16 гигабайт RAM или AMD "Navi" или "Vega" GPU или новее с 8 гигабайт VRAM или больше
Redshift — это скоростной рендерер движок с GPU-ускорением, созданный для удовлетворения высокиъ требований современного высокопроизводительного рендеринга. Созданный для поддержки творческих личностей и студий любого размера, Redshift предлагает набор мощных функций и интегрируется со стандартными отраслевыми CG-приложениями.
Исходными данными было наличие около 10 видеокарт 1070 различных форм и моделей и 15 рендер нод на процессорах Xeon, поддержка которых в рабочем состоянии превратилась в ад, поэтому было решено срочно избавиться от этого мусора и состряпать рендер ферму на ГПУ.
Недолго думая была куплена майнерская Asrock H110 PRO BTC+ материнская плата с поддержкой 13 PCI-e слотов для видеокарт
и собран живописный монстр на 10 видеокарт и 3 блока питания, которые синхронно запитывают их:
На данном лоте представлены 10 видеокарт в одной Windows системе, которые работают! При этом только 2 из них одинаковые, все остальные разные как по производителю, так и по модели, это сделано специально чтобы проверить стабильность работы такой системы. (Asus, Palit, Gigabyte, Nvidia, KFA )
На момент сборки вышла версия windows 10 которая обеспечивала поддержку 10 видеокарт в системе, windows 7 технически поддерживает не больше 6 штук(и судя по всему мелкомягкие не собираются ничего с этим делать), после этого драйверы “лишних” видеокарт пишут ошибку и работать отказываются, как их не проси.
Запуск любой системы сводится к запуску со всей этой горой железа и установке 1 видеодрайвера, а потом несколько перезагрузок вплоть до того момента, пока винда не поймет как над ней издеваются и не примет всё как есть (обеспечит драйверами все видеокарты) :)
Если вам подобное удастся то, рано радоваться, с этим всем ещё надо как то взлететь :) то есть начать суть процесса - ̶М̶А̶Й̶Н̶И̶Н̶Г̶!̶ Рендеринг!
Мы давно и сильно зависимы от Vray по многим причинам, поэтому будем рассматривать его и Redshift.
Итак, как вы видели на картинке в шапке, Вирей может рендерить 10 видеокартами одновременно(VrayRT CUDA 3.6 ) Но делает он это абсолютно бесполезно, рендеринг на 5х1080 видеокартах тестовый сцены с чайниками (HDR+2 VrayLight+motionBlur+DOF) занимает 6 минут, а 10х1080 - 9 минут. При рендере большим количеством видеокарт Врей сталкивается с большой проблемой распределения ресурсов процессора и памяти, что приводит к тотальному провалу рендертаймов, к тому же Windows 10 дополнительно жрет 20% процессора относительно рендеринга в 7ке. При этом Вирей грузит видео карты на 100% весь период времени, ощущение такое что вы на грузовике Прогресс пытаетесь стартовать к МКС. Куда девается вся мощность скорее всего знает только Дружко
По ощущениям эффективность рендеринга вирея линейна до 3х видеокарт в системе, после чего производительность резко падает… (тесты делались на разных материнских платах, количестве оперативной памяти и процессорах).
Все ксеоны уже давно переехали к новому хозяину и я уже было думал броситься с балкона 26го этажа прямо в сугроб, но на выручку пришел священный REDSHIFT
При этом он ограничен 8ю картами прямо на программном уровне.
Но как обычно нельзя просто так взять и решить все проблемы, в виндовс 10 по необъяснимым причинам больше 4х видеокарт редшифт запустить на рендеринг не мог и крашился с вероятностью 146% (Windows 10 официальный с сайта майкрософт, билд обеспечивающий поддержку 10 гпу).
Конечно же прошло немало часов и попыток переустановки драйверов, версий 3д макса, редшифта, танцев с бубнами, но помогло только одно - установка Windows 7.
Пришлось отказаться от 4х видеокарт и оставить в системе 6 штук, которые успешно запустились и начали считать всеми любимые чайники
К моему ужасу редшифт посчитал их за 2 минуты и похоронил Vray окончательно. Казалось бы вот оно - Счастье! Но и это оказалось не всё, Редшифт в продакшен режиме показывал стабильную загрузку ГПУ на 45 процентов мощности какие бы настройки рендера ему не запихивали:
“Это какой то заговор!” - скажите вы, я лишь отвечу:
Нагрузить Redshift на 80-90 процентов можно включив Progressive режим рендеринга, который при этом не позволяет считать Render Elements нивкаком виде.
Разные видеокарты в одной системе работают абсолютно стабильно!
Вирей сильно зависит от Процессора во время рендера на ГПУ. На слабом CPU потери мощности рендеринга могут быть даже с 1 Видеокартой, Редшифт такой проблемы не имеет.
Майнерские материнки в целом подходят для рендеринга, но важно понимать что они ограничены моделями процессоров и количеством Оперативной памяти.
Операционка крайне важна и рассчитывать сейчас на стабильные решения не стоит, вероятно пройдет какое то время, прежде чем RS и остальные дотянуться до тестирования на новейших системах и залатают дыры в поддержке мульти ГПУ.
Специальные майнерские видеокарты не умеют рендерить (было куплено 3 штуки для проверки). Их драйвера сильно отличаются от тех на которых пишется CUDA рендереров и вероятность того что они будут рендерить правильно крайне мала(прецеденты были, но это ничтожно малый процент)
Нельзя покупать видеокарты с одним кулером, они улетят с вами на луну
Блоки питания от 1000 ВТ и обязательно с огромным количеством 6+2pin или 8pin PCI, иначе вам придется питать все несколькими, а это не супер надежно. (Идеальный вариант - серверный БП на 2400WT)
Старые материнские платы с 6-7 PCI слотами с большой вероятность не будут работать, потому что не рассчитаны именно на видеокарты в этих слотах и число линий не соовтествует требованиям, о чем вам с удовольствием скажет винда
8 гб достаточно для текущих задач, истратить видео память представляется крайне сложной задачей, которая ещё и решается редшифтом с помощью использования Оперативной памяти
Октан, центилеос, Фсторм и прочие не были представлены потому что их материаловедение не вписывается в наш пайплайн уж точно и предыдущие их тесты не выявили существенных преимуществ по скорости относительно RS и уж точно не стало удобнее чем Vray в плане работы с материалами и сценой.
Немного рендера с дофчиком и моушен блюром для расслабления глаз.
На текущий момент идеального решения для работы с ГПУ не найдено, оптимальной рендер нодой является система из 6 видеокарт на Winows 7, вероятно очень скоро станет возможно работа редшифта с 8 видеокартами на Win10, но для этого нужно ждать новых релизов как одного, так и другого. Vray стабильно проигрывает в производительности, стабильности да и всём остальном. Забыть его не позволяет лишь широкая распространенность в той сфере в которой мы работаем (стоки и продажа 3д моделей).
PS: 35 видеокарт майнят около 100$ в сутки пока не рендерят :)) Майнить ВЫГОДНО!
Не забываем лайкать и подписываться на мой ВК )
ну красавчик) спасибо за статью, вот полностью со всем согласен! все делал точно по той же схеме и в той же последовательности) единственное у меня только 1080ti для экономии места и электроэнергии, я б еще добавил пункт с даунвольтингом, думаю это самый важный пункт, что б снизить затраты электроэнергии и снизить нагрузку на карты и не делать из квартиры крематорий))) а так все супер) думал на какой рендер перейти, хотел подсесть на что то тяжелое типа короны, писал им, но они сказали что в ближайшее время не планируют переход на гпу, поэтому пришлось вспоминать вирей, но по вышеперечисленым причинам его в топку, а октан вообще не рассматриваю, там даже кряка нет) так что тоже перехожу на редшифт, тем более что в последней версии много всяких фишек, а видосик с гоночным болидом забил последний гвоздь в решение рендерить анимацию в вирее) кстати вопрос почему видяхи не используются на 100% до сих пор не разобрал. так что ждем теперь хорошие уроки по редшифту
Познавательно , а какой врей был использован ? Если учесть что сроки окупаемости видеокарты чуть менее года , и майнинг будет жить ещё пару лет (по прогнозам) довольно сомнительное вложение .
Какая-то странная материнская плата. А не может ли быть краш из-за нее? Материнская плата все же для майнинга, а не для рендеринга.
У меня вообще не хочет работать RT рендер. Просто катастрофически пожирает память и в итоге вылет. Не работает ни один из режимов.
V-Ray перепробовал все версии. Сейчас стоит 3.60.03.
Сцена совсем небольшая. Комп хороший.
Буду очень признателен за помощь. Очень бы хотелось гпу рендер.
Boris Kulagin
Мастер
Jketov
Пользователь сайта
Win 10, SSD, 64gb DDR4, GTX 1070 8gb, i7 6700K 4GH.
Сам V-Ray быстро, прекрасно рендерит. Как только перевожу в режим RT, то сжирает все 64 гига и один хрен вылетает. Ничего не пишет по ошибкам. Текстуры все показывает что прогружает.
Итого попробовал еще сцену сократить, что то там запыхтел непонятно как. Картинка полный отстой, шум, гамма не та. Удалось запустить только на 2018.
Бабуин
Мастер
Boris Kulagin
Мастер
Мелкая такая сценка. Еще и текстур куча. Но вот почему естся оператива - это загадка.
Jketov
Пользователь сайта
Fedotov
Знаток
У меня вообще не хочет работать RT рендер. Просто катастрофически пожирает память и в итоге вылет. Не работает ни один из режимов.
Скорее всего RT не видит видеокарту.
Как подключить VRay на GPU
1. Кнопка пуск.
2. Все программы.
3. Chaos Group.
4. V-Ray RT Adv for 3ds Max 2017 for x64.
5. Select OpenCL devices for V-Ray RT GPU.
6. В появившемся окне должны определиться все видеокарты. Нажимаем кнопку Set devices. Закрываем окно.
7. Запускаем Макс. Жмем F10.
8. Вкладка V-Ray RT => Engine type => CUDA
Бабуин
Мастер
Fedotov
Знаток
CUDA для карт nvidia. Если карта не nvidia попробуй Engine type => OpenCL поставить.
или драйвера для cuda нет
Бабуин
Мастер
Jketov
Пользователь сайта
В общем все определялось изначально.
В итоге на очень облегченной сцене. Хотя рендерят весьма большие, картинка просто ужасная. Огромное количество артефактов, фликов, непонятные черные квадраты местами. Подготовка к рендеру занимает чуть ли не минуту. Еще забавная вещь, что после использования RT сцена стала грузиться очень долго. Если раньше 10-15 секунд, то сейчас порядка минуты.
Итого V-Ray Adv все рендерит очень хорошо и довольно быстро.
Рендер фермы в принципе не интересуют. Очень уж дорого обходятся + сцена должна быть отлажена хорошо.
Интерактив тоже не интересует. Он прекрасно работает в V-Ray Adv.
Меня интересовал именно рендер на гпу , для конечной отрисовки.
Я рендерю сотнями картинок в разрешении 10000px*5000px. Короны и V-Ray Adv вешаются напрочь по времени.
Для меня хоть 4 1080 купить не проблема, если в этом есть смысл. Октан как то не зашел, пока.
Fstormrender что то так внятно и не ответил по поводу своей подписки, мол судятся и все. Че-каво я так и не понял.
Так же буду благодарен, если подскажите какой рендер-движок по вашему мнению-опыту лучше использовать для моих целей. Их очень много, и время тратить на все нет никакого желания.
GPU рендеринг в Octane, Redshift и других рендерерах, использующих ресурсы видеокарты, а не процессора, поначалу вызывает настоящий восторг. Время рендера по сравнению, например, с V-ray уменьшилось в разы, можно в реальном времени оценить результат изменений в сцене, можно быстро посмотреть как все будет выглядить на финальных рендерах и многое другое будет говорить, казалось бы, о несомненном доминировании рендера на видеокарте.
Однако не все так просто! Давайте оставим за рамками вопросы подходит ли GPU рендер под требования производства отдельных видов графики, отсутствие полноценного продакшен GPU рендера и все такое. Представим, что у вас небольшая банда из 3 визуализаторов, вы делаете преимущественно рекламные ролики и вот вы перешли на GPU рендеринг. Давайте посмотрим на 7 проблем, которые вас подстерегают:
- Высокая стоимость видеокарт, дорогостоящее скалирование мощностей
Большинство специализированных GPU решений предполагают, что добавление видеокарт дешевле покупки полного компьютера, но только при покупке специальных серверных шкафов и систем для работы большого количества видеокарт. Сами такие решения недешевы и требуют определенных навыков. Но представим, что мы пошли по пути покупки стандартных компьютеров и установки в них 2-3-4 видеокарт. Сравните стоимость в дальнейшем апгрейда процессора и апгрейда этих 2-3-4 GPU.
2. Маленькое влияние крутых видеокарт на всю систему
В отличие от апгрейда CPU, который окажет влияние на работу всех приложений, видеокарты окажут влияние только на сокращение времени рендера. Их присутствие никак не повлияет на работу ОС и любых 3d приложений для работы с графикой. За исключением, разве что, игр. Но вы же не играете на своем рабочем компьютере, правда? )
Проще говоря, когда вы тратите деньги на GPU в целях работы, это дает вам весьма узкие и специфичные преимущества.
3. Постоянный шум и тепловыделение
Охлаждение практически любой видеокарты гораздо шумнее работы охлаждения CPU. Еще важнее, что постоянная работа 2-3 видеокарт быстро создает в помещении невыносимую температуру.
4. Вопросы масштабирования
Если у вас несколько GPU машин, рано или поздно встает вопрос покупки дополнительных лицензий и возможны проблемы совместимости видеокарт различных производителей и разных моделей. По мере обновления парка столкновение поколений видеокарт неизбежно. А вы же помните что, если в одной системе стоит, например, видеокарта с 8гб памяти и 12гб, то память будет ограничена меньшим значением.
5. Капризы видеокарт и драйверов
Обычное обновление драйвера может обрушить все. Видеокарты в любой системе — основной источник зависаний и сбоев. Любая проблема с обновлением драйверов, их совместимостью, багами и прочими прелестями однозначно ведет к тому, что и в рендере будут проблемы! Нужно ли говорить, что при рендере на CPU этих проблем нет.
6. Ограниченная память
В настоящее время в GTX 1080Ti всего 12 Гб памяти, которые не увеличить вставив планку памяти как в обычных компьютерах. И она не суммируется при установке нескольких карт. Если, например, установить таких 3 карты, то под сцены будет доступно так же 12 Гб. При превышении доступного объема памяти на рендере, все просто крашится. Вариантов как на CPU с использованием файла подкачки, который хоть и замедляет рендер, но все же делает его возможным — нет.
7. Ограниченный круг ПО
Рендер на GPU поддерживает ограниченное количество графических приложений и рендеров, что накладывает свои ограничения.
В завершении, отмечу. что несмотря на недостатки GPU рендеринг имеет и безусловные достоинства, которые значительно перевешивают и существующие недостатки.
Довольно распространено мнение, что если поставить для работы с компьютерной графикой не одну видеокарту, а две то и скорость возрастет вдвое. Особенно если их объединить.
Не совсем так, на самом деле. Воткнуть видеокарт на все деньги ради сумасшедшей мощности звучит привлекательно и просто, но на деле есть ряд узких моментов и тонкостей на этом пути.
Нужны ли SLI и NVLink для GPU рендеринга?
Если мы говорим про продуктивность и эффективность, тут лучше примера, чем рендеринг не найти. Redshift, Octane, Blender Cycles и другие GPU движки готовы выдавить ваши видеокарты до капли.
К счастью, для эффективного рендеринга на нескольких видеокартах не требуется SLI или NVLink. Если ваши видеокарты не объединены воедино, сцена будет загружена каждой видеокартой и будет считать свою часть изображения.
При использовании нескольких видеокарт можно заметить при рендере несколько бегающих бакетов, которые соответствуют количеству GPU, так же как при CPU рендере количество бакетов зависит от количества потоков процессора.
Но в отдельных случаях соединение двух GPU вместе может быть полезно при использовании, например, Redshift и Octane благодаря объединению памяти. В большинстве случаев, никакого заметного прироста производительности не будет, но вот в общую память может быть загружена гораздо более сложная сцена.
Недостатки NVLink
В то же время NVLink совсем не волшебная палочка, которая поможет выжать больше производительности из суммы видеокарт для любых задач. NVLink часто полезен, но не всегда по умолчанию.
Если у вас GPU рендеринг сложных сцен с миллионами полигонов или монтаж видео с RAW футажом в 12K, симуляции сложных научных молекулярных структур — велком! Объединение 2 и более видеокарт с NVLink тут поможет (если софт это поддерживает!).
Но если вы мечтали сыграть в Киберпанк на ультра настройках в 8K, тут вас ждет огорчение. Так NVLink не будет работать или будет работать плохо.
В настоящее время далеко не все игры нормально запускаются на мульти карточных вариантах, а если и запускаются, то с ошибками и без значительного прироста. Отмечу, что и поддержка таких технологий от самих разработчиков или никакая или ее вообще нет.
Простые ответы на частые вопросы по SLI и NVLink
Можно ли при помощи моста SLI объединить карты по технологии NVLink?
Нет, это абсолютно разные технологии и коннекторы тоже разные. Нужно покупать перемычку NVLink.
Сколько карт можно объединить по SLI/NVLink?
По SLI — до 4.
По NVLink — в массовом сегменте только 2, в корпоративных решениях есть варианты до 16 и более карт.
Технология SLI сдохла?
Можно ли объединить по SLI/NVLink разные карты?
Когда SLI еще был живой, разные карты объединять было нельзя. К 1080 нужна была тоже 1080 в пару, пусть и любого производителя.
C NVLink чуть сложнее. Некоторые массовые GPU можно объединять с профессиональными картами, но совместимость будет не идеальная.
В идеале — берите 2 одинаковых карты и будет счастье.
Нужна ли какая-то особая материнская плата для NVLink?
Нет, нужно просто докупить сам мост NVLink и видеокарты должны поддерживать технологию.
Можно ли соединить AMD и Nvidia видеокарты?
Можно ли соединить RTX 3060, 3070, 3080, 3090 по NVLink?
А что такое NVLink?
Если не зарываться в подробности, ведь у нас тут не железный блог на самом деле, можно сказать, что NVLink — это старший, более производительный брат SLI. Изначально решение проектировалось для профессиональных видеокарт, но с выходом линейки RTX 2000 стало доступно и широкому кругу.
NVLink был призван устранить ключевой недостаток SLI: несмотря на прирост скорости SLI относительно PCIe линий и с учетом дальнейших улучшений технологии, SLI все равно был недостаточно быстр для полноценной, высокоэффективной работы нескольких видеокарт, потому что обмен информацией в самой видеокарте идет совершенно на других скоростях.
Когда NVLink вышел на рынок, SLI достигли скорости 2 Gb/сек, а актуальные PCIe 3.0 работали на скоростях до 0,985 Gb/сек. А что давал NVLink? Корпоративные решения на базе технологии достигали скорости 300 Gb/сек, а более доступные простым смертным варианты работали до 100 Gb/сек.
По сути, в отличие от SLI, где несколько видеокарт объединялись в один кластер весьма условно, на NVLink это объединение имело куда больше практических выгод.
И разница тут в задержке. На SLI значительное время просто терялось на задержке передачи информации от одной видеокарты к другой, что сказывалось на итоговой производительности.
При объединении по NVLink нет никаких мастеров и слейвов, все видеокарты равнозначны и напрямую могут обмениваться нужной информацией.
В сумме это дает существенно меньшую задержку и позволяет объединить видеопамять (VRAM) в единый пул для более сложных вычислений. С SLI об этом можно только мечтать.
Что такое SLI и как оно работает?
SLI (Scalable Link Interface) — это технология, которую Nvidia купила и успешно развивала долгие годы. Она позволяет объединить до 4 видеокарт в один вычислительный кластер.
Система представляет собой классический master-slave, где одна видеокарта (обычно первая) выступает главной, управляющей и координирует работу других карт, слейвов, через специальные интерфейс SLI мостики.
Задача мастера — координация, верификация результатов слейвов, чтобы процесс вычислений шел эффективно и корректно завершался. По завершении обработки мастер собирает данные с прочих видеокарт, объединяет в одно целое и выводит вам на монитор.
Возникает справедливый вопрос: зачем нужны эти перемычки между видеокартами, эти мосты SLI? Можно же просто использовать для обмена информацией PCIe слот и PCIe линии, без этих танцев с бубном?
Вообще да, но нет, если мы хотим производительности. Дело в том, что каждая PCIe линия имеет ограничения по пропускной способности и если надеяться только на них, то очень скоро они станут узкими местом при серьезной нагрузке. Это может быть настолько серьезно (особенно если софт не умеет сам хорошо параллелить вычисления на GPU), что может оказать почти так же быстрым использовать, например, 1 видеокарту, а не 3.
В общем мост SLI как раз служит, чтобы этой ситуации избежать и информация передавалась между видеокартами напрямую, избегая нагрузки PCIe линий. Это важно.
Впервые SLI технология была представлена в 2004, тогда стандарт PCIe был 1.0а с пропускной способностью 0,25 Gb в секунду. В это же время SLI работал на скорости 1 Gb/сек. Почувствуйте разницу.
Читайте также: