Какие видеокарты поддерживаются blender
mageaster
Мастер
На перспективу чего? Задачи какие?
Это значит, что для 2070 эти чипы бракованные, а выкидывать жалко, проще продать под другим именем.
Любой, какой больше нравится.
А что ему должно помешать?
На столько, сколько поддерживается материнкой или процом (меньшее значение из этих двух).
IQFun
Активный участник
> На перспективу чего? Задачи какие?
Напр., анимацию в лесу или городе, слепить почти натуральную говорящую голову.
На том форуме, ссылку на который я давал, кто-то сказал, что с видеокартой RTX Блендер на некоторых сценах быстро рушится. Так что лучше: GTX 1070?
Serge Vasin
Активный участник
2070 чуток дешевле этой 2060 супер, при этом лучше, смысла нет брать супер серию. Вот сравнение.
Пойдёт любой зен, но чем лучше карта, всё же лучше проц получше, иначе он будет узким местом. Так что как минимум я бы лично взял 3600-й, ну или 2700-й.
Если память и SSD не надо под новый стандарт PCI-Express 4, и не надо в крутые игры играть, то мать пойдёт на b450 чипсете, или выше. Я все всегда брал и беру Asus, за 20 лет показали себя хорошо.
Память на 3000+, ниже нет смысла.
Если рендерить на проце, то водянка будет лучше, а так, не столь важно, у меня стоит килограмовый радиатор с вертушкой, проц при самых сильных нагрузках больше 68 градусов не греется.
IQFun
Активный участник
Спасибо, хоть кто-то нашёлся что-то посоветовать. Я на ситилинке создал такую конфигурацию, чтобы уточнить детали у знающих людей. Память советуют брать на 3 ГГц и разогнать до 3,2, я такую и выбрал. На чипсете b450 у них в списке матери поддерживают частоту ОЗУ до 2933 Мгц, а для ЦП AMD нужно минимум 3200 МГц, чтобы он, как пишут, "раскрыл свой потенциал".
В Blender ведь можно рендерить совместно ЦП+видеокарта? Такой ЦП, который я выбрал, наверно рендерит намного медленнее RTX 2070.
Ещё остаётся такой вопрос, на их форуме на него никто не ответил:
Читал на Яндекс Маркете отзывы об AMD 3700X, т.к. хочу купить проц. блок с ним. Кто-то пишет, что попадаются холодные экземпляры и попадаются такие (чаще в боксовом варианте), которые с ходу греются почти без нагрузки и приходится снижать вольтаж питания. Но непонятно, это брак процессоров или это зависит от качества материнских плат? Если среди этих ЦП есть брак, то как выбрать ЦП из хорошей партии?
Whether it’s on a USB stick, sitting on a folder on your desktop, or fully installed, Blender runs out of the box.
- ✅ No installation needed.
- ✅ No internet connection required.
✈ Truly portable, take it with you wherever you go!
Runs anywhere.
Blender is cross-platform, it runs on every major operating system:
- Windows 8.1, 10, and 11
- macOS 10.13 Intel · 11.0 Apple Silicon
- Linux
All efforts to make Blender work on specific configurations are welcome, but we can only officially support those used by active developers.
For Windows there is an installer available if you wish to add an icon on the desktop, associate .blend file extensions, etc.
Why does a scene that renders on the CPU not render on the GPU?
There may be multiple causes, but the most common one is that there is not enough memory on your graphics card. Typically, the GPU can only use the amount of memory that is on the GPU (see Would multiple GPUs increase available memory? for more information). This is usually much smaller than the amount of system memory the CPU can access. With CUDA, OptiX, HIP and Metal devices, if the GPU memory is full Blender will automatically try to use system memory. This has a performance impact, but will usually still result in a faster render than using CPU rendering.
HIP – AMD
Support GPUs include:
AMD Radeon RX 5000 Series
AMD Radeon RX 6000 Series
AMD Radeon Pro W6000 Series
Please refer to AMD’s website for more information about AMD graphics cards and their architectures.
The Clip extension mode in the Image Texture Node is not supported.
The Nvidia OpenGL driver lost connection with the display driver
If a GPU is used for both display and rendering, Windows has a limit on the time the GPU can do render computations. If you have a particularly heavy scene, Cycles can take up too much GPU time. Reducing Tile Size in the Performance panel may alleviate the issue, but the only real solution is to use separate graphics cards for display and rendering.
Another solution can be to increase the time-out, although this will make the user interface less responsive when rendering heavy scenes. Learn More Here.
Frequently Asked Questions
Why is Blender unresponsive during rendering?
While a graphics card is rendering, it cannot redraw the user interface, which makes Blender unresponsive. We attempt to avoid this problem by giving back control over to the GPU as often as possible, but a completely smooth interaction cannot be guaranteed, especially on heavy scenes. This is a limitation of graphics cards for which no true solution exists, though we might be able to improve this somewhat in the future.
If possible, it is best to install more than one GPU, using one for display and the other(s) for rendering.
Error Messages
In case of problems, be sure to install the official graphics drivers from the GPU manufacturers website, or through the package manager on Linux.
Error: Out of memory
This usually means there is not enough memory to store the scene for use by the GPU.
One way to reduce memory usage is by using smaller resolution textures. For example, 8k, 4k, 2k, and 1k image textures take up respectively 256MB, 64MB, 16MB and 4MB of memory.
macOS
macOS 10.12 or newer is supported, and Mac hardware from the last 10 years appear to be working. Older macOS versions have bugs in the OpenGL drivers that cause problems for Eevee, and the only way to upgrade the drivers is to upgrade the operating system as a whole.
What renders faster?
This varies depending on the hardware used. Different technologies also have different compute times depending on the scene tested. For the most up to date information on the performance of different devices, browse the Blender Open Data resource.
CUDA error: Unknown error in cuCtxSynchronize()
An unknown error can have many causes, but one possibility is that it is a time-out. See the above answer for solutions.
© Copyright : This page is licensed under a CC-BY-SA 4.0 Int. License. Last updated on 05/02/2022.
The original plan for Blender 2.80 was to work on all GPUs that have OpenGL 3.3 drivers and were released in the last 10 years. However, we have found that there are many graphic cards that support OpenGL 3.3 in hardware, but have critical bugs in the OpenGL drivers.
We have found workarounds for dozens of those bugs, which has been very time-consuming. Blender now works on the large majority GPUs that our users have. Unfortunately, there are still some GPUs where Blender does not run reliably, and we won’t be able to officially support them for the 2.80 release. All these are cases where the OpenGL driver was last updated 3 years ago or more.
While Blender does not officially support such older hardware, we do not prevent Blender from running on it. External developers may contribute patches to improve hardware support if said patches are not too cumbersome.
Runs anywhere.
Blender is cross-platform, it runs on every major operating system:
- Windows 8.1, 10, and 11
- macOS 10.13 Intel · 11.0 Apple Silicon
- Linux
All efforts to make Blender work on specific configurations are welcome, but we can only officially support those used by active developers.
For Windows there is an installer available if you wish to add an icon on the desktop, associate .blend file extensions, etc.
Rendering Technologies
Blender supports different technologies to render on the GPU depending on the particular GPU manufacturer and operating system.
With all GPU rendering technologies, Open Shading Language is not supported.
Metal – Apple (macOS)
Metal is supported on Apple computers with Apple Silicon or AMD graphics cards. macOS 12.2 is required to use Metal with Apple Silicon while macOS 12.3 is required to use Metal with AMD graphics cards.
Can multiple GPUs be used for rendering?
Yes, go to Preferences ‣ System ‣ Compute Device Panel , and configure it as you desire.
CUDA Error: Kernel compilation failed
This error may happen if you have a new Nvidia graphics card that is not yet supported by the Blender version and CUDA toolkit you have installed. In this case Blender may try to dynamically build a kernel for your graphics card and fail.
In this case you can:
Check if the latest Blender version (official or experimental builds) supports your graphics card.
If you build Blender yourself, try to download and install a newer CUDA developer toolkit.
Normally users do not need to install the CUDA toolkit as Blender comes with precompiled kernels.
Hardware Requirements
Minimum
- 64-bit quad core CPU with SSE2 support
- 8 GB RAM
- Full HD display
- Mouse, trackpad or pen+tablet
- Graphics card with 2 GB RAM, OpenGL 4.3
Recommended
- 64-bit eight core CPU
- 32 GB RAM
- 2560×1440 display
- Three button mouse or pen+tablet
- Graphics card with 8 GB RAM
Supported Graphics Cards
Always make sure to install the latest drivers from the graphics card manufacturer website. These requirements are for basic Blender operation, Cycles rendering using the GPU has higher requirements.
NVIDIA
GeForce 400 and newer, Quadro Tesla GPU architecture and newer, including RTX-based cards, with NVIDIA drivers (list of all GeForce and Quadro GPUs)
AMD
GCN 1 st gen and newer. Since Blender 2.91, Terascale 2 architecture is fully deprecated, try using 2.90 (albeit not supported, it might still work) [list of all AMD GPUs]
Intel
Haswell architecture and newer. [list of all Intel GPUs]
macOS
Version 10.13 or newer for Intel processors on supported hardware. Version 11.0 for Arm-based processors (Apple Silicon).
To enable GPU rendering, go into the Preferences ‣ System ‣ Cycles Render Devices , and select either CUDA, OptiX, HIP, or Metal. Next, you must configure each scene to use GPU rendering in Properties ‣ Render ‣ Device .
Intel
Intel graphics for Haswell and newer are supported and generally working well. See the list of Intel GPUs to check which architecture your processor has. There are a few bugs planned to be fixed still, related to selection and reflections in Eevee on specific graphics cards.
On Windows, earlier GPU generations have issues with Eevee due to bugs in the driver. No significant driver updates have been released in the last 3 years for these GPUs. On Linux, the situation is better as the drivers continue to be updated, but for good performance newer GPUs are recommended.
Это будет десктопный компьютер. На нём будет Windows 10 Домашняя 64-bit.
В Blender буду делать 3D-моделирование. Рендеринг буду делать в Cycles и Eevee.
Какую видеокарту применить: GeForce или Radeon?
mageaster
Мастер
Vladislav Egorov
Мастер
Константин Шевцов 1
Пользователь сайта
mageaster, спасибо. Я принял к сведению.
Почему лучше RTX - GeForce, а не Radeon?
Константин Шевцов 1
Пользователь сайта
Vladislav, спасибо. Я принял к сведению.
Почему лучше 3060 - GeForce, а не Radeon?
Смотритель
Потому что только у Нвидия есть технология CUDA на базе которой очень много чего сейчас основано в графике. Иначе говоря при наличии Гефорсе вам будет доступны все возможности, а при наличии Радеона очень ограничено, что то нужное может вообще не заработать.
mageaster
Мастер
Потому что Optix в среднем в 2 раза быстрее, чем CUDA, а CUDA в среднем более допилена, чем OpenCL. Это всё, естественно, касается Cycles, для EEVEE принципиальной разницы нет. Кроме того, всё что требует OpenCL, в большинстве случаев заработает на GeForce, а то, что требует RTX (или хотя бы CUDA) -- на Radeon не заработает хоть убейся.
mageaster
Мастер
Константин Шевцов 1
Пользователь сайта
Спасибо всем за Ваши ответы. Принял к сведению.
Рассматриваю ещё вариант. Установить в компьютер две видеокарты. Одну видеокарту буду применять для 3D-моделирования в Blender, рендеринга в Cycles, рендеринга в Eevee. Другую видеокарту буду применять для перерисовки интерфейса Blender. Как вам такой вариант? Это возможно? Это работает? Это полезно для производительности? Это стабильно, надёжно?
Также, прошу, поясните следующие моменты.
Правильно ли говорить, что у Cycles есть интерфейс? Или у него нет интерфейса?
Правильно ли говорить, что у Eevee есть интерфейс? Или у него нет интерфейса?
Если у Cycles есть интерфейс, то как вам вариант: одну видеокарту буду применять для рендеринга в Cycles, другую видеокарту буду применять для перерисовки интерфейса Cycles? Это возможно? Это работает? Это полезно для производительности? Это стабильно, надёжно?
И, если у Eevee есть интерфейс, то как вам вариант: одну видеокарту буду применять для рендеринга в Eevee, другую видеокарту буду применять для перерисовки интерфейса Eevee? Это возможно? Это работает? Это полезно для производительности? Это стабильно, надёжно?
mageaster
Мастер
Это идеальный вариант, сам к такому стремлюсь.
Да, при условии, что обе видеокарты используют одну и ту же версию драйверов. Это может быть, допустим, какая-нибудь 1660 для вывода на экран и 2080Ti для рендера.
Нет, это всего лишь рендер-движки, которые используют интерфейс используемой программы (Cycles есть и для C4D, например, да и в Блендере он, на самом деле, плагин).
Если у Cycles есть интерфейс, то как вам вариант: одну видеокарту буду применять для рендеринга в Cycles, другую видеокарту буду применять для перерисовки интерфейса Cycles? Это возможно? Это работает? Это полезно для производительности? Это стабильно, надёжно?
Это бессмысленно. Вторая видеокарта будет работать исключительно на вывод интерфейса всей системы, что в целом повысит её отзывчивость.
Смотритель
Бабуин
Мастер
Смотритель
Так они быстро рендерят, как раз чай попить или покурить. Нельзя же все время у компа сидеть. А RTX так вообще наверное в реал тайме все может делать.
Впрочем может смысл в этом и есть, я вот когда топаз гигапиксель использую для большого количества картинок (а он как раз видеокартой их обрабатывает), то это занимает иногда минут десять, и за это время на компе даже в инете почти ничего посмотреть невозможно.
mageaster
Мастер
Хоть 2080, хоть титан, хоть квадра, пока видюха занята расчётами, ресурсов на обработку интерфейса уже не остаётся, поэтому он лагает.
Константин Шевцов 1
Пользователь сайта
Да, при условии, что обе видеокарты используют одну и ту же версию драйверов. Это может быть, допустим, какая-нибудь 1660 для вывода на экран и 2080Ti для рендера.
Принял к сведению.
Нет, это всего лишь рендер-движки, которые используют интерфейс используемой программы (Cycles есть и для C4D, например, да и в Блендере он, на самом деле, плагин).
Это бессмысленно. Вторая видеокарта будет работать исключительно на вывод интерфейса всей системы, что в целом повысит её отзывчивость.
Я понял так: поскольку ни у Cycles, ни у Eevee нет интерфейса, то ни в отношении Cycles, ни в отношении Eevee не может быть рассмотрен вариант о пользе двух видеокарт, перерисовки интерфейса. Я правильно понял?
Я сделал вывод: рассматривая Blender, Cycles, Eevee, можно говорить о пользе двух видеокарт для Blender, как для всей системы, но нельзя говорить о пользе двух видеокарт ни для Cycles, ни для Eevee непосредственно, потому что у них нет своих интерфейсов. Можно говорить о следующей пользе для Blender: пока идёт рендеринг, можно работать дальше. Одна видеокарта будет делать рендеринг, другая видеокарта, тем временем, будет отрисовывать интерфейс Blender. Правильно?
Если это период работы, когда я не делаю рендеринг, а делаю 3D-моделирование в Blender, то не принципиально, одна у меня видеокарта или две. Принципиально становится только в период рендеринга. Не становится принципиально если у меня два компьютера - один компьютер только для рендеринга в Cycles и Eevee, другой компьютер только для 3D-моделирование в Blender. Становится принципиально, если я делаю и рендеринг, и 3D-моделирование в Blender одновременно на одном и том же компьютере. Правильно?
ЛМА, Бабуин, спасибо. Принял к сведению.
Рассмотрю дальше вариант двух видеокарт. Допустим, одна видеокарта - это видеокарта. А вторая видеокарта - это процессор с интегрированной видеокартой. Как Вам такой вариант?
OptiX – NVIDIA
OptiX is supported on Windows and Linux and requires a Nvidia graphics cards with compute capability 5.0 and higher and a driver version of at least 470. To make sure your GPU is supported, see the list of Nvidia graphics cards OptiX works best on RTX graphics cards with hardware ray tracing support (e.g. Turing and above).
CUDA – NVIDIA
Unsupported GNU version
On Linux, depending on your GCC version you might get this error. See the Nvidia CUDA Installation Guide for Linux for a list of supported GCC versions. There are two possible solutions to this error:
Use an alternate compiler
If you have an older GCC installed that is compatible with the installed CUDA toolkit version, then you can use it instead of the default compiler. This is done by setting the CYCLES_CUDA_EXTRA_CFLAGS environment variable when starting Blender.
Launch Blender from the command line as follows:
(Substitute the name or path of the compatible GCC compiler).
Remove compatibility checks
If the above is unsuccessful, delete the following line in /usr/local/cuda/include/host_config.h :
This will allow Cycles to successfully compile the CUDA rendering kernel the first time it attempts to use your GPU for rendering. Once the kernel is built successfully, you can launch Blender as you normally would and the CUDA kernel will still be used for rendering.
Would multiple GPUs increase available memory?
Typically, no, each GPU can only access its own memory, however, some GPUs can share their memory. This is can be enabled with Distributed Memory Across Devices .
NVIDIA
GeForce 200 series, Quadro with Tesla architecture and newer are supported on both Windows and Linux. This covers the NVIDIA GPUs released in the last 10 years.
GCN 1 st gen and newer architectures are supported on both Windows and Linux. Terascale architecture cards are not working reliably, mainly on Windows. See the list of AMD GPUs to check which architecture your card has.
Unfortunately, this does mean some GPUs released in the last 10 years are not officially supported. No Terascale OpenGL drivers have been released for Windows in the last 3 years. On Linux, drivers do continue to be updated and Blender tends to work better. But for good performance GCN is still required.
Читайте также: