Настройка quadro 4000 sli
Прочитав однажды пост [1] про успешный проброс видеокарты в виртуальную машину я подумал, что неплохо бы мне завести себе такую рабочую станцию.
При разработке кроссплатформенного программного обеспечения часто возникают проблемы с его тестированием. Всю свою работу я выполняю исключительно под Linux'ом, при этом конечный пользователь работает исключительно в операционной системе (ОС) Windows. Можно было бы использовать VirtualBox, например, но когда нужно проверить работу модулей использующих OpenGL или CUDA возникают серьёзные проблемы. Dual Boot как вариант даже не рассматриваю. Получается, что, так или иначе, мне приходиться использовать второй компьютер, который просто не куда поставить. При этом большую часть времени он простаивает без дела. Получается крайне не эффективная, с точки зрения использования ресурсов, схема.
- Операционная система Windows 7 (далее Windows);
- Набор программного обеспечения использующего DirectX, OpenGL и CUDA;
- Высокоскоростное, локальное, отказоустойчивое хранилище размером порядка 10 Тб;
- Механизм резервного копирования и восстановления всей системы;
- Периодическое автоматическое резервное копирование пользовательских данных.
Из-за необходимости использования технологии CUDA мне необходимо было пробросить именно видеокарту NVIDIA. Существует технология NVIDIA Multi-OS [6], которая позволяет пробрасывать видеокарты в ВМ. Поддерживают эту технологию только ускорители из серии Quadro [7].
Ещё одним недостатком большинства видеокарт является их ширина в два слота минимум. Зачастую это неприемлемо и именно поэтому была выбрана однослотовая видеокарта NVIDIA Quadro 4000. Она является самым мощном представителем семейства Quadro среди однослотовых вариантов.
- Материнская плата ASUS P9X79 WS;
- Процессор Core i7-3820;
- Оперативная память 32 ГиБ (4-е планки по 8 ГиБ);
- Видеокарта для dom0 (не важно какая);
- Видеокарта для domU NVIDIA Quadro 4000.
В ходе экспериментов я пробовал KVM. Он отлично справлялся с любыми устройствами кроме видеокарты. К сожалению с , входящим в состав распространённых дистрибутивов, у меня тоже ни чего не вышло. В среде виртуальной машины видеокарта упорно отказывалась стартовать.
К счастью не за долго до того как я начал заниматься данной проблемой в свет вышел . Доступен он, естественно, только в виде исходных кодов.
Чтобы не было проблем с отключением необходимых для пробрасывания устройств от dom0 необходимо чтобы драйвер был включён в состав ядра. В диструбутивах Debian он поставляется в виде модуля.
Таким образом, необходимо было собрать гипервизор и ядро.
Установка Windows
Не буду подробно останавливаться на вопросе установки ОС Windows в среду ВМ. Скажу лишь, что установку необходимо производить удалённо с использованием VNC. NVIDIA Quadro начинает работать только после установки драйверов. Стартует она только при окончательной загрузке ОС. Так же были успешно установлены паравиртуальные драйвера [10].
Среди сетевых устройств имеется VirtualBox Host-Only Ethernet Adapter. Дело в том, что я установил VirtualBox в среде ВМ (внутри domU). Внутрь была установлена ОС Windows XP. Даже при двойной вложенности внутрь ВМ ОС Windows XP работала с приемлемым быстродействием.
Какие видеокарты можно объединить в SLI
Подключение двух видеокарт SLI -мостиком возможно, только если для этого мостика предусмотрен интерфейс на плате. Программными средствами объединить их тоже можно попытаться, но без «плясок с бубном» в таком случае не обойтись. Да и не имеет смысла строить тандем из двух GT610 или GT720. Одна карточка, быстродействие которой окажется выше, чем у подобной связки, в 2 или 3 раза, обойдется дешевле, чем комплект из пары офисных карт и совместимой материнской платы. То есть, отсутствие на младших представителях графических ускорителей SLI-интерфейса вызвано вовсе не жадностью производителя. Мостики никто не ставит, потому что это сделает карту дороже, но смысла от них никакого не будет. Таким образом, подключение двух видеокарт SL I возможно для моделей среднего и топового класса. К таковым относятся ГП, вторая цифра названия которых – 5 и выше (GTX5 5 0Ti, GTX9 6 0, GTX6 7 0, GTX7 8 0 и т.д.).
У GeForce GT 720 нет мостика для SLI
Перед тем , как подключить SLI две видеокарты , стоит убедиться в том, что они построены на одной версии графического процессора. К примеру, GeForce GTX650 и GTX650Ti, несмотря на схожесть названий, функционируют на базе совершенно разных ГП и потому в тандеме работать не смогут.
Как объединить видеокарты в SLI: требования
Как и для CrossFire, недостаточно купить две видеокарты Nvidia, чтобы сконфигурировать их в SLI. Существует ряд требований к компьютеру, которые следует соблюдать для обеспечения нормального функционирования связки.
- Совместимые видеокарты . Как и для CrossFire, платы не обязательно должны быть идентичными, но построенными на одном процессоре. То есть, можно объединить видеокарты GeForce GTX960 от Asus и Gigabyte, но нельзя построить SLI из GTX750Ti и GTX960 от Palit. Рекомендуется использовать GPU с идентичными объемами памяти. Конфигурация из карт на 1 и 2 Гб если и заработает – использоваться будет меньший объем, а при различиях в скорости памяти (например, 2 Гб DDR3 и 1 Гб GDDR5) существует риск возникновения программных ошибок, приводящих к некорректному формированию изображения. Для обеспечения функционирования SLI требуются карты, оснащенные интерфейсом SLI и соединенные с помощью мостика. Возможно и объединение их программным путем, но в таком случае быстродействие системы будет ниже.
- Подходящая системная плата . В плане поддержки чипсетами ситуация со SLI обстоит лучше, чем с CrossFire. Advanced Micro Devices решили обойтись без «палок в колесах» геймерам, использующим платы на наборах логики конкурентов, поэтому на чипсетах AMD 900-й серии присутствует поддержка обеих технологий объединения видеокарт. Чипы Intel тоже совместимы со SLI, что немаловажно. Само собой, в Nvidia не могли обойти стороной «родные» наборы микросхем серии NForce, топовые версии которых делают изначально SLI-совместимыми. Конечно, наличия подходящего чипсета недостаточно: на самой плате должно быть соответствующее количество гнезд PCI-Express. Рекомендуется использовать продукты, созданные для геймеров, где к каждому слоту подведено 16 или 8 линий PCI-E. В случае с бюджетными системными платами следует быть особо внимательным: подавляющее большинство геймеров, покупающих такие гаджеты, функций SLI никогда не использует, а «материнки» с двумя слотами PCI-E приобретаются ими «на всякий случай». Производители знают это и потому часто делают второй разъем неполноценным: подводят к нему 4, 2 или даже 1 линию, вместо 16 или 8. SLI на таких платах если и будет функционировать (не факт: нужно смотреть на коробке платы логотип SLI), то возможности видеокарт не будут раскрыты до конца.
Несмотря на наличие трех полноразмерных слотов X16, все 16 линий подведены только к первому. Слот 2 оснащен восемью линиями, слот 3 — только четырьмя
Таким логотипом маркируются SLI-совместимые комплектующие
Результаты тестирования
Сразу оговорюсь, что Windows на голое железо устанавливать даже не пытался, поэтому объективно мне сравнивать не с чем. Вся оценка свелась к просмотру Windows Experience Index (WEI) и установке 3DMark 2011. То есть, если быть честным, то тестирования быстродействия как такового не проводил.
WEI определяется результатом теста с наихудшим результатом. В моём случае узким местом был «жёсткий диск». Дело в том, что все эксперименты я проводил с использованием одно единственного старенького винчестера. В остальном же результаты весьма не плохие.
Видеокарту NVIDIA Quadro 4000 нельзя назвать игровой, но Crysis работал шустро.
Сборка гипервизора и ядра
Чтобы не засорять боевую систему, сборку я выполнял в специально установленной под VirtualBox'ом чистой ОС.
Чтобы собрать Xen необходимо выполнить ряд незамысловатых команд [8].
На выходе получил пакет xen-upstream-4.2.0.deb.
Сборка ядра производилась из-за необходимости включения драйвера в состав ядра. Процесс сборки хорошо описан в официальной документации по Debian [9].
На выходе получил linux-image-3.2.32_1.0.0_amd64.deb.
Установка ядра и гипервизора
Полученные пакеты я установил на целевую систему. При устанавке Xen в директории /boot создаются ненужные символьные ссылки, которые необходимо удалить. Поскольку в собранном пакете не прописаны зависимости, пакеты необходимые для работы Xen требуется устанавливать в ручную.
Делаем Xen загружаемым по умолчанию.
Регистрируем службы Xen в системе.
Чтобы скрыть необходимые для пробрасывания устройства от dom0 драйверу необходимо подать их список. Чтобы отключить Memory Ballooning необходимо заранее указать объём памяти требуемый для dom0. Для этого в необходимо добавить 2 строчки.
Помимо видеокарты было проброшено 4 USB-контроллера, сетевая и звуковая карты и ещё ряд периферии.
После этого необходимо обновить конфигурационный файл загрузчика GRUB.
Поскольку материнская плата ASUS P9X79 WS имеет два сетевых интерфейса было решено не делать ни каких сетевых мостов. dom0 и domU будут иметь независимые сетевые подключения.
Следующая последовательность команд устанавливает минимальный объём памяти для dom0 (тем самым окончательно отключается Memory Ballooning) и отключает ненужные сетевые скрипты. Так же я сделал VNC доступным по любому IP-адресу.
Замечания по поводу Xen
Начиная с версии в Xen пришёл инструментарий xl. Ему не требуется xend и в перспективе он должен заменить xm.
При работе в ручную xl никаких нареканий не вызвал. Однако скрипт xendomains явно не рассчитан на работу с ним. При запуске домены domU запускались без проблем. Однако при вызове не происходило, ровным счётом, ничего. Работа domU автоматически не завершалась в следствии чего вся система зависала. В ходе небольшого расследования выяснилось, что часть функций внутри xendomains просто не адаптированы для работы с xl. С этими проблемами, в принципе, я готов был справится.
Самым страшным было то, что при запуске domU xl выдавал ошибку о том, что не может сбросить PCI устройство, а именно видеокарту, через sysfs. Для видеокарты файл reset в sysfs просто отсутствует. Я не уверен полностью, но мне кажется, что именно из-за этого после перезагрузки domU видекарта часто отказывалась стартовать. Помогала только перезагрузка всей системы.
В xm сброс PCI устройств, по всей видимости, реализован иначе. По крайней мере, при работе с ним проблем с видеокартой не было ни разу. Именно поэтому я остановился пока на xm.
Заключение
На осуществление всего описанного мне понадобилось 5 дней. В целом система работала очень стабильно. Никаких BSOD и зависаний не наблюдалось. Надеюсь, что в ближайшем будущем все без исключения видеокарты будут пригодны для пробрасывания в ВМ, поскольку NVIDIA Quadro нельзя назвать бюджетным вариантом.
Есть ли практическая польза от SLI?
Перед тем, как объединить видеокарты в SLI, желательно ознакомиться с опытом использования таких конфигураций другими геймерами и изучить спецификации своих карт, а также характеристики более производительных решений в линейке. Нередко ни в плане экономии, ни по производительности, выигрыша двухкарточная конфигурация не дает. К примеру, две GTX950 в SLI демонстрируют результаты, сравнимые с одной GTX970. Разница в цене (около 200 и 400 долларов, соответственно) самих карт оправдана, но если учесть дополнительные затраты на мощный БП, двухслотовую материнскую плату, качественный и хорошо вентилируемый корпус – выглядит она сомнительно.
Совсем иная ситуация, если подключение двух видеокарт SLI – составляющая часть процедуры апгрейда имеющегося ПК, купленного пару лет назад. Карточки уровня GTX650Ti или GTX750 все еще можно встретить в продаже по разумной цене (разница с новыми моделями примерно эквивалентна различиям по быстродействию), а технический прогресс за 3 года не преподнес ничего революционного для видеокарт (разве что память HBM, представленную AMD, но Nvidia это пока не касается). Поэтому добавление еще одного графического процессора – вполне рациональный шаг для таких игроков.
Подключение двух видеокарт SLI в Windows
Для того, чтобы связка из двух ГП могла нормально функционировать – нужно установить на ПК Windows версии Vista или новее (7, 8, 8.1 или 10). Рекомендуется также скачать с сайта Nvidia самую свежую версию драйвера для видеокарты. После этого можно переходить к настройке.
- Нужно кликнуть по рабочему столу правой клавишей мыши и в появившемся окне выбрать пункт «Панель управления Nvidia».
- В подменю «Настройки 3D» следует выбрать пункт «Настроить SLI, PhysX».
- В открывшейся вкладке необходимо установить галочку «Максимальная производительность 3D».
Включение SLI в Windows
После применения установок связка готова к работе. Возможно, для корректной настройки работы SLI в некоторых играх придется задать им особые параметры в подменю «Программные настройки». Но, как правило, большинство современного ПО в этом не нуждается.
Большой поклонник качественной китайской техники, любитель четких экранов. Сторонник здоровой конкуренции между производителями. Чутко следит за новостями в мире смартфонов, процессоров, видеокарт и другого железа.
VBDUnit
Активный участник
Kelebringel
Пользователь сайта
Они с квадрой совсестно смогут работать? Какие есть варианты распределения при рендинге?
Изначально, квадра бралась для солидворкса, но появласть необходимость в анимации.
Думал на гонорар проапгрейдиться, а то, когда комп наглухо занят обработкой- даже корел тормозит.
Есть ли на форуме или в сети статьи о том, как лучше сконфигурировать систему?
Знаток
NVIDIA Quadro K4000 (GK106). Аналог по скорости GeForce GTX 660
Частота GPU 800 МГц
Кол-во шейдерных процессоров 768
Видеопамять 3 Гб
Тип видеопамяти GDDR5
Разрядность шины видеопамяти 192 бит
Частота видеопамяти
1396 МГц (5.583 ГГц QDR
Знаток
VBDUnit
Активный участник
Kelebringel
Пользователь сайта
Вот про мульти-гпу и хотел узнать.
Если упрощенно говорить- поставил две видюхи и скорость увеличилась в два раза, так?
Или деньги на ветер и лучше титана взять?
Уже столько форумов перелопатил, так и не пришел к определенному решению.
3DKing
Знаток
да тут буквально пару дней назад выкладывали тесты на iRay на двух титанах и на одном и с процем вместе. смотрите
Опять же. Вы не указываете что за задачи Вы планируете возложить на рендер.
VBDUnit
Активный участник
Следует различать CUDA-рендеринг на GPU и объединение видеокарт во вьюпорте. Это абсолютно разные вещи. Во вьюпорте видеокарты работают стандартно, т.е. примерно по тем же алгоритмам, что и в играх. При рендеринге все по другому - они работают как CUDA-вычислители. С GeForce 900-серии все может и поменяться, ибо там запилили аппаратную трассифировку GI, но это еще очень не скоро.
В случае с viewport видеокарты GeForce, согласно заявленному производителем, не объединяются - работает только одна из них. В этом различие SLI (GeForce) и Multi-GPU (Quadro). SLI на GeForce работает только в полноэкранном режиме, а Multi-GPU работает везде. Кроме того, SLI позволяет объединить не более 4 GPU. Смысл тут в том, что несколько видеокарт используются программой/игрой как будто это одна видеокарта. Поэтому для нормального объединения видеокарт в viewport нужны Quadro.
Однако, есть чит, позволяющий объединять GeForce в SLI для 3ds max - это Nvidia surround. Но для этого нужно три одинаковых монитора. Подключив их к двум, трем или четырем видеокартам, вы объединяете экраны в единый длинный виртуальный монитор. Технология предназначена для игр, однако, в такой конфигурации 3ds max начинает использовать обе видеокарты:
В случае с CUDA-рендерингом все работает на всем. Здесь будут распараллеливаться и GeForce, и Quadro. Прирост будет не 100%, понятное дело, но будет, и ощутимый.
Пол года назад я искал себе видеокарту, на которой я смог бы заниматься 3d моделированием, и рендерингом на GPU. В связи с появлением на рынке большого числе рендеров на CUDA мне не терпелось приобрести видеокарту с поддержкой CUDA, а именно Nvidia.
Как некоторые уже знают, Nvidia выставляет на продажу видеокарты нескольких моделей Geforce, Quadro, Tesla, ION, Tegra. В этом коротком сравнении упустим ION и Tegra, т.к. предназначены для мобильных устройств и слабые по производительности.
Нам нужна мощь!
Nvidia power.
ЧТО ГОВОРИТ ПРОИЗВОДИТЕЛЬ
Geforce — видеокарты, ориентированные на потребительский рынок и на геймеров, в частности.
Если вам интересны игры — Geforce лучший вариант для этого.
Видеокарты лучше всего показывают себя в играх, имеют высокие частоты, не дороги, наиболее прожорливы при нагрузке.
В качестве общих вычислительных задач (Cuda, OpenCL) жефорсы упоминаются достаточно редко.
Имеет PhysX, именуемый крутейшим аппаратным решением по ускорению физики.
Досуг обладателя Geforce (Battlefield 3).
Quadro — видеокарты для пользователей профессиональных приложений 2D и 3D.
Если вы занимаетесь с пакетами 3д моделирования, CAD, сложной векторной графикой — то Вам подойдет Квадра.
Сложные модели на экране рендерятся быстрее, меньше «рывков».
Квадры, сравнимые по производительности с Жефорсами в играх будут в несколько раз дороже.
На картинках сайта nvidia можно увидеть уже больше Куды, чем на жефорсах.
То бишь, видеокарты профессиональные, даже вычислениям общего назначения быть!
Работа обладателя Quadro (Autodesk Alias Studio).
Tesla — вычислительные системы для научных и технических вычислений общего назначения.
Тут во всю рекламируется CUDA, как крутейший инструмент вычислений общего назначения. Всюду плакаты с аэродинамическими вычислениями, воксельным сканнированием человеческого тела, графические модели нагрузок, и нереально быстрый рендеринг на iRay.
На Tesla отсутствуют видеовыходы, так же как и нету аппаратной растеризации: не работает ни OpenGL, ни DirectX.
Работа обладателя Quadro + Tesla (Quadro — 3d графика, Tesla — молекулярная динамика).
***
НЕБОЛЬШОЕ ИССЛЕДОВАНИЕ
Когда начал разбираться в их различии, был удивлен тем фактом, что видеокарты GeForce, Quadro, Tesla используют одинаковые графические чипы.
Рассмотрим видеокарты с одинаковым, уже не самым новым, чипом GF100 имеет (512 CUDA ядер):
Одночиповые:
GeForce: GTX465, GTX470, GTX480
Quadro: 4000, 5000, 6000
Tesla: C2050, C2070, M2050, M2090
Рассмотрим по одному представителю с каждого семейства поподробнее.
GeForce GTX480
Некогда топовая игровая видеокарта.
Стоимость: на момент выпуска около 500$ (сейчас бу и за 300 видел), на данный момент не выпускается (на смену пришли GTX580 512 ядер, и GTX680 1536 ядер)
Количество ядер CUDA — 480.
Объем памяти 1.5 Gb.
Производительность float:
Одинарная точность: 1344,9 Гфлопс.
Двойная точность: 168,1 Гфлопс.
(Существует более урезанная версия GTX470, сейчас можно найти по цене меньше 250$, 448 ядер CUDA, 1.25 Gb)
Quadro 5000
Одна из лучших видеокарт для профессиональных приложений.
Стоимость: по данными Amazon около 1700$. Выпускается.
Количество ядер CUDA — 352.
Объем памяти 2.5 Gb.
Производительность float:
Одинарная точность: 718.08 Гфлопс.
Двойная точность: 359.04 Гфлопс.
(Стоит обратить внимание на Quadro 6000, 448 ядер, 515 Гфлопс двойной точности, 4000$)
Tesla C2075
Стоимость: по данными Amazon около 2200$. Тоже выпускается.
Количество ядер CUDA — 352.
Объем памяти 6 Gb.
Производительность float:
Одинарная точность: 1030 Гфлопс.
Двойная точность: 515 Гфлопс.
Что мы видим?
Заметим, что по float производительности выигрывает GeForce GTX480. Причиной тому самое большое количество рабочих ядер и самые высокие частоты среди аналогов. Это нужно для преобразования координат объектов в играх, расчета теней, расчета пиксельных и вершинных шейдеров. В конечном итоге — чтобы игра «летала».
Но, чтобы для научных исследований, моделирования динамики жидкостей и газов покупали Теслы и Квадры — в двойной точности производительность сильно урезана, и уступает аналогам.
Соотношение производительности:
GeForce: double/float — 1/8
Quadro и Tesla: double/float — 1/2
Кроме того, самым малым объемом памяти обладает тот же GTX480. Для игр достаточно, но если хотите провести расчет аэродинамики — покупайте что-то посерьезнее.
***
ЧЕГО НУЖНО?
(Людям, занимающимся 3d графикой)
1. Поменьше тормозов во время редактирования 3d модели.
2. Некоторых интересует возможность быстрого рендеринга на GPU.
3D производительность GeForce vs Quadro
Из информации изложенной выше может показаться, что профессиональными приложениями на GeForce не пользуются из-за того, что имеет малый объем памяти, но это не так.
Ролик покажет Вам, почему «плохая Квадра» лучше «хорошего Жефорса» в профессиональных приложениях.
Quadro 600: 1Gb, 96 ядер CUDA, 150у.е.
GTX560Ti: 1Gb, 384 ядра CUDA, 250у.е. (Цены взяты из Amazon)
Выходит, Nvidia тщательно следит, чтобы 3d производительность в профессиональных приложениях Geforce уступали Quadro при соизмеримых ценах.
Как могут быть реализованны тормоза во вьюпорте?
Дело в том, что количество полигонов в играх существенно меньше, чем у профессионалов в профессиональных приложениях. В играх редко доходит до одного млн полигонов, а в профессиональных — десятки миллионов.
Тут можно сделать так: урезать производительность при преобразовании координат вершин. Если вершин больше определенного количества — то поставить задержку перед отрисовкой последующих вершин.
Либо установить задержку при отрисовке треугольников. Если больше определенного количества — то поставить задержку перед отрисовкой каждого последующего треугольника.
Маленькое лирическое отступление, или Nitrous в 3ds Max.
Меня ввел в заблуждение Nitrous движок в 3ds Max, который стоит рядом с OpenGL и DirectX. Это как? В Autodesk есть что-то, что вызывает Нитрос, аппаратная поддержка которого, оказывается, есть на каждой уважающей себя видеокарте, но знает о ней только 3Д Макс?
Ну, можно составить небольшую логическую цепочку. Autodesk является богатой корпорацией, и в хороших партнерских отношениях с производителями ATI и Nvidia. Повышать нужно продажи своего детища же! А как бы заинтересовать потребителей? Производительностью же!
Итак, GeForce GTX580 (да, купил я именно её), 7.3 млн треугольников, 2560 Torus Knot-ов, без теней и без Adaptive degradation.
Nitrous — 42 fps; Direct3d — 13 fps; OpenGL — 2 fps.
OpenGL — тормозит. DirectX — намного лучше. А Nitrous — круче всех, оказывается! Что же нитрос тогда?
Два варианта:
1. Это OpenGL/DX в котором убраны дополнительные тормоза во вьюпорте, созданные умышленно в OpenGL/DX режимах.
2. Это OpenGL/DX, который умеет обращаться к аппаратным функциям игровых видеокарт, и проявлять в них квадровые способности!
И я склонен именно к 2 варианту, т.к. в Blender и в Rhino3D это же самое дико тормозит (2fps).
Выходит, пользователям 3ds Max и других продуктов Autodesk вовсе не так принципиально переходить на Квадру? К сожалению, у меня нету Квадры, чтобы проверить производительность Нитроса по сравнению с OpenGL.
Если же у Вас GeForce или Radeon, нет желания раскошелиться за Квадру, вы Не пользуетесь продуктами от Autodesk, и у Вас очень сложные модели, то:
1. Сложные объекты можно скрыть. Объекты можно показывать во вьюпорте с меньшей плотностью сетки.
2. Вместо объектов можно показывать «контейнеры», их содержащие.
То есть следить за количеством полигонов в вьюпорте, если у вас действительно «тяжелые» модели.
Зато в игры нормально поиграете.
GPU рендеринг
Поскольку коммерческие производители не рассказывают о том, какие типы данных (float или double) они используют — приходится только догадываться.
iRay везде показывают с Quadro и Tesla, может создаться впечатление, что iRay вообще не работает с GeForce.
Картинка с оф. сайта nvidia.
Но нет, работает, и еще как. Казалось бы, что может быть лучше для не-графических вычислений, чем видеокарта Tesla, специально заточенная под не-графические вычисления?
(Взято с поста: «V-Ray и Iray. Сравнение и обзор»)
GeForce GTX580 является самой быстрой одночиповой видеокартой в iRay рендеринге на GPU. И значительно дешевле «серьезных» аналогов такой же производительности. А если вам не хватает 1.5Гб, существуют GTX580 с 3Гб памяти.
При использовании V-RayRT, Octane, Cycles, Arion также лучше всех себя показывают видеокарты GTX570 и 580. Выходит, все эти рендеры не используют расчет двойной точности для рендеринга?
В любом случае, если вы хотите рендерить на GPU — на GeForce вы сможете хорошо сэкономить.
GTX680
Но корпорация заметила, что для вычислений все чаще начали брать GTX580, производительность double в GTX680 уступает float не в 8 раз, а в 24, что не могло не отразиться на некоторых тестах.
Известно, что в Octane Render производительность возросла на 64%.
ATI Radeon vs FirePro
Аналогично Nvidia, корпорация AMD тоже разделила модели видеокарт. Radeon (аналог GeForce), FirePro (аналог Quadro), FireStream (аналог Tesla). Производительность вычислений с плавающей точкой двойной точности уступает одинарной в 4 раза, во всех моделях ATI. Интересно, что производительность топовых игровых видеокарт ATI (Radeon HD 7970, float — 3.79 Тфлопс, double — 947 Гфлопс) превосходит в двойной точности даже одночиповые Tesla. Надо заметить, что производительность в флопсах, не всегда является показателем производительности железа в конкретных случаях.
Причина, по которой ATI сильно уступает Nvidia на рынке GPGPU мне пока не ясна. Может, игрового сегмента вполне хватает.
Выбор?
Я выбрал GTX580 3Gb. Видеокарта дает возможность насладиться новыми играми и производительностью GPU рендеров. А тормоза во вьюпорте пакетов 3d моделирования для меня не сильно критичны.
Автор статьи с уважением относится к этому производителю, и сам является счастливым обладателем карточки Nvidia.
Подобные маркетинговые ходы являются неотъемлемой частью рыночной экономики, к ним прибегают все производители без исключения.
Но все же, не будем же вестись на маркетинговые уловки корпораций, а вдумчиво покупать то, что действительно полезно для нас!
Установка Debian
При установке Debian я не делал ничего необычного. Устанавливал только базовую систему. Графическое окружение устанавливать не стоит, поскольку вместе с ним ставится множество программного обеспечения часть которого будет конфликтовать с собранным Xen.
По окончании базовой установки произвел установку минимального набора необходимого программного обеспечения.
Немного истории
Началом эры SLI можно считать 1998 год. Тогда компания 3dfx впервые сумела реализовать возможность объединения нескольких видеокарт для решения одной задачи. Однако развитие интерфейса AGP затормозило разработки в этом направлении, так как все материнские платы того времени оснащались только одним слотом для видеоплаты.
SLI от 3DFX — «дедушка» современной технологии
После того, как в 2001 году 3dfx были куплены компанией Nvidia, все разработки в этом направлении ожидали своего часа, который наступил только в 2004 году. Именно тогда, в 6000-й серии GeForce (первые видеокарты, разработанные специально под новейший на то время интерфейс PCI-Express) имеющиеся разработки были усовершенствованы и внедрены в продукты массового потребления.
SLI из двух GeForce 6600GT
Сперва объединить можно было две видеокарты GeForce 6600 или 6800, с выходом 7000-й серии (в которой была представлена первая полноценная двухпроцессорная плата от Nvidia, 7900GX2) появилась возможность построения четырехпроцессорной конфигурации (из 2 карт), а позже стало возможным и сочетание 3 или 4 раздельных ГП.
SLI: подключение видеокарт
Если компьютер соответствует требованиям для создания SLI-конфигурации, подходящая вторая видеокарта куплена – можно переходить к сборке. После выключения ПК следует снять крышку системного блока, установить вторую плату в соответствующий слот, подключить к ней дополнительный кабель питания (если таковой требуется) и соединить две карты мостиком, идущим в комплекте. Аппаратное подключение двух видеокарт в SLI на этом завершено и можно переходить к программной настройке.
Кабели питания, подключенные к связке SLI
Сейчас на странице 0 пользователей
Нет пользователей, просматривающих эту страницу.
Если совсем никак, то можно выгрузить точки в dxf - это текстовый файл, из которого можно вытащить координаты точек. Я когда-то так делал.
Это вряд ли. Наши самолеты, например, позволяют делать то же самое, что и импортные, однако, ни у кого не возникли вопросы к нашим авиакомпаниям, которые усиленно внедряли у себя импортный авиапарк. Да и во всех остальных отраслях нашей экономики подобных вопросов можно задать массу. Но никто это делать не будет. Ибо .
Как то попадался мне далеко не свежий ныксовский пост с мануалом под фрезер 840D где в операции нарезания метчиком ( естественно с него заимствуются данные переменных на глубину, шаг и тд) при условии добавления дополнительной ude в операции на выходе принудительно получалась УПшка с циклом резьбофрезеровния (ну как бы ude-тригер на конвертацию в резьбофрезерование). Имхо хорошее решение. НО! Я до сих пор не понимаю почему все уповают на циклы резьбофрезерования, мне и с винтовой интерполяцией в чистом виде прекрасно живется до сих пор. Если только оператору видеть шапку цикла очень информативно и удобно
Я вот все жду от уважаемого А. Лавыгина обещанный видос на тему российского станкостроения в 2022 году, но что-то он пока медлит. :(
Это как в анекдоте что и у жигулей и у мерседеса 4 колёса и возможность ехать, но есть нюансы? Хотя конечно на металлообработке 2022 будет интересно пообщаться в отсутствии Сименса, ДС, ПТС и прочих.
На отдельных предприятиях текущая история началась лет 5 назад, когда санкции те еще пошли. Они также сидели на пиратском, набирали народ и прочее прочее, т.к. ожидали, что вся эта ботва завершится. Как итог в позапрошлом году пришли к выводу, что так жить не очень получается и пошли общаться с аборигенными сортами софтописателей. Нужно понимать, что на предприятиях целые трудовые династии, порой, выросли на внедрении более дорогого западного софта. И если сейчас окажется, что наш софт, в принципе, позволяет сделать то же самое, то к ИТ-элите предприятий могут возникнуть вопросы. Процесс внедрения крайне непрозрачен и неоднозначен.
После руководства по подключению в Crossfire двух видеокарт AMD Radeon пришел черед и компании Nvidia. Ее графические процессоры GeForce пользуются не меньшей популярностью среди игроков, чем продукция конкурента. Обе компании нога в ногу шагают на рынке, предлагая клиентам решения, схожие по уровню производительности и цене. Поэтому было бы несправедливо посвятить материал построению конфигурации CrossFire, но обойти стороной аналогичные возможности продуктов Nvidia.
Читайте также: