Нужна ли видеокарта для сервера
Вот зря придумали высказывание "нельзя впихнуть невпихуемое"! Сейчас, взяв в руки фотоаппарат (встроенный в телефон), я возьмусь опровергнуть это спорное заявление.
Дело началось с того, что на работе, в плане стандартного перетряхивания имущества, образовалась парочка лишних серверов. Которые, вследствие всемирного финансового кризиса было совершенно некуда девать: выход серверов из строя как-то совпал с сокращением нашей офисной площади. Пришлось мне идти к директору и слезно просить парочку домой: поиграться.
"Нафига тебе эти печки?" - удивился директор. - "Ты же потом за электричество не расплатишься!"
Но сервера отдал на мое злобное растерзание.
Один из них я уже даже успел приволочь домой и начать мучить.
Сервер оказался интерес.
Вот зря придумали высказывание "нельзя впихнуть невпихуемое"! Сейчас, взяв в руки фотоаппарат (встроенный в телефон), я возьмусь опровергнуть это спорное заявление.
Дело началось с того, что на работе, в плане стандартного перетряхивания имущества, образовалась парочка лишних серверов. Которые, вследствие всемирного финансового кризиса было совершенно некуда девать: выход серверов из строя как-то совпал с сокращением нашей офисной площади. Пришлось мне идти к директору и слезно просить парочку домой: поиграться.
"Нафига тебе эти печки?" - удивился директор. - "Ты же потом за электричество не расплатишься!"
Но сервера отдал на мое злобное растерзание.
Один из них я уже даже успел приволочь домой и начать мучить.
Сервер оказался интересной игрушкой, основанной на интеловском 5000Р чипсете. В двух сокетах были поселены инженерные семплы Xeon 5150 (два ядра, 2.66ГГц, 1.33ГГц шина). Заодно, потерзав собратьев по несчастью моего избранника, я наковырял восемь планок памяти - каждая по гигабайту (DDR2 ECC Registered, 553МГц).
Даже на сегодня подобная конфигурация может считаться неплохой основой для игрушек, даже невзирая на ее экзотичность.
С довольным рычанием я для начала переселил перепавшее мне хозяйство в нормальный корпус: изначально это дело жило в серверном корпусе на 5U. А потом меня постиг жестокий облом.
То, что я по ошибке принимал за слот PCI-E x16 на поверку оказалось слотом расширения для каких-то плат менеджмента. А вот слота для приличной видеокарты там не оказалось. Совсем.
Пришлось думать, как же мне жить дальше.
Как вы видите, на серверной плате есть 3 слота PCI Express, два - по 8х и один на 4х. Разумеется, туда предполагалось совать всякие SCSI, Infiniband и прочие ненужные дома адаптеры. А вот видеокарта туда, как несложно заметить, не влезет. Дырка маловата.
Первым делом я попробовал пойти по пути наименьшего сопротивления, обрезав пластик в задней части самого левого слота. Несмотря на то, что сам слот был помечен как 4-х скоростной, меня подкупало отсутствие за ним всевозможных деталей, которые могут затруднить установку платы.
К сожалению, система не заработала с видеокартой, сидящей в 4-х скоростном PCI-E разъеме. Мне удалось поставить Windows; CPU-Z совершенно правильно рапортовал о наличии 4х связи, однако после установки драйверов система намертво зависала (под ХР) и выпадала в синий экран под Вистой.
Как известно, для истинного овера нет непреодолимых преград, и необходимый инструмент неожиданно нашелся:
Издеваться над 8800GT, представленной на фотографии, мне поначалу как-то не хотелось. Мало ли что? Хотя и маловероятно.
Поэтому для надругательства была выбрана видавшая виды и вообще подаренная мне когда-то ради системы пассивного охлаждения GF7600GS.
Легким движением ножа эта видеокарта поменяла свой интерфейс с PCI-E 16x на PCI-E 8x:
Не надо мне рассказывать про умельцев, умудрявшихся засунуть слотовые Пентиумы-2 в слот AGP! Я сам над такими хихикал.
А вот с картами PCI-Express спецификация позволяет проводить подобные издевательства. Не верите - курите техническую документацию!
Разумеется, после проведения "доработки напильником" видеокарта успешна поместилась в не предназначенный для видео слот:
На получившееся в результате чудо науки и техники была установлена Виста х64. С драйвером 181.22.
И вот вам результат (скромный, не требуйте от 7600GS слишком многого):
Воодушевленный полученным результатом, я пустил под нож гораздо более дорогую карту, 8800GT:
Полученный на штатных частотах результат в 11453 попугая можно считать вполне удовлетворительным, а аппарат - вполне достаточным для большинства игрушек.
Вопрос, который мне неоднократно задавали: «А зачем нужны GPU в сервере? Ведь сервак — не графическая станция!» Да, сервер графической станцией не является, но уже давно задачи смешались. Теперь видеокарты — неотъемлемая часть многих устройств.
Облачный сервер с видеокартой
Также нельзя не упомянуть еще об этом популярном варианте выделенного сервера с видеокартой. Речь, конечно же, об облачной технологии.
Cloud-сервер представляет собой сервис, созданный на основе виртуализации с использованием облачных технологий и GPU-ускорителя. Аренда такого выделенного сервера с GPU может потребоваться для компаний, занимающихся разработкой или исследовательскими проектами. Как правило, использование облака позволяет существенно сократить расходы на инфраструктуру и оптимизировать все затраты организации. Подобное решение особенно актуально для небольших фирм с удаленной занятостью, которые не нуждаются в использовании физического оборудования.
Облачные технологии нередко применяются и для создания единой виртуальной среды для удаленной работы в крупных организациях. Это позволяет обеспечить непрерывность бизнес-процессов и высокий уровень безопасности. Особенно популярным подобное решение стало в условиях пандемии, так как позволило быстро настроить удаленную работу отделов и обеспечить связь между ними.
В последние годы на cloud-серверы с GPU переходят и различные геймерские компании-разработчики. Сфера облачного гейминга в последнее время обрела много поклонников, так же распространенные получили сервисы для облачного видео-стриминга. Все они не обходятся без серверов с видеокартой, так как требуют ресурсов и обработки большого количества операций.
Сферы применения
Многие эксперты уже говорят о том, что использование видеокарт для вычислений стало новых витком в истории IT. Технология уже применяется в различных сферах бизнеса и науки, а инфраструктуры с использованием серверов с GPU стали неотъемлемой частью крупных корпораций и небольших фирм.
Изначально подобные системы применялись для работы со сложной графикой. Однако высокая производительность серверов позволила применять видеокарты и для выполнения общих вычислений. В результате появилась технология GPGPU, которая предполагает применение множества параллельных вычислений для процедур с неграфическим типом данных.
Сегодня GPU активно применяется в следующих сферах:
- Научные исследования и CUDA-вычисления (например, вычисления при помощи видеокарт часто используются в химии и биохимии, математике и т. д.).
- Анализ и обработка Big Data.
- Статистические расчеты и построение прогностических моделей.
- Дизайн и 3D-моделирование.
- Наработки в сфере искусственного интеллекта.
- Разработка и тестирование приложений с видеоконтентом.
- Графический рендеринг.
- Майнинг и блокчейн.
- Разработка компьютерных игр и симуляторов.
- Криптоанализ и криптографические манипуляции.
- Транскодинг видео.
Еще одна неожиданная сфера применения серверов с видеокартой – это службы безопасности. Дело в том, что из-за большого количества ядер видеокарты часто используются для перебора паролей и взлома серверов. Поэтому для защиты данных применяется зеркальное решение – настройка защиты за счет тестирования инфраструктуры с использованием графических ускорителей.
Отличия CPU И GPU
Принцип потоковой обработки операций, которые используется в CPU и GPU, серьезно различается. Именно это можно считать главной разницей в вычислениях в центральном процессоре в сравнении с операциями на графическом процессоре. Давайте рассмотрим этот вопрос подробнее:
- Принцип работы CPU строится на выполнении операций в строгой последовательности. В первую очередь выполняются задачи с высоким приоритетом, выполнение нового шага возможно только после завершения предыдущего и основывается на имеющихся результатах. Это означает, что ошибка на одном из этапов приведет к сбою всей программы.
- Современные CPU имеют несколько ядер, каждое из которых обрабатывает свою последовательность операций. Это позволяет реализовать принцип многозадачности, но каждая операция все равно обрабатывается в определенной последовательности.
- Архитектура GPU предполагает наличие множество ядер, которые объединяются в блоки. В основу технологии изначально заложен принцип распараллельности. То есть процессор одновременно выполняет несколько задач параллельными потоками. В результате этого ошибка в одной из операций не приводит к сбою всей программы. Это позволяет добиться высокой производительности.
Также стоит отметить, что технологии по-разному реализовывают доступ к памяти. За счет этого GPU не требуется емкая память, но при этом стоит понимать, что операция записи данных и считывание результата являются разными процессами.
2 ответа 2
RDP не использует ресурсы видео карты, подключается через собственный виртуальный драйвер. Но для запуска самого сервера видео карта нужна. (При определенных условиях компьютер/сервер можно запустить и без видео-карты).
. На сервере RDP использует собственный видеодрайвер для визуализации вывода, создавая информацию рендеринга в сетевых пакетах с использованием протокола RDP и отправки их по сети клиенту. На клиенте RDP получает данные рендеринга и интерпретирует пакеты в соответствии с вызовами API интерфейса графического устройства Microsoft Windows (GDI). Для входного пути события клиентской мыши и клавиатуры перенаправляются от клиента к серверу. На сервере RDP использует свой собственный драйвер клавиатуры и мыши для приема этих событий клавиатуры и мыши. .
Объем информации в нашем мире увеличивается каждый день в немыслимых объемах. Это привело к тому, что многие информационные системы и оборудование с трудом справляются с обработкой поступающих данных. Решить проблему высокой производительности вычислений сегодня смогли серверы с GPU. Это системы с графическими картами, ставшие инструментом для майнинга, рендеринга, стриминга и других ресурсоемких процедур, для которых недостаточно мощности центрального процессора. Серверы с видеокартами также нередко применяются для 3D-моделирования, машинного обучения и сложной аналитики, многие компании уже перешли или в будущем планируют использование подобных систем.
Давайте разберемся, в чем заключаются особенности GPU-серверов, когда оправдано их использование и какие параметры стоит учесть перед заказом подобной услуги у провайдера.
Особенности использования видеокарт
Ранее за любые операции на ПК отвечал центральный процессор – CPU. Именно за счет него выполнялись необходимые вычисления, обрабатывались запросы видеокарты, осуществлялась передача звука и вывод графики на экран. Однако зачастую процедуры происходили с задержкой, так как мощностей такого процессора не хватало на выполнение одновременных операций.
С развитием оборудования стали применяться дискретные и интегрированные видеокарты. Их появление стало закономерным итогом усложнения графических задач и повышения требований со стороны программ и приложений. Для того чтобы осуществить быстрое выполнение задач, видеокарты обзавелись собственным процессором – Graphic Processor Unit. Его целью стало выполнение однотипных вычислений в несколько потоков. Нередко для обозначения такого процессора используют термины «графический ускоритель» и «видеопроцессор», которые характеризуют функционал GPU.
Выводы
Сервер с графическими картами предоставляет максимум возможностей для увеличения скорости обработки графических данных. Если в традиционных CPU может использоваться до 24 ядер, то в GPU – их содержится около 3000. Это позволяет выполнять почти в 100 раз больше различных операций и делать это практически в 10 раз быстрее.
Использовать сервер с видеокартой предпочтительнее в тех случаях, когда вам требуется работа с графикой или видео. Подобная инфраструктура уместна для компаний в сфере дизайна, анимации и видеомонтажа. Также серверы с CPU часто применяются для майнинга криптовалют и выполнения статических расчетов. Еще одна сфера, которая не обходится без использования серверов с графическими картами, это масштабные научные исследования. То есть, по сути GPU-сервер незаменим для процессов, связанных с обработкой больших массивов информации.
Мы можем сделать вывод о том, что серверы с видеокартой не только заняли свою «естественную» нишу, но и стали незаменимыми в самых непредсказуемых областях. Реалии таковы, что даже небольшая компания, занимающаяся разработкой или тестированием, сегодня нуждается в использование серверов с GPU. Крупным организациям применение подобной технологии может потребоваться при анализе Big Data или работе с искусственным интеллектом.
Хотите арендовать сервер с GPU или остались вопросы о технологии? Специалисты нашего дата-центра Xelent подробнее расскажут об услуге и подберут оптимальное решение, учитывающее сферу деятельности и потребности вашей компании. Оставляйте заявку на сайте или звоните по указанным номерам!
Аренда сервера и СХД необходимой производительности. Все оборудование размещаются в собственном отказоустойчивом ЦОДе с зарезервированными системами энергоснабжения, охлаждения и каналами связи.
Простая, удобная и надежная интеграция облачной инфраструктуры в IT-инфраструктуру компании с глубокими индивидуальными настройками.
Недостатки сервера с GPU
Многих клиентов волнует вопрос о том, имеются ли у подобных серверов недостатки. К их числу можно отнести заблуждение о том, что главные вычислительные мощности возложены на видеокарту. Графический адаптер решает множество простых задач, однако ряд процессов он не способен выполнить собственными усилиями. Поэтому GPU почти всегда используется совместно с CPU.
VPS с видеокартой
Многие организации в последние годы отказываются от использования физического оборудования и переходят на аренду виртуальных серверов. В этом случае наиболее логичным выглядит использование VPS с видеокартой. Этот вариант подходит для тех фирм, которые нуждаются в высокой производительности, но при этом хотят снизить расходы на инфраструктуру.
Виртуальный сервер, или VPS / VDS, представляет собой продукт виртуализации. При использовании такой технологии на физическом сервере с помощью гипервизора создается несколько независящих друг от друга серверов. Каждый из виртуальных серверов использует определенные выделенные ресурсы. Память и процессорные ядра также распределяются между созданными элементами.
В настоящем технология виртуализации позволила создавать и виртуальный графический процессор – vGPU. Он разворачивается на виртуальном сервере при помощи определенного ПО. В качестве основы используется физический GPU.
Виртуальный выделенный сервер с видеокартой дешевле и проще в настройках, чем физический. Он отличается высокой масштабируемостью и простотой управления, однако подходит для локальных проектов. Для бизнес-процессов, требующих высокой производительности, рекомендовано использование физического оборудования.
Выделенный сервер с GPU
Существует несколько вариантов применения технологии для организации ИТ-инфраструктуры. Первый из них – выделенный сервер с GPU. Такой вариант подходит для проектов, которые требуют большой вычислительной мощности и производительности.
Архитектура GPU позволяет увеличить скорость обработки информации, так как за такт работы выполняется несколько одновременных операций. Плюс использования выделенного сервера в том, что их можно объединить в единый отказоустойчивый кластер и использовать для создания производительной инфраструктуры.
GPU обычно используется для вычислений. Поэтому оснащать физический выделенный сервер видеокартой целесообразно только, если деятельность вашей компании связана с ресурсоемкими вычислениями. Чаще всего такой вариант выбирают для криптоанализа и криптографии, 3Д-моделирования, работы с Big Data и т. д. Чаще всего это касается сфер разработки, видеоигр, исследовательских проектов, в которых важны масштабные вычисления и различные медиа-ресурсы.
Преимущества сервера с видеокартой
Аренда физического сервера с GPU имеет несколько плюсов:
- Стабильность. Такие системы отличаются стабильной работой даже при пиковых нагрузках. Инфраструктура, построенная на серверах с видеокартой, работает без сбоев и простоев.
- Оперативность. Технология GPU позволяет обрабатывать большие массивы данных, что критически важно для ряда научных и бизнес-процессов.
- Быстрая обработка данных. Видеокарта в среднем позволяет обрабатывать данные в 8–10 раз быстрее, чем это делает центральный процессор.
- Индивидуальная конфигурация. Серверы собираются в соответствии с запросами клиента, что позволяет получить инфраструктуру нужной мощности. Также компания может оптимизировать расходы и платить только за фактически потребляемые ресурсы.
- Защита от DDoS-атак. Как правило, серверы имеют базовую защиту от DDoS-атак, что позволяет избежать потери или утечки данных.
Графические ускорители
Начнем с банального: задач графических ускорителей. Что у нас делают GPU? Давайте не будем о банальном, вроде компьютерных игр. Это будет неправильно. Но правильнее будет выделить следующие пункты:
преобразование содержимого (данных) в пригодную для отображения на мониторе форму;
рендеринг на аппаратном уровне;
Пожалуй, это все на что способны видеокарты. Немного, правда? Но, графический процессор гораздо менее универсален, чем центральный процессор. Правда, в своей сфере ГП многократно превосходит ЦП.
Итак, по порядку. Стандартная функция графического адаптера изначально заключалась в преобразовании данных в удобную для отображения форму. Все, у нас есть данные, которые можно вывести на монитор или другое устройство отображения.
Потом появились графические процессоры, теперь, данные для отображения стал формировать не CPU, а GPU, то есть, рендеринг в режиме реального времени. Разработчики отошли от архитектуры центрального процессора и создали более узкоспециализированное устройство, заточенное четко под задачи обработки и формирования графики. Соответственно, рендеринг позволил повысить качество графики. Все спецэффекты и компьютерные игры без подобных систем не смогли бы существовать.
И конечно же последний пункт — вычисления. Архитектура видеокарт заточена под параллельные задачи. И грех было бы не использовать это в вычислениях. Современное программное обеспечение позволяет выполнять на GPU даже очень сложные вычисления. Если интересно, ознакомьтесь с технологиями CUDA, OpenCL, AMD FireStream. Есть и другие. Но практически любой современный язык программирования позволяет реализовать вычисления на графических ускорителях.
И подобные параллельные задачи стали неотъемлемой частью IT-инфраструктур многих организаций.
Помимо игры в Battlefield 1 и развлечений с VR-очками, установка отдельной видеокарты в сервер полезна при работе с графикой в виртуальной среде или для математических вычислений.
Использование GPU в серверной среде связано с некоторыми особенностями в каждом конкретном сценарии, поэтому разберем их подробнее.
С появлением криптовалют и майнинга оказалось, что рассчитывать ключи шифрования на видеокартах получается быстрее, чем на обычных CPU.
Тому есть несколько причин:
У видеокарты больше арифметическо-логических модулей, чем в центральном процессоре, что позволяет выполнять большее число параллельных задач;
GPU обслуживается более производительной оперативной памятью;
Например, Intel Xeon v4 с поддержкой AVX 2.0 способен выполнять 16 32-битных инструкций на ядре за такт, в то время как одна видеокарта NVIDIA GeForce GTX 1080 отрабатывает 8 228 аналогичных инструкций.
Сейчас математический обсчет на видеокартах используются не только для майнинга. Например, в корпоративном секторе есть более общие задачи:
Обсчет некоторых бизнес-приложений (анализ Big Data);
Графические задачи. Для массового создания изображений по 3D моделям удобнее использовать специальный сервер или рендер-ферму вместо компьютера дизайнера;
В последние годы видеокарты все больше используют для обучения нейронных сетей, как подвариант работы с Big Data. Популярный фреймворк Caffe работает на инстансах Амазона с GPU на порядок быстрее CPU.
Не так давно ко мне обратилась организация, поймавшая шифровальщика. По счастью, вирус был старый и файлы были зашифрованы PSK-ключом, а не сертификатом. Понадобилось два дня брутфорса при помощи Hashcat на нескольких игровых компьютерах коллег – и десятизначный ключ нашелся.
При переносе работы с процессора на GPU сложность в том, что нельзя просто сказать операционной системе "считай-ка, дорогуша, на видеокарте". Для работы напрямую с математическим модулем видеокарты нужна поддержка в конкретном приложении. Сам принцип такой работы называется GPGPU (General-purpose computing for graphics processing units), поэтому стоит искать поддержку чего-то подобного в описании возможностей ПО.
Для работы приложений с математическим модулем видеокарты используются две технологии — CUDA и OpenCL:
CUDA. Программно-аппаратная технология от NVIDIA. SDK предоставляет возможность разработки на диалекте языка C. NVIDIA выпускает как обычные видеокарты с интерфейсом PCI-E, так и серверную линейку Tesla. Есть и оптимизированные для блейд-серверов видеокарты с интерфейсом MXM;
Экспериментальных сравнений производительности двух технологий можно найти немало. При работе с видеокартами AMD и NVIDIA примерно одного уровня, от использования OpenCL выигрывает AMD. Но если приложение разрабатывалось с поддержкой CUDA — лидирует уже NVIDIA. Поэтому выбор конкретной видеокарты обусловлен той архитектурой, которая была заложена в приложение.
Кроме обработки сложных математических задач видеокарту можно использовать и более профильно – для работы с «тяжелыми» графическими приложениями.
Терминальные серверы и тонкие клиенты давно ценятся за удобство обслуживания и независимость от клиентских машин. Последние годы набирает популярность инфраструктура виртуальных рабочих столов (VDI), предлагающая каждому пользователю собственную виртуальную машину в дата-центре.
Если пересадить обычного офисного сотрудника на тонкий клиент не представляет особого труда и практически не сказывается на качестве работы, то отдельная категория стабильно вызывает головную боль – это дизайнеры, архитекторы и другие специалисты, использующие серьезные графические программы.
Решением проблемы может стать перевод требовательных пользователей на VDI вместо простого терминала. Потребуется гипервизор с поддержкой аппаратного ускорения графики. В 2016 году это умеют большинство гипервизоров, даже бесплатных.
Процессор поддерживает аппаратную виртуализацию и IOMMU (Intel VT-d или AMD-Vi);
Материнская плата поддерживает IOMMU;
Если пользователей, желающих оценить плюсы отдельной графики, много, то можно приобрести специальные видеокарты с поддержкой разделения ресурсов.
Умеющие делить ресурсы модели есть у NVIDIA и AMD:
NVIDIA | AMD | |||||
Название технологии | GRID 2.0 | Multi User GPU (MxGPU) | ||||
Наименование | Tesla M10 | Tesla M60 | Tesla M6 | FirePro S7150 | FirePro S7150 x2 | FirePro S7100X |
Интерфейс | PCI-E | PCI-E | MXM | PCI-E | PCI-E | MXM |
Количество пользователей GPU | 16 | 32 | 16 | 16 | 32 | 16 |
Поддержка VMware | да | да | ||||
Поддержка Citrix Xen | да | в разработке | ||||
Поддержка MS Hyper-V | да, начиная с 2016 | в разработке | ||||
Поддержка NICE | да | нет | ||||
Технология работы | через специальный драйвер | аппаратная |
Еще у VMware в ассортименте присутствуют видеокарты GRID K и GRID К2, не попавшие в таблицу, так как морально устарели.
Поддержки карт с разделяемыми ресурсами пока что нет в бесплатных системах виртуализации. Если раньше XenServer всех редакций поддерживал работу "многопользовательской" карты, то теперь необходима редакция Enterprise. Для VMware понадобится редакция Enterprise Plus и выше.
Помимо виртуализации рабочих столов существует и виртуализация приложений (VMware Horizon, Citrix XenApp). Не обязательно выдавать дизайнеру полноценную рабочую станцию, можно виртуализировать, например, только Photoshop.
При разработке виртуальной среды с ускорением графики стоит обратить внимание не только на поддержку в гипервизоре, но и на совместимость с определенной моделью сервера. Совместимость видеокарт NVIDIA GRID с конкретными моделями серверов можно проверить на сайте NVIDIA. В частности, из серверов HPE сертифицирован для работы современной Tesla M60 только ProLiant DL380 Gen9. Эта же модель одобрена AMD.
Для блейд-серверов у AMD и NVIDIA есть решение с интерфейсом MXM, которое характеристиками схоже с картами для обычных серверов.
Основным минусом технологии ускорения графики в виртуальной среде является цена. Одна видеокарта стоит около $3 000 долларов, что сравнимо со стоимостью целого сервера. Кроме того, для нового проекта потребуется лицензия на гипервизор и, скорее всего, сервер определенной модели (помним про совместимость). Кроме того, при выборе карт NVIDIA нужна еще и лицензия на драйвер.
NVIDIA GRID позволяет использовать разделяемую видеокарту тремя способами:
Виртуальное приложение | Виртуальный ПК | Виртуальная рабочая станция | |
Удаленный рабочий стол | |||
Удаленное приложение | |||
Гостевая OS Windows | |||
Гостевая OS Linux | |||
Макс. количество мониторов | зависит от приложения | 2 | 4 |
Макс. разрешение | зависит от приложения | 2560х1600 | 4096х2160 |
Поддержка CUDA и OpenCL | |||
Размер видеопамяти, на клиента | 1 Гб, 2 Гб, 4 Гб, 8 Гб | 512 Мб, 1 Гб | 512 Мб, 1 Гб, 2 Гб, 4 Гб, 8 Гб |
Цена в год, за лицензию + SUMS* | $10 | $50 | $250 |
Вечная лицензия** | $20 | $100 | $450 |
SUMS1 | $5 | $25 | $100 |
*SUMS (Support, Update and Maintenance Subscriptions) — поддержка и обновления от NVIDIA.
**Для приобретения вечной лицензии необходимо приобрести SUMS хотя бы на первый год.
Ценник на лицензии сам по себе не большой, но суммарно внедрение всего программно-аппаратного решения обойдется довольно дорого. Тем не менее, если в компании большая часть сотрудников работает с громоздкими графическими приложениями, внедрение VDI может быть дешевле, чем поддержка парка мощных компьютеров.
Помимо математических расчетов и инфраструктуры мощных виртуальных машин с поддержкой графических приложений, можно использовать видеокарты и для игр. Например, создать облачный сервис для прохождения третьего ведьмака на высоких настройках на любом устройстве.
А использовали ли вы мощные дискретные видеокарты в серверах, как впечатления?
Есть обычный компьютер (года 2008 выпуска) в качестве сервера на базе Windows 7 x64. Воткнут в розетку и с интернетом. Все подключения к нему осуществляются через RDP если необходимо что-то запустить/настроить. В остальное время молотит без участия пользователя. Хочется максимально снизить шум и тепловыделение. Встроенного видео нет. Другие матери, из имеющихся, оборудованы меньшим количеством разъёмов под оперативку.
Отсюда встал вопрос:
Какие минимальные требования к видеокарте для RDP подключений (максимум 2 подключения)?
PCI-E GeForce 7600GT (стоит в данный момент и шумит), какая-то PCI плата с 1-2МБ памяти из конца 90-х (используется для восстановления BIOS видеокарт). Что-то типа такого S3 Trio.
Пожалуй присоединюсь к вопросу в части запуска компа вообще без видеокарты. Как раз сегодня притащили похожее счастье, хочу его в skeenless варианте забросить на полку на даче, и пусть торренты по ночам на безлимите тянет. Но в ту полку куда хочу забросить с видюхой не влазит. Иксы там вааще не планируются ибо нафиг не нужны.
без "видеокарты" не запустите. Однако запустите если процессор умеет. Если быть точнее, то уже несколько лет все материнки выпускаются с разъемом под монитор, вам лишь остается быть уверенным что процессор умеет в видео.
Ребят, могу сказать в.карат не умеет значение вообще - как вам написал @zalex. При RDP подключение используются ресурсы локальной машины а не сервера к которому идет подлючение. У нас в офисе 10 удаленных машин в разных странах, все работают на 1-2u лезвиях только со встроенным видео необходимое для локального доступа к BIOS. О том запустится ли машина без видео, сказать ничего не могу - зависит от матери и встроенной поддержке в процессоре. В supermicro есть IPMI что позволяет настраивать машину вообще без видео железки, хотя еще не встречал плат без встроенных VGA.
Меня больше интересовал вопрос " буду ли я иметь проблемы с RDP на видяхе PCI c 1-2МБ на борту? Т.е. будет ли поддерживаться разрешение клиента, а не максимально доступное для видео адаптера?
Читайте также: