Neural network wizard ошибка во входном файле
Цель и содержание: приобретение практических навыков применения нейронных сетей c использованием пакета Neural Network Wizard.
Интерфейс NNWizard
Главное окно
Главное окно – точка входа в программу. Главное окно. 1 – главное меню; 2 – кнопка перехода к главному окну; 3 – кнопка перехода к окну моделирования; 4 – кнопка перехода к окну обучения; 5 – кнопка перехода к окну экспорта; 6 – кнопка перехода к окну настроек; 7 – кнопка создания нового проекта; 8 – кнопка открытия существующего проекта; 9 – Строка состояния; 10 – блок кнопок открытия недавно открытых проектов.
Вверху окна находится строка меню, отвечающая за быстрый доступ к важным функциям. Слева находится полоса управления, отвечающая за переход между окнами:
Для более подробного изучения работы в среде NNWizard скачайте описание nnwizard_ru.pdf
Методика и порядок выполнения работы
Прежде чем запускать программу, необходимо в любом текстовом редакторе подготовить текстовый файл с обучающей выборкой. Например, вычислим косинус. Фрагмент такого файла для функции Res = Cos(x) приведен ниже.
В первой строке файла указываются имена входных/выходных переменных: Cos – имена входных переменных, Res – имя выходной переменной. Далее идут их значения в колонках.
Данные для обучения нейронной сети должны быть предоставлены в текстовом файле с разделителями (Tab или пробел). Количество примеров должно быть достаточно большим. При этом необходимо обеспечить, чтобы выборка была репрезентативной, а данные были не противоречивы. Вся информация должна быть представлена в числовом виде. Если информация представляется в текстовом виде, то необходимо использовать какой-либо метод, переводящий текстовую информацию в числа.
Файл сохраняется как текстовый с расширением .txt (Косинус.txt).
После запуска программы в первом окне задается имя файла с обучающей выборкой (рисунок 2.1).
Рисунок 2.1 – Выбор файла с обучающей выборкой
На вход нейросети должна подаваться информация в нормализованном виде, т.е. это числа в диапазоне от 0 до 1. Можно выбрать метод нормализации на вкладке Нормализовать поле как.
(X-MIN)/(MAX-MIN) – линейная нормализация.
1/(1+exp(ax)) – экспоненциальная нормализация.
Авто – нормализация, основанная на статистических характеристиках выборки
Без нормализации – нормализация не производится.
Рисунок 2.2 – Определение входных и выходных данных
На вкладке Параметры нормализации задать значения, используемые в формулах нормализации.
Рисунок 2.3 – Определение параметров структуры нейросети.
Кнопка «Далее» переводит к следующему окну (рисунок 2.3), где определяются структура и параметры нейросети: количество скрытых слоев, количество нейронов в каждом слое, а также вид сигмоидальнойной функции.
Нейронная сеть состоит из слоев: входного, выходного и скрытых. Необходимо указать количество скрытых слоев. Общего правила определения количества таких слоев нет, обычно задается 1-3 скрытых слоя. Но считается, что чем более нелинейная задача, тем больше скрытых слоев должно быть у нейронной сети.
В Neural Network Wizard все элементы предыдущего слоя связаны со всеми элементами последующего. Количество нейронов в первом и последнем слое зависит от того, сколько полей в обучающей выборке указаны как входные и выходные. Необходимо задать количество нейронов в каждом скрытом слое. Общих правил определения количества нейронов нет, но необходимо, чтобы число связей между нейронами было значительно меньше количества примеров в обучающей выборке. Иначе нейросеть потеряет способность к обобщению, а просто «запомнит» все примеры из обучающей выборки (так называемый «эффект переобучения»).
Параметр сигмоиды. Сигмоида применяется для обеспечения нелинейного преобразования данных. В противном случае, нейросеть сможет выделить только линейно разделимые множества. Чем выше параметр, тем больше переходная функция походит на пороговую. Параметр сигмоиды подбирается, фактически, эмпирически.
В следующем окне (рисунок 2.4) задаются параметры обучения и критерии остановки обучения, если она требуется.
Использовать для обучения сети % выборки. Все примеры, подаваемые на вход нейросети, делятся на 2 множества – обучающее и тестовое. Заданный процент примеров будет использоваться в обучающей выборке. Записи, используемые для тестирования, выбираются случайно, но пропорции сохраняются.
Рисунок 2.4 – Параметры обучения
Скорость обучения. Параметр определяет амплитуду коррекции весов на каждом шаге обучения.
Момент. Параметр определяет степень воздействия i-ой коррекции весов на i+1-ую.
Распознана, если ошибка по примеру… Если результат прогнозирования отличается от значения из обучаемого множества меньше указанной величины, то пример считается распознанным.
Критерии остановки обучения. Необходимо определить момент, когда обучение будет закончено.
Кнопка «Далее» показывает окно с конфигурацией нейросистемы, заданные параметры (рисунок 2.5).
Рисунок 2.5 – Заданные параметры нейросети
В следующем окне визуализирован непосредственно сам процесс обучения (рис. 2.6). Чтобы запустить обучение, нажимается кнопка «Пуск обучения». На верхней диаграмме показано распределение ошибки обучения: по горизонтали – значение ошибки (чем правее столбец, тем больше ошибка), по вертикали – количество примеров из выборки с данной ошибкой (чем выше столбец, тем больше примеров с указанной ошибкой). Зеленые столбцы – ошибка на рабочей обучающей выборке, красные – на тестовой. В процессе обучения столбцы должны стремиться в левую часть диаграммы.
Ниже диаграммы отображается распределение примеров на рабочей и тестовой выборках. На этих графиках можно отслеживать насколько результаты, предсказанные нейронной сетью, совпадают со значениями в обучающей (слева) и тестовой (справа) выборке. Каждый пример обозначен на графике точкой. Если точка попадает на выделенную линию (диагональ), то нейросеть предсказала результат с достаточно высокой точностью. Если точка находится выше диагонали, значит нейросеть недооценила, ниже – переоценила. Необходимо добиваться, чтобы точки располагались как можно ближе к диагонали.
Рисунок 2.6 – Обучение системы
Остановка обучения происходит либо по ранее указанному критерию, либо с помощью той же кнопки «Пуск обучения».
Рисунок 2.7 – Работа с обученной нейронной сетью
В следующем окне (рис. 2.7) представляется возможность оценить точность работы обученной нейросети в эксплуатационном режиме. Для этого в левом поле указывается произвольное значение входного сигнала. После нажатия на кнопку «Расчет» в правом поле появляется рассчитанное сетью значение.
Кнопка «Сохранить» позволяет записать параметры обученной сети в виде файла (по умолчанию расширение файла NNW).
Для создания набора обучающих данных используется встроенный редактор данных (File/New/Data Set) либо загружается файл данных *.sta с диска. В случае создания файла в Microsoft Excel *.csv необходимо провести конвертирование формата данных в формат *.sta (операция проводится автоматически при открытии файла данных).
После открытия данных ST Neural Networks предложит функцию автоматического построения (окно Intelligent Problem Solver). На данном этапе необходимо отказаться от данной функции (Cancel).
При открытии нового файла в ST Neural Networks все переменные считаются входными. Необходимо указать выходные переменные. Щелкните правой кнопкой мыши в поле с названием выходных переменных в окне Data Set Editor, в появившемся контекстном меню выберите Output, цвет заголовка столбца изменится на голубой.
Все наблюдения необходимо поделить на два множества: обучающее (служит для обучения НС) и контрольное (необходимо для оценки хода обучения).
Во втором поле Cases окна Data Set Editor укажите размер контрольного множества (обычно на него отводится половина всего набора данных), нажмите Enter. Строки, содержащие контрольные наблюдения, отмечены красным цветом (находятся в конце списка наблюдений). Затем, командой перемешать (Shuffle) (Edit → Cases → Shuffle →Train and Verify), все наблюдения случайным образом распределяются по различным типам.
Для создания сети используется пункт меню File → New → Network. При этом появляется окно редактора сети (рисунок 11).
Тип сети определяется названием из выпадающего списка Туре.
Количество слоев сети задается в поле No Layers.
Количество нейронов в слое задается в окне Units.
Сеть с заданными параметрами и структурой создается после нажатия кнопки Create.
Параметры Steps и Lookahead используются только в задачах временных рядов и в данной работе не используются.
Для сетей каждого типа используются специальные алгоритмы обучения, которые находятся в пункте меню Train. При выборе алгоритма предлагается определить параметры обучения. Например, при обучении многослойного персептрона методом обратного распространения (Train → Multilayer Perceptrons → Back Propagation) задаются в соответствующем окне (рисунок 12).
Epochs - Эпохи. Задает число циклов обучения, которые проходятся при одном нажатии клавиши Train. Значение по умолчанию 100.
Learning rate - Скорость обучения, задает величину шага при изменении весов: при недостаточной скорости алгоритм медленно сходится, при увеличении скорости обучения алгоритм работает быстрее, но в некоторых задачах это может привести к неустойчивости (особенно если данные зашумлены). Для быстрого и грубого обучения подойдут значения от 0,1 до 0,6; для достижения точной сходимости требуются меньшие значения (например, 0,01 или даже 0,001, если эпох много тысяч). Иногда полезно уменьшать скорость в процессе обучения.
Momentum - Инерция. Этот параметр улучшает (ускоряет) обучение в ситуациях, когда ошибка мало меняется, а также придает алгоритму дополнительную устойчивость, помогает алгоритму не застревать в низинах и локальных минимумах. Значение этого параметра всегда должно лежать в интервале [0;1]. Часто рекомендуется использовать высокую скорость обучения в сочетании с небольшим коэффициентом инерции и наоборот.
Shuffle Cases - Перемешивать наблюдения. При использовании этой функции порядок, в котором наблюдения подаются на вход сети, меняется в каждой новой итерации. Это добавляет в обучение некоторый шум, так что ошибка может испытывать небольшие колебания. Однако при этом меньше вероятность того, что алгоритм «застрянет», и общие показатели его работы обычно улучшаются.
Cross-verification (кросс-проверка) - Стандартный способ обучения нейронных сетей заключается в том, что сеть обучается на одном из множеств, а на другом проверяется результат; таким образом, контрольное множество для обучения не используется. Это дает независимый способ проверки того, научилась ли сеть чему-нибудь полезному.
Reinitialize - сброс настраиваемых параметров сети, полученных на предыдущем цикле обучения, или для предыдущей сети.
Запуск алгоритма обучения производится нажатием кнопки Train. Каждый раз при нажатии кнопки Train алгоритм совершает N циклов обучения, где N – количество циклов обучения, определяемое в Epochs.
На графике (Statistics → Training Error Graph) можно наблюдать изменение ошибки сети в ходе обучения. Training Error Graph– это отображение среднеквадратичной ошибки выхода на всем обучающем множестве.
На графике можно наблюдать нежелательный эффект переобучения (когда сеть хорошо учится выдавать те же выходные значения, что и в обучающем множестве, но оказывается неспособной обобщить закономерность на новые данные). Поначалу и ошибка обучения, и контрольная ошибка убывают. С началом переобучения ошибка обучения продолжает убывать, а ошибка контроля (обычно красного цвета) начинает расти. Рост проверочной ошибки сигнализирует о начале переобучения и свидетельствует о том, что алгоритм обучения начинает быть деструктивным (и одновременно о том, что более подходящей может оказаться сеть меньшего размера).
При изменении параметров сети перед обучением необходимо сбросить весовые коэффициенты (настроенные параметры) предыдущей сети. Для MLP–сети кнопкой Reinitialize.
В пакете STATISTICA Neural Networks предусмотрено автоматическое запоминание лучшей сети во время эксперимента. Для восстановления значений наилучшей сети вызовите меню Train→ Auxiliary→ Best Network.
Для просмотра результатов обучения сети используется функция Options в окне Network Set Editor, в появившемся окне нужно нажать Add (добавить). При этом в окне Network Set Editor добавится информационная строка для сети: тип сети, среднеквадратичная ошибка сети (RMS error), количество входов сети, число скрытых элементов в сети, коэффициент регрессии, использованные методы обучения (если в списке Detail shown выбрано Verbose- подробный).
Для расчета данных с помощью сети используется пункт меню Run: Data Set – расчет для всех данных исходного файла;
Single Case – расчет одного наблюдений;
One-off – расчет для произвольного входного вектора.
Расчет производится при нажатии кнопки Run соответствующего окна.
Запускается, как и в предыдущем случае, но в таблицах выводится только фактическое выходное значение.
Откройте меню Run →One-off, введите входные значения, для которых необходимо спрогнозировать выходное, нажмите Run.
Просмотр весовых коэффициентов синаптических связей нейронов возможен в окне Network Editor (рисунок 13) (Edit→Network…). Значение Theshold – пороговое значение, которое вычитается от входного значения нейрона. Значение VAR1 (на рисунке 13) – весовой коэффициент связи.
Номер слоя задается в поле Layer. В данном окне можно просмотреть (задать) функцию активации нейрона каждого слоя (поле Act fn).
Просмотр выходных значений нейронов в слое в окне Network Activations (Run → Activations …). Расчет для строки данных (указана в поле Case No) по нажатию кнопки Run.
В пакете STATISTICA Neural Networks предусмотрена возможность автоматического определения структуры лучшей сети для набора обучающих данных (функция доступна через File→New→Intelleigent Problem Solver).
Алгоритм работы сети в пакете STATISTICA Neural Networks.
1 Нормализация входных данных:
где - коэффициент нормализации; , максимальное и минимальное значения j-й переменной обучающей выборки; i – номер строки обучающей выборки.
Примечание - Для просмотра и анализа данных обучающей выборки удобно использовать функцию Edit → Cases → Shuffle →Group Sets.
2 Распределение входного вектора на следующий слой с соответствующим весовым коэффициентом (см. Edit→Network…).
3 Вычитание порогового значения на каждом нейроне (см. Edit→Network…поле Theshold).
4 Вычисление функции активации нейрона (результат см. Run → Activations …).
5 Повтор шагов для всех слоев сети.
6 Вычисление выхода сети с учетом коэффициента нормализации:
, где - минимальное значение выходной переменной обучающей выборки, t – номер выходной переменной, - коэффициент нормализации выходной переменой t, - нормализованное значение выхода сети, рассчитанное для последнего слоя.
Контрольные вопросы
1 Что такое нейронная сеть и каковы ее основные свойства?
2 Какова структура нейрона?
3 Какие функции активации могут быть использованы в нейронных сетях?
4 Какие требования предъявляются к функциям активации?
5 Какие функции выполняет входной слой в многослойной сети?
6 Можно ли обучить нейронную сеть без скрытого слоя?
7 В чем заключается обучение нейронных сетей?
8 Почему один из алгоритмов обучения получил название «алгоритм обратного распространения»?
9 Чем отличается обучение с учителем от обучения без учителя?
10 Почему входные и выходные сигналы нейронной сети должны быть нормированы, т.е. приведены к диапазону [0,1] ?
Список литературы
1 Fogelman Soulie F. Neural networks, state of the art, neural computing. -London: IBC Technical Services, 1991.
2 Горбань А. Нейроинформатика и ее приложения // Открытые системы. -1998. -№ 4 – 5. -С. 36 - 41.
3 Роберт Хехт-Нильсен. Нейрокомпьютинг: история, состояние, перспективы // Открытые системы. -1998. -№ 4-5. -С. 23 - 28.
4 Розенблатт Ф. Принципы нейродинамики. Персептроны и теория механизмов мозга. -М.: Мир, 1965.
5 Гордиенко Е.К., Лукьяница А.А. Искусственные нейронные сети. I Основные определения и модели// Изв. РАН. Техническая кибернетика. -1994. -№ 5. -С. 79 - 92.
6 Короткий С.Г. Нейронные сети: алгоритм обратного распространения. -BYTE/Россия. -2000. -№ 5. -С. 26-29.
7 Свешников С.В., Шквар А.М. Нейротехнические системы обработки информации. -Киев: Наукова думка, 1983. -222 с.
8 Интеллектуальные системы управления с использованием нейронных сетей: учеб. пособие. / В.И. Васильев, Б.Г. Ильясов, С.С. Валеев и др.; Уфимск. гос. авиац. техн. ун-т. Уфа, 1997. -92 с.
9 Куликов Г.Г., Брейкин Т.В., Арьков В.Ю. Интеллектуальные информационные системы: учеб. пособие / Уфимск. гос. авиац. техн. ун-т. -Уфа, 1999. -129 с.
11 Интеллектуальные системы обработки информации на основе нейросетевых технологий: учеб. пособие. / Ю.И. Зозуля, Уфимск. гос. авиац. техн. ун-т. –Уфа. -2000. -138 с.
Программный пакет Neural Network Wizardможет быть использован без предварительной инсталляции.
Путь к программе: Neural Network Wizard\Bin\Wizard.exe.
Прежде чем запускать программу, необходимо в любом текстовом редакторе подготовить текстовый файл с обучающей выборкой. Пример такого файла для функции res = s1 + s2 приведен ниже.
В первой строке файла указываются имена входных/выходных переменных: s1 и s2 – имена входных переменных, res – имя выходной переменной. Далее идут их значения в колонках.
Файл сохраняется как текстовый с расширением TXT.
В данном окне (рисунок 7) определяются структура и параметры НС: количество скрытых слоев, количество нейронов в каждом слое, а также вид сигмоидной функции.
В следующем окне (рисунок 8) задаются параметры обучения и критерии остановки обучения, если она требуется. Кнопка «Далее» показывает краткий предварительный отчет.
В следующем окне визуализирован процесс обучения (рисунок 9). Чтобы запустить обучение, нажимается кнопка «Пуск обучения». На верхней диаграмме показано распределение ошибки обучения: по горизонтали значение ошибки (чем правее столбец, тем больше ошибка), по вертикали количество примеров из выборки с данной ошибкой. Зеленые столбцы – ошибка на рабочей обучающей выборке, красные – на тестовой. В процессе обучения столбцы должны стремиться в левую часть диаграммы.
Ниже диаграммы отображается распределение примеров на рабочей и тестовой выборках. Каждый пример изображен здесь точкой. Чем ближе точка к диагонали, тем точнее НС предсказала ее значение.
Остановка обучения происходит либо по ранее указанному критерию, либо с помощью той же кнопки «Пуск обучения».
В следующем окне (рисунок 10) представляется возможность оценить точность работы НС в эксплуатационном режиме. Для этого в левом поле указывается произвольное значение входного сигнала. После нажатия на кнопку «Расчет» в правом поле появляется рассчитанное сетью значение выходного.
Кнопка «Сохранить» позволяет записать параметры обученной сети в виде файла (по умолчанию расширение файла NNW).
В данном файле кроме прочих параметров указаны:
Epoch – количество эпох (циклов) обучения,
Layer_* - количество нейронов в соответствующем слое (нейроны нумеруются от 0 до N-1),
W_i_j_k – веса синапсов (i = номер слоя - 2, j – номер нейрона, k – номер синапса данного нейрона).
В современном мире широкое применение нашли нейронные сети. С уверенностью можно сказать, что они стали неотъемлемой частью нашей жизни. Разработка нейронной сети может быть как простой, так и очень сложной, но какой бы она ни была – почти всегда нейронные сети разрабатываются на одном из языков программирования. Что же делать, если вы хотите разработать свою нейронную сеть, но не имеете навыков программирования? Или если вы не хотите тратить время на написание однотипного кода? Для решения этих проблем мы разработали специальную программу – NNWizard. Разработка моделей нейронных сетей – нетривиальная задача и цель данного программного обеспечения – упростить процесс моделирования и обучения моделей нейронных сетей, например распознавание визуальных объектов, для последующего использования на микроконтроллерных платах семейства “Трекдуино” с модулем искусственного интеллекта “Артинтрек” (ПО идет в комплекте с Образовательным комплексом по изучению основ искусственного интеллекта (НЕЙРОСЕТИ ) АРТИНТРЕК БАЗОВЫЙ, АРТИНТРЕК ПРО)
NNWizard(Neural Network Wizard – англ. Волшебник нейронных сетей) – это среда визуального моделирования архитектуры сверточной нейронной сети, ее обучения и экспорта для последующего использования на аппаратном модуле Артинтрек. Работа в NNWizard осуществляется в формате проекта.
Стоимость
Стоимость лаборатории NNWizard по изучению основ построения и обучения нейронных сетей (лицензия) составляет 95000 руб.
Теоретическое обоснование
Neural Network Wizard 1.7 – простейший программный эмулятор нейронных сетей. В Neural Network Wizard реализована многослойная нейронная сеть, обучаемая по алгоритму обратного распространения ошибки (back propagation error). Программа Neural Network Wizard предназначена для проведения исследований с целью выбора оптимальной конфигурации нейронной сети, позволяющей наилучшим образом решить поставленную задачу. Результатом работы системы является файл, который хранит в себе все параметры полученной нейронной сети. Далее, на основе этого файла, можно разрабатывать систему, предназначенную для решения конкретных задач.
Программа может применяться для анализа информации, построения модели процессов и прогнозирования. Для работы с системой необходимо проделать следующие операции:
1. Собрать статистику по процессу.
2. Обучить нейросеть на приведенных данных.
3. Проверять полученные результаты.
В результате обучения нейросеть самостоятельно подберет такие значения коэффициентов и построит такую модель, которая наиболее точно описывает исследуемый процесс.
Программный пакет Neural Network Wizard может быть использован без предварительной инсталляции.
Инструменты страницы
За исключением случаев, когда указано иное, содержимое этой вики предоставляется на условиях следующей лицензии: CC Attribution 3.0 Unported
орядок работы в среде Neural Network Wizard рассмотрим на следующем примере.
Создать НС для распознавания
функции «Исключающее ИЛИ» (табл. 2.1).
Число переменных для входа и выхода
равно соответственно 2 и 1.
2.2. Создание нейронной сети
На следующем шаге в окне представленном на рис. 2.6 задаем параметры конфигурации нейронной сети.
Число скрытых слоев нейросети - нейронная сеть состоит из нескольких слоев – входного, выходного и скрытых (скрытых слоев может быть несколько). Этот параметр позволяет указать количество скрытых слоев. Общего правила, сколько должно быть таких слоев, нет, обычно задается 1-3 скрытых слоя. Можно говорить, что чем более нелинейная задача, тем больше скрытых слоев должно быть.
Слои, Число нейронов – этот параметр позволяет задать количество нейронов в каждом скрытом слое. Общих правил определения количества нейронов в скрытых слоях нет, но необходимо, чтобы число связей между нейронами было меньше количества примеров в обучающей выборке.
Параметр сигмоиды – в Neural Network Wizard в качестве функции активации используется сигмоидальная функция (сигмоида). Сигмоида применяется для обеспечения нелинейного преобразования данных. В противном случае, нейросеть сможет выделить только линейно разделимые множества. Чем выше параметр, тем больше переходная функция походит на пороговую функцию. Параметр сигмоиды подбирается экспериментально.
Рис. 2.6 – Окно задания параметров нейронной сети
Для рассматриваемого нами примера будет использована сеть с одним скрытым слоем, содержащим 2 нейрона.
2.1 Создание набора данных
На первом шаге подготовим обучающие примеры. Данные для обучения нейронной сети должны быть представлены в текстовом файле с разделителем (Tab или пробел) (рис. 2.3).
Рис. 2.3 – Данные для обучения НС
Далее в главном окне программы необходимо выбрать файл, содержащий обучающую выборку (рис. 2.4). Информация, содержащаяся в этом файле, используется для обучения сети. Можно открыть txt-файл для обучения или nnw-файл – обученную нейронную сеть.
Следующее окно программы, представленное на рис. 2.5, позволяет задать входные и выходные переменные, провести при необходимости процедуру нормализации данных.
Использовать поле как - нейронная сеть состоит из входного, выходного и скрытых слоев. Количество нейронов в первом и последнем слое зависит от того, сколько полей вы определите как входные и выходные. Поля, отмеченные пометкой «не использовать» в обучении и тестировании сети применяться не будут.
Нормализовать поле как - на вход сети должна подаваться информация в нормализованном виде. Т.е. это числа в диапазоне от 0 до 1. Можно выбрать один из методов нормализации:
- линейная нормализация.
– экспоненциальная нормализация.
Авто – нормализация, основанная на статистических характеристиках выборки
Без нормализации – нормализация не производится
Параметры нормализации - задаются значения, используемые в формулах нормализации.
Для рассматриваемого примера входными данными являются X и Y, выходной переменной – Z. Нормализация исходных данных не производится.
Системные требования компьютера
Критически минимальные системные требования | |
Процессор | Архитектура: x64 Тактовая частота: ≥ 2GHz |
Объем оперативной памяти | ≥ 2GB |
Операционная система | Microsoft Windows 7 |
Минимальные системные требования | |
Процессор | Архитектура: x64 Тактовая частота: ≥ 3GHz |
Объем оперативной памяти | ≥ 2GB |
Видеокарта | NVIDIA CUDA-совместимая (Compute Capability ≥ 3.5) Не старше GeForce GTX 780* |
Объем видеопамяти | ≥ 1GB |
Операционная система | Microsoft Windows 7 |
Рекомендуемые системные требования | |
Процессор | Архитектура: x64 Тактовая частота: ≥ 4GHz |
Объем оперативной памяти | ≥ 8GB |
Видеокарта | NVIDIA CUDA-совместимая (Compute Capability ≥ 5.0) Не старше GeForce GTX 9 поколения |
Объем видеопамяти | ≥ 4GB |
Операционная система | Microsoft Windows 10 |
Читайте также: