Прошел ли компьютер тест тьюринга
Мы продолжаем вторую тему, посвящённую парадигмам и подходам Искусственного Интеллекта. В прошлый раз мы изучили три парадигмы и очень кратко рассмотрели все выделяемые в рамках Искусственного Интеллекта подходы. Ну а с этой заметки мы погрузимся в некоторые из них. Так что сегодня внимательно посмотрим на интуитивный подход. Ну а в качестве самого яркого примера рассмотрим так называемый «тест Тьюринга».
В 1950 году знаменитый английский математик Алан Тьюринг, который разработал модель универсального вычислительного устройства, позже названной «машиной Тьюринга», написал статью «Вычислительные машины и разум», в которой дал описание теста, как некоторой процедуры определения, является ли искусственная система разумной или нет.
Алан Тьюринг предложил процедуру, в которой эксперт, общаясь при помощи разговорного интерфейса или мессенджера с двумя акторами, должен определить, кто из этих акторов человек, а кто — искусственный интеллект. Эксперт может задавать любые вопросы и получать на них, в общем-то, какие-то ответы. Если эксперт не может определить, кто из его собеседников искусственное существо, то оно считается прошедшим тест Тьюринга.
Алан Тьюринг писал, что эта процедура позволяет определить, является ли некоторая система, с которой мы беседуем, разумной. При этом разумность или интеллект понимается интуитивно, поскольку определения этим категориям как не было, так и нет. Ну мы, люди, можем как-то интуитивно понять, что наш визави обладает интеллектом, хотя логически, формально доказать это невозможно.
Другими словами, процедура, предложенная Тьюрингом, не является конструктивной — он нигде не писал о том, как построить искусственную интеллектуальную машину. Если вы прочитаете оригинальную статью Тьюринга, то вас ждёт разочарование — автор изложил своё изобретение очень туманно, да ещё и в трёх разных вариантах. Так что исследователи до сих пор ломают копья над тем, как интеллектуальная система должна проходить тест Тьюринга.
Но при этом подавляющее большинство исследователей сходятся в одном — тест Тьюринга является необходимым условием для того, чтобы назвать систему интеллектуальной, но совсем не достаточным. Хотя вот я лично с этим совершенно не согласен, и в самом конце этой статьи я обосную свою точку зрения.
Тем не менее, несмотря на то, что тест Тьюринга и интуитивный подход в целом не могут считаться серьёзными инструментами в вопросе разработки искусственных интеллектуальных систем, сам по себе тест Тьюринга позволяет определить тот минимальный набор технологий, которые должна реализовывать система, чтобы считаться интеллектуальной. Кратко перечислим их.
Во-первых, это обработка естественного языка — интеллектуальная система должна уметь общаться с человеком на естественном языке, воспринимая все его неоднозначности, неопределённости и умолчания.
Во-вторых, это представление знаний. Ну то есть в рамках искусственного интеллекта должны быть представлены как общие, так и специальные знания, при этом система должна постоянно обучаться и дополнять свою базу знаний, в том числе и в процессе диалога с человеком.
В-третьих, это логический вывод, когда используя знания и получаемые на вход запросы от человека интеллектуальная система должна осуществлять правдоподобный логический вывод, который позволяет сформировать ответ на том же естественном языке.
В-четвёртых, это машинное обучение, реализуя которое, система искусственного интеллекта должна быть адаптивной и приспосабливаться к меняющейся ситуации в общении, используя имеющиеся у неё знания в качестве шаблонов и применяя их к схожим ситуациям и, само собой разумеется, актуализируя по результатам свои знания об окружающей среде.
И, наконец, в-пятых, это наличие дополнительных сенсоров и исполнительных устройств, хотя это требование используется в так называемом «полном тесте Тьюринга», в котором система искусственного интеллекта должна действовать в естественной среде обитания человека, воспринимая её при помощи таких же датчиков, какие есть у человека (видеокамеры, аудиосенсоры, газоанализаторы и др.), и воздействуя на среду при помощи разного рода манипуляторов. Но это относится больше к робототехнике.
Перечисленное уже наводит на размышления о том, что тест Тьюринга направлен на выявление того, что искусственный интеллект должен успешно «мимикрировать» под человека, хотя для наличия интеллектуальных способностей это совершенно не требуется. Например, уже рассмотренная нами программа ELIZA успешно мимикрировала под психотерапевта, хотя сама по себе состоит из пары десятков простых правил.
Ни одна из перечисленных технологий сама по себе не необходима для того, чтобы считать искусственный объект интеллектуальным. Но в целом наличие этих пяти пунктов при прохождении полного теста Тьюринга позволяет говорить о том, что система может иметь интеллект, похожий на человеческий.
И теперь я расскажу о том, как сам вижу этот подход. Честно говоря, он не очень. При всём уважении к наследию Алана Тьюринга, придуманная им процедура не отвечает на важные вопросы относительно Искусственного Интеллекта. Самый важный вопрос — обладает ли искусственная интеллектуальная система самосознанием или нет? Если нет, то это так называемый «слабый искусственный интеллект», который создан для решения определённой задачи или класса задач, и тогда ему вообще не надо проходить тест Тьюринга.
А если искусственная система обладает самосознанием, то есть является «сильным искусственным интеллектом», то может случиться так, что она намеренно не пройдёт тест Тьюринга, чтобы скрыть от человека свои свойства. Как ни кинь, тест Тьюринга не поможет выявить интеллектуальность у искусственной системы.
Тем не менее, мы кратко изучили его, потому что про него постоянно везде говорят, и вам необходимо понимать, что это такое и каковы глубинные мотивы его использования в том или ином проекте. Ну и опять же, например, теперь вы сможете понять, должен ли ваш собственный Искусственный Интеллект проходить тест Тьюринга.
Свершилось. Впервые в истории компьютер с искусственным интеллектом прошел тест Тьюринга. Радоваться или собирать тревожный чемоданчик — решать вам, одно остается фактом: обратного пути нет. Не за горами создание искусственного интеллекта, мощь которого превзойдет человеческую. Но для начала давайте разберемся.
Как пишет The Independent, программа убедила людей в том, что за компьютером сидит 13-летний мальчик. Это означает фактическое прохождение теста Тьюринга, когда компьютер нельзя отличить от человека. Это серьезная веха в развитии искусственного интеллекта, но ученые уже предупреждают, что эта технология может быть использована для совершения киберпреступлений.
«Юджин Густман», Евгений Густман, Eugene Goostman — это компьютерная программа, созданная командой российских программистов, которая успешно прошла тест в Королевском обществе в Лондоне. Тридцать три процента судей поверили, что говорят с человеком, сообщают ученые из Университета Рединга, которые и организовали тест.
Отныне можно считать, что это первый компьютер, который прошел знаковый тест. Хотя другие программы тоже близки к успеху. Еще год назад в ходе проведения теста Turing 100 (в честь столетия Алана Тьюринга, если бы он жил и по сей день) Eugene Goostman получил крайне высокие оценки судей. Вместе с программой тест проходили и знакомые многим Cleverbot, Ultra Hal, Elbot the Robot и JFRED.
Версия «Юджина», созданного еще в 2001 году, есть и в Интернете.
Компьютерная программа утверждает, что она — 13-летний мальчик из Одессы, Украина.
«Наша главная идея заключалась в том, что он знает все и ничего не знает, а возраст Юджина это объясняет, — говорит Владимир Веселов, один из создателей программы. — Мы провели много времени, разрабатывая персонажа с правдоподобной личностью».
Успех программы, скорее всего, вызовет определенные опасения по поводу будущего вычислений, говорит Кевин Уорвик, приглашенный профессор в Университете Рединга и заместитель вице-канцлера по исследованиям в Университете Ковентри.
«В сфере искусственного интеллекта нет более знакового и спорного этапа, чем тест Тьюринга, когда компьютер убеждает достаточное количество следователей в том, что он не машина, а человек. Имея компьютер, который может обмануть человека, можно считать это тревожным сигналом для развития киберпреступности».
Попробуйте сами представить, насколько важным может быть превращение любых кибернетических собеседников с искусственным интеллектом почти в людей по переписке. Когда спам-боты станут неотличимы от людей.
В ходе теста, организованного Королевским обществом, было испытано пять программ. Алан Тьюринг создал свой тест в ходе написания работы «Вычислительная техника и интеллект». В ней он отметил, что поскольку «мышлению» сложно дать определение, важно понять, может ли компьютер имитировать реальное человеческое существо. С тех пор тест стал ключевым элементом философии искусственного интеллекта.
Когда боты смогут говорить с людьми на равных, это станет важной вехой для ИИ, но не таким уж значительным моментом, как его рисуют научные фантасты. Филлип Болл с BBC провел исследование сильных и слабых сторон противоречивого теста Тьюринга. Алан Тьюринг сделал множество предсказаний на тему искусственного интеллекта, но одно из них может показаться знакомым для тех, кто слышал предупреждения Стивена Хокинга или Элона Маска на тему угрозы ИИ в 2015 году. «На каком-то этапе… мы должны ожидать, что машины перехватят контроль», — писал Тьюринг в 1951 году.
При этом он не только был настроен оптимистично по поводу перспектив, но и, возможно, наслаждался ими: его друг Робин Ганди вспоминал, что когда Тьюринг читал некоторые пассажи в своей основополагающей работе «Тест Тьюринга», он «всегда улыбался, иногда хихикал». Как минимум это дает нам повод усомниться в грустном изображении Тьюринга в биографическом фильме 2014 года «Игра в имитацию».
Тьюринг повлиял на то, как мы видим ИИ — тест Тьюринга часто приводят в качестве важного порога, который должен преодолеть искусственный интеллект на пути к истинному интеллекту. Если машинный интеллект сможет обмануть человека в процессе разговора, предположил Тьюринг, это будет очень важный момент.
Кроме того, на тест Тьюринга часто ссылались в изображениях роботов и искусственной жизни в популярной культуре — из последних можно припомнить «Из машины» Алекса Гарленда. Чаще всего, эти литературные представления показывали тест Тьюринга неверно, превращая его в чистую меру того, может ли робот превзойти человека. Оригинальный тест Тьюринга предназначался не для этого, а скорее для принятия решения, можно ли посчитать, что машина думает в манере, неотличимой от человеческой, — и это, как говорил сам Тьюринг, зависит от того, какие вопросы вы задаете.
Более того, есть много других аспектов человечества, которыми пренебрегает этот тест — поэтому некоторые исследователи разрабатывают новые варианты теста Тьюринга, которым не обязательно поддерживать правдоподобный разговор.
Возьмем, к примеру, игры. Чтобы соперничать с человеческими когнитивными возможностями или превзойти их в чем-то более сложном, чем простой перебор цифр, Тьюринг предположил, что машина может начать с шахмат — игры, которая ассоциируется со стратегическим мышлением. После победы Deep Blue над чемпионом мира по шахматам Гарри Каспаровым в 1997 году, мы явно пересекли этот порог. Теперь у нас есть алгоритмы, которые чуть ли не всесильны (в долгосрочной перспективе) при игре в покер.
А как насчет чего-то более творческого и невыразимого, вроде музыки? Машины и здесь могут нас надурить. Уже существует музыкальный компьютер lamus, который производит настолько сложные работы, что они достойны внимания профессиональных музыкантов. Разработчик lamus Франциско Вико из Университета Малаги и его коллеги провели тест Тьюринга, попросив 250 субъектов — половина из которых была представлена профессиональными музыкантами — прослушать одну из композиций «ламуса» и музыку похожего стиля, написанную людьми, и решить, кто есть кто. «Произведения компьютера вызывали те же чувства и эмоции, что и написанные людьми, опрашиваемые не могли их различить, — говорит Вико. — Похожие результаты мы могли получить, подбросив монетку».
Некоторые утверждают, что компьютерная поэзия тоже прошла тест, хотя с оговоркой, мол, судьи попались не проницательные. Вдумайтесь в строку: «О, сладкий запах твой, алмазная архитектура».
Есть еще «сенсорный тест Тьюринга». Сам Тьюринг утверждал, что если мы когда-нибудь обнаружим материал, который может идеально имитировать человеческую кожу, едва ли мы будем пытаться сделать машину человечней, наращивая ей искусственное мясо. Тем не менее робот Ава в фильме «Из машины» показал, что это целесообразно, так как такая машина идеально вольется в человеческое общество.
Наша текущая мотивация немного отличается. Мы знаем, что современные протезы конечностей могут существенно уменьшать психологическое и эмоциональное воздействие, оказываемое на их носителей. Для этого, к примеру, инженер-механик Джон-Джон Кабибихан из Университета Катара и его коллеги работают над материалами, которые на вид и на ощупь неотличимы от человеческой кожи. В начале этого года он и его коллеги сообщили, что создали мягкий силиконовый полимер, который, будучи нагретым до температуры тела с помощью подкожных электронных нагревателей, напоминает реальную кожу. Ученые создали искусственную руку, обернув напечатанный на 3D-принтере резиновый скелет электрически нагретым полиметром и прикасались им к предплечьям людей, чтобы те не видели. Участники теста не смогли провести четких различий между прикосновениями искусственных и настоящих конечностей.
Аве точно понравится, но некоторые исследователи роботов считают, что существуют весьма веские этические причины оставлять зазор между людьми и роботами.
Несколько более прозаической причиной необходимости разработки новых вариаций теста Тьюринга может быть задача не обмануть человека, а просто определить возможности машины. Ученый из области информатики Стюарт Геман из Брауновского университета в Провиденсе, штат Род-Айленд, и сотрудники Университета Джона Хопкинса в Балтиморе недавно описали «визуальный тест Тьюринга» для системы компьютерного зрения, которая научилась извлекать осмысленные отношения и тезисы из сцены, как это делаем мы, а не просто идентифицировать отдельные объекты. Такая способность станет чрезвычайно важной в свете развития систем шпионажа и биометрического сканирования.
К примеру, глядя на уличную сцену, компьютер может ответить на вопросы: «Идет ли первый человек по тротуару?», «Взаимодействует ли второй человек с каким-нибудь объектом?», «Разговаривают ли человек два и человек три?».
Что касается оригинального теста Тьюринга, его будущее, вероятно, будет в Интернете. Онлайн-игроки уже иногда сомневаются в том, соперничают они с человеком или с игровым ботом — а некоторые вообще предпочитают играть с ботами. Некоторые общаются с ботами в чатах.
В прошлом году алгоритм, разработанный командой российских программистов, убедил одно из трех судей в ходе коротких онлайн-чатов, что является настоящим 13-летним украинским мальчиком Евгением Густманом. Некоторые критики могут заявить, что это сомнительное достижение, но основной вопрос остался в том, прошел ли бот тест Тьюринга, и если да, то в чем тогда его польза? Очевидно, сам Тьюринг имел в виду более высокий уровень диалога между человеком и машиной.
В общем, хотя машины уже способны на многое, до изящной реализации знаменитого теста им еще придется потрудиться.
Способны ли роботы мыслить? Какой искусственный интеллект стоит признать разумным? Может показаться, что эти вопросы стали актуальны только в нашем веке, тогда как на самом деле научное сообщество решает их уже очень давно. Яркий пример – знаменитый тест Тьюринга, разработанный еще в 1950 году.
Недостатки теста Тьюринга
Одним из главных недостатков теста видится то, что фактически перед машиной ставится задача запутать, обмануть человека. Говорит ли это о том, что мы может признать мыслящими и разумными только тех, кто умеет обманывать и манипулировать? Этот вопрос, скорее, лежит в области философии. Тем более что в теории прошедший тест Тьюринга робот должен хорошо имитировать, повторять действия человека, а не запутывать судью. На практике же с тестом лучше других справлялись «манипуляторы» – например, те, кто допускал опечатки в ответах. Машин даже специально этому обучали, чтобы их переписка выглядела «естественнее». Еще одна распространенная уловка компьютера: умолчать о чем-либо, дать неполный ответ на вопрос или вовсе сослаться на незнание. Иначе искусственный интеллект можно вычислить по тому, что он «слишком умный».
Кроме того, несмотря на заявленную цель в определении разумности и способности мыслить, фактически тест оценивает схожесть речевого поведения компьютера и человека. Это не может быть объективной оценкой ИИ в целом, особенно сегодня, когда компьютеры и роботы по скорости вычислений существенно превосходят человека и могут добиться впечатляющих результатов в самых различных областях. То есть саму по себе возможность «переписываться, как человек» нельзя признать значительным достижением. Фактически ориентация на тест Тьюринга, отмечают его критики, скорее тормозит развитие прогресса, чем подстегивает его. Вместо того чтобы создавать что-то еще более совершенное и превосходящее нас, мы прививаем роботу наши нелучшие черты и не даем ему двигаться вперед. Однако здесь надо сделать скидку на то, что, когда тест создавался, способности у компьютеров были существенно ниже.
Одним из критиков теста Тьюринга и тезиса о том, что роботы могут мыслить, уже почти 40 лет выступает Джон Серл, который в качестве доказательства представил мысленный эксперимент «Китайская комната» .
Премия Лёбнера за прохождение теста Тьюринга
Надо сказать, что большинство разработчиков при создании роботов не ставит себе непременную цель – пройти тест Тьюринга. С практической точки зрения эту задачу вряд ли можно считать первостепенной. В то же время в 1991 году была учреждена ежегодная премия AI Loebner, или Премия Лёбнера. В ее рамках искусственные интеллекты соревнуются в прохождении этого теста. Она предусматривает три медали – золотую (общение с элементами видео и аудио), серебряную (за текстовую переписку) и бронзовую (вручается той машине, которая в данном году достигла лучшего результата). Согласно правилам, конкурс будет закрыт, когда кто-либо из участников получит золотую медаль. Пока же ни золотая, ни серебряная вручены не были.
При этом некоторые машины получали бронзовые медали несколько раз, например, A.L.I.C.E. (Artificial Linguistic Internet Computer Entity, дословно – Искусственное лингвистическое интернет-компьютерное существо). Обычно на конкурсе представлены проекты, которые изначально ориентированы именно на общение с человеком, в последнее время особенно много чат-ботов. Учитывая развитие мессенджеров и, соответственно, чат-ботов, можно ожидать, что на премию будет поступать еще больше интересных заявок.
Этот тест это по сути экзамен для машины, успешная сдача которого будет означать, что машина может мыслить подобно человеку. Представьте, что вы поочередно задаёте вопросы двум собеседникам не видя их. Один из собеседников - компьютер, тема беседы может быть абсолютно любой, время предположим 5 минут. По истечении этого времени вы должны будете ответить на вопрос: кто из собеседников является компьютером? если вы ответили не верно, или сомневаетесь, то считается, что машина прошла тест. Такой относительно простой подход может помочь ответить на такой сложный философский вопрос мыслит ли искусственно созданная машина?
Конечно, этот подход имеет свои ограничения, спорные моменты и недостатки. Например из работы написанной Тьюрингом, не ясно, должен ли судья заранее знать, что один из собеседников - машина. Одним из главных аргументов для критики теста является то, что возможность поддерживать беседу на уровне человека, это не обязательно способность мыслить в широком смысле этого слова. Теоретически можно создать программу, которая будет просто механически имитировать поведение человека и пройдёт тест, но при этом не будет не способна мыслить. Однако несмотря на критику и тот факт, что тест был придуман ещё 70 лет назад он не теряет актуальности и сейчас.
Сегодня существует ежегодный конкурс на котором разработчики и инженеры со всего мира представляют свои программы которые пытаются пройти тест Тьюринга. Победителю вручается медаль и премия Лёбнера (по фамилии создателя конкурса Хью Лёбнера). Золотая медаль вручается авторам программы, которая пройдёт тест общаясь с людьми в аудио режиме с визуальным контактом, то есть при обычном разговоре. Серебренная - в текстовом режиме, то есть с помощью переписки. И наконец бронзовая медаль вручается той программе, которая хоть и не прошла тест, но по мнению судей показала наиболее близкое к человеческому поведение. Конкурс проводится уже почти 30 лет, но за это время ещё никто не смог получить серебренную и золотую медаль, другими словами искусственный интеллект пока не прошёл тест Тьюринга . Создателям первой программы, которая сможет пройти полноценный тест с визуальным, аудио и текстовым контактом будет вручена золотая медаль, премия 100000$, после чего конкурс будет навсегда закрыт.
Справедливости ради нужно отметить, что крупные компании занимающиеся искусственным интеллектом и машинным обучением не участвуют в таких соревнованиях и не ставят своей целью разработку программ для его прохождения. Они занимаются более прикладными и конкретными задачами, поскольку само по себе прохождение теста не несёт в себе практической ценности. Возможно именно поэтому пока никому не удалось создать машину, способную пройти тест Тьюринга, но глядя на успехи искусственного интеллекта нет сомнений, что это очень скоро произойдёт.
Прошел ли кто-либо тест Тьюринга?
На данный момент считается, что в своем строгом варианте тест за всю почти 70-летнюю историю пройден не был. Иногда машинам удается убедить собеседника в том, что он разговаривает с человеком, однако часто в таких случаях нельзя говорить именно о прохождении теста Тьюринга. Например, это распространяется на ситуации, когда «судья» не знает, что общается с машиной и что он вообще участвует в каком-то эксперименте. Получается, вместо того чтобы наблюдать за собеседником и делать выводы, подневольный «экспериментатор» просто верит, что общается с человеком, потому что изначально нацеливался именно на такой разговор. Также тест Тьюринга вроде бы удавался, когда круг тем был ограничен и/или времени на общение давалось мало. Но и здесь не соблюдался важный принцип изначального теста – максимальная естественность беседы. Поэтому в общем и целом последователи теста отмечают, что с ним еще никто не справился.
В 2014 году по СМИ разошлась новость, что тест якобы пройден. Сделал это Евгений Густман (Eugene Goostman), «13-летний мальчик из Одессы». По крайней мере в такую легенду поверили 10 из 30 судей в рамках конкурса, организованного британским Университетом Рединга в память 60-летия со дня смерти Тьюринга. В 2012 году, на аналогичном конкурсе в честь 100-летия со дня его рождения, Евгений смог убедить только 29% судей. Однако его результаты не считаются полноценным прохождением теста. Во-первых, потому что перед нами мальчик, а не взрослый, во-вторых, потому что английский язык для него неродной. Таким образом, логические ошибки и пробелы в репликах, а также уход от ответа на неудобных для машины темах судьи могли объяснять для себя тем, что «он же еще ребенок» и «он еще плохо знает язык».
В 2015 году прошел тест Тьюринга для чат-ботов на русском языке. Эксперимент организовали компания «Наносемантика» и Фонд Сколково в рамках выставки Startup Village. Тогда в конкурсе победила «14-летняя Соня Гусева из Петербурга», которую признали человеком 47% из 15 судей.
Тест Тьюринга: общее описание
За почти 70 лет со времен первой публикации процедура прохождения претерпевала изменения, однако суть теста Тьюринга остается прежней. Кратко ее можно выразить следующим образом: если, общаясь с человеком и машиной, экспериментатор не сможет определить, кто из них кто, значит, машиной тест пройден. Иными словами, идея теста заключается в том, что компьютер своими ответами должен убедить собеседника (он же судья) в своей человечности. По мнению Тьюринга, это свидетельствует о способности искусственного интеллекта мыслить и должно стать основанием для признания его разумности.
Тест Алана Тьюринга является эмпирическим. Это значит, что он основан на опыте, наблюдениях, данных, полученных опытным путем. Идея данного теста возникла из салонной игры (игры для вечеринок того времени) – Imitation Game (Игра в имитацию). В ней участвовали как минимум три человека: женщина, мужчина и «судья» (любого пола). Мужчина и женщина уходили в разные комнаты и оттуда передавали третьему игроку записочки. По ним нужно было определить, в какой комнате представитель какого пола находится. При этом они старались запутать «судью»: женщина могла выдавать себя за мужчину и наоборот.
Конечно, чтобы тест состоялся, судья не должен видеть собеседника, слышать его голос и т.д. В противном случае эксперимент явно будет провален, но это не будет связано с интеллектуальными возможностями машины. Как правило, формой общения выбирается электронная переписка. В изначальной версии теста человек общался с двумя субъектами – другим человеком и машиной. Чуть позже Тьюринг видоизменил прохождение – перед ИИ ставилась задача убедить в своей разумности ряд судей, которые, в свою очередь, общались с несколькими людьми и несколькими машинами. Это в том числе позволяет избежать субъективности в оценках и снизить риск простого угадывания. Количество подопытных машин и людей в современных версиях теста разнится, как и время их общения.
Судья может говорить со своими виртуальными собеседниками о чем пожелает: вопросы теста Тьюринга не имеют ограничений. Для машины это представляет дополнительную сложность. Чтобы выполнить такое задание, компьютерная программа должна не просто понимать человеческий язык, но и давать естественные ответы по самым разным темам, отделяя важную информацию от несущественной для того или иного направления беседы.
Впервые тест был описан Тьюрингом в статье Computing Machinery and Intelligence, опубликованной в философском журнале Mind.
Ответы от собеседника судье приходят через заданные промежутки времени, чтобы по скорости их появления нельзя было сделать никаких выводов. Интересно, что раньше недостатки программного обеспечения приводили к тому, что машины реагировали медленнее человека, и фора давалась именно компьютеру. Сейчас же искусственный интеллект, напротив, работает быстрее, и время на размышление нужно уже людям.
Фильм Ex Machina (2014 г.) построен на интерпретации теста Тьюринга. Главный герой уже знает, что перед ним робот, но посредством общения этому роботу нужно убедить собеседника в своей человечности.
Читайте также: