Тест компьютер или человек
Способны ли роботы мыслить? Какой искусственный интеллект стоит признать разумным? Может показаться, что эти вопросы стали актуальны только в нашем веке, тогда как на самом деле научное сообщество решает их уже очень давно. Яркий пример – знаменитый тест Тьюринга, разработанный еще в 1950 году.
Премия Лёбнера за прохождение теста Тьюринга
Надо сказать, что большинство разработчиков при создании роботов не ставит себе непременную цель – пройти тест Тьюринга. С практической точки зрения эту задачу вряд ли можно считать первостепенной. В то же время в 1991 году была учреждена ежегодная премия AI Loebner, или Премия Лёбнера. В ее рамках искусственные интеллекты соревнуются в прохождении этого теста. Она предусматривает три медали – золотую (общение с элементами видео и аудио), серебряную (за текстовую переписку) и бронзовую (вручается той машине, которая в данном году достигла лучшего результата). Согласно правилам, конкурс будет закрыт, когда кто-либо из участников получит золотую медаль. Пока же ни золотая, ни серебряная вручены не были.
При этом некоторые машины получали бронзовые медали несколько раз, например, A.L.I.C.E. (Artificial Linguistic Internet Computer Entity, дословно – Искусственное лингвистическое интернет-компьютерное существо). Обычно на конкурсе представлены проекты, которые изначально ориентированы именно на общение с человеком, в последнее время особенно много чат-ботов. Учитывая развитие мессенджеров и, соответственно, чат-ботов, можно ожидать, что на премию будет поступать еще больше интересных заявок.
Итак сегодня мы поговорим о самом известном тесте для оценки говорящего бота — это тест Тьюринга.
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить.
Стандартное звучание закона: «Если компьютер может работать так, что человек не в состоянии определить, с кем он общается — с другим человеком или с машиной, — считается, что он прошел тест Тьюринга»
Разумные, подобные человеку машины на протяжении многих десятилетий были одной из основных тем научно-фантастических произведений. С момента зарождения современной вычислительной техники умы людей занимал вопрос: можно ли построить машину, которая могла бы в чем-то заменить человека. Попыткой создать твердую эмпирическую почву для решения этого вопроса и стал тест, разработанный Аланом Тьюрингом.
Первый вариант теста, опубликованный в 1950 году, был несколько запутанным. Современная версия теста Тьюринга представляет собой следующее задание. Группа экспертов общается с неизвестным существом. Они не видят своего собеседника и могут общаться с ним только через какую-то изолирующую систему — например, клавиатуру. Им разрешается задавать собеседнику любые вопросы, вести разговор на любые темы. Если в конце эксперимента они не смогут сказать, общались ли они с человеком или с машиной, и если на самом деле они разговаривали с машиной, можно считать, что эта машина прошла тест Тьюринга.
Существуют, по крайней мере, три основных варианта теста Тьюринга, два из которых были предложны в статье «Вычислительные машины и разум», а третий вариант, по терминологии Саула Трейджера (Saul Traiger), является стандартной интерпретацией.
Наряду с тем, что существует определенная дискуссия, соответствует ли современная интерпретация тому, что описывал Тьюринг, либо она является результатом неверного толкования его работ, все три версии не считаются равносильными, их сильные и слабые стороны различаются.
Имитационная игра
В той версии, которую С. Г. Стеррет (S. G. Sterret) называет «Первоначальный тест на основе имитационной игры» (Original Imitation Game Test), Тьюринг предлагает, чтобы роль игрока А исполнял компьютер. Таким образом, задачей компьютера является притвориться женщиной, чтобы сбить с толку игрока С. Успешность выполнения подобной задачи оценивается на основе сравнения исходов игры, когда игрок А — компьютер, и исходов, когда игрок А — мужчина. Если, по словам Тьюринга, «ведущий беседу игрок после проведения игры [с участием компьютера] выносит неверное решение так же часто, как и после проведения игры с участием мужчины и женщины», то можно говорить о том, что компьютер разумен.
Второй вариант предложен Тьюрингом в той же статье. Как и в «Первоначальном тесте», роль игрока А исполняет компьютер. Различие заключается в том, что роль игрока В может исполнять как мужчина, так и женщина.
«Давайте рассмотрим конкретный компьютер. Верно ли то, что модифицируя этот компьютер с целью иметь достаточно места для хранения данных, увеличивая скорость его работы и задавая ему подходящую программу, можно сконструировать такой компьютер, чтобы он удовлетворительно выполнял роль игрока А в имитационной игре, в то время как роль игрока В выполняет мужчина?», — Тьюринг, 1950, стр. 442.
В этом варианте оба игрока А и В пытаются склонить ведущего к неверному решению.
Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет, Стеррет считает, что этот вариант Тьюрингом подразумевался и, таким образом, совмещает второй вариант с третьим. В это же время группа оппонентов, включая Трейджера, так не считает. Но это все равно привело к тому, что можно назвать «стандартной интерпретацией». В этом варианте игрок А — компьютер, игрок В — человек любого пола. Задачей ведущего является теперь не определить кто из них мужчина и женщина, а кто из них компьютер, а кто — человек.
Для организации мероприятий по празднованию в 2012 году столетия со дня рождения Тьюринга создан специальный комитет, задачей которого является донести мысль Тьюринга о разумной машине, отраженную в таких голливудских фильмах, как «Бегущий по лезвию», до широкой публики, включая детей. В работе комитета участвуют: Кевин Ворвик, председатель, Хьюма Ша, координатор, Ян Бланд (Ian Bland), Крис Чапмэн (Chris Chapman), Марк Аллен (Marc Allen), Рори Данлоуп (Rory Dunlop), победители конкурса на получение премии Лёбнера Робби Гарне и Фред Робертс (Fred Roberts). Комитет работает при поддержке организации «Женщины в технике» (Women in Technology) и Daden Ltd.
Концепция мыслящих машин лежит в основе несметного числа фантастических книг и фильмов. Даже в более-менее серьёзных футуристических прогнозах время от времени исходят из предположения, что мы создадим не просто искусственную жизнь, но искусственное сознание. И эта перспектива завораживает. Разумеется, в своих мечтах о мыслящих машинах мы априори считаем, что их мышление будет построено по образу нашего. С определёнными отличиями вроде не отягощённости потребностями тела, эмоциями и прочими затруднениями, связанными с биологическим бытием. Но если вдуматься, то никто не гарантирует того, что машины будут думать, как мы.
А задавались ли вы когда-нибудь вопросом, что имеется в виду под словом «думать»? Да, на интуитивном уровне мы можем осознать своё собственное мышление, человеческое, но что насчёт животных? Думают ли шимпанзе? А вороны? Осьминог?
Допустим, инопланетные разумные формы жизни существуют. Вполне вероятно, что их разум будет настолько сильно отличаться от нашего, что мы даже не сможем осознать их разумность. Кто знает, может быть, инопланетяне уже были где-то поблизости, но из-за фундаментальных различий разума даже не заметили нас. А мы — их.
Безусловно, животные обладают когнитивными способностями, отличными от наших, нацеленными на использование инструментов, понимание причинно-следственных связей, коммуникацию с другими существами, и даже на осознание целенаправленного мышления у других. Вероятно, к «мышлению» нужно отнести все эти задачи. Представим, что нам удалось создать машину, обладающую всеми перечисленными возможностями, то есть, по нашему мнению — думающую. Тогда нам останется только похвалить себя и лечь на диван с чувством выполненного долга. Но сможет ли машина встать на ступень выше, сможет ли она думать как человек? И если сможет, то как нам об этом узнать? Ориентироваться на одно лишь поведение компьютера было бы ошибкой. Если он будет действовать так, словно умеет думать, то это ещё не будет означать, что всё так и есть. Может быть, это будет искусной имитацией, разновидностью философского зомби.
В своё время этот вопрос — как распознать разумность машины — подвигла Алана Тьюринга на создание его знаменитого теста, в течение которого компьютер взаимодействует с человеком посредством текста на экране, и должен в большинстве случаев убедить живого собеседника, что он тоже является человеком. Для Тьюринга всё сводилось именно к поведению машины, а не ко «внутренней цифровой жизни».
Однако для кого-то эта внутренняя жизнь всё же важна. Знаменитый философ Томас Нагель в своей статье «Каково быть летучей мышью?» высказал точку зрения, сознание не отождествляется с мозгом. Есть «что-то, чему нравится» получать сознательные переживания, опыт. То есть в нас есть нечто, чему нравится смотреть на красивые объекты, или заниматься каким-то делом. Человек — это нечто большее, чем набор состояний его мозга.
Но тогда можно задаться вопросом: а может ли существовать «что-то, чему нравится» быть думающей машиной? Допустим, нам когда-нибудь нам удастся создать разумный компьютер. И если при проведении теста Тьюринга человек спросит: «Есть ли у тебя сознание?», то в ответ может получить: «Как бы я об этом узнал?».
Вычисления — и больше ничего?
Согласно современным представлениям, в основе компьютерного мышления должны лежать исключительно вычисления: количество операций в секунду и логических переходов. Но мы не уверены, что мышление — или сознание — есть производная от вычислительной мощности. По крайне мере, в условиях использования двоичных компьютеров. Может ли мышление являться чем-то большим, чем набор алгоритмов? Что ещё нам нужно? А если всё дело лишь в вычислениях, то почему человеческий мозг не слишком-то в этом и силён? Ведь большинство из нас сталкиваются с затруднениями, когда нужно перемножить в уме пару двузначных чисел, не говоря уже о более сложных задачах. Или в нашем подсознании осуществляется какая-то глубокая обработка данных, что в конце концов выражается в ограничении наших сознательных вычислительных возможностей (аргумент в пользу так называемого «сильного ИИ»)?
По сравнению с компьютерами, наши способности по манипулированию необработанными данными никуда не годятся. Зато компьютерам очень плохо даются такие вещи, как языки, поэзия, распознавание голоса, интерпретирование сложных поведенческих шаблонов и формирование всеобъемлющих суждений.
Если способности компьютеров столь отличаются от наших, то как можно ожидать, что в конце концов они смогут думать как мы? Быть может, в будущем компьютеры обретут все черты человеческого мышления в обмен на ухудшение способностей к арифметическим вычислениям?
О вере, сомнении и ценности
Если компьютеры действительно начнут думать как человек, то их разуму также будут свойственны понятия вроде «веры» и «сомнения». А что может означать для компьютера «вера во что-то»? Конечно, если не считать такой тривиальной ситуации, как действие без учёта вероятности ошибки? Сможет ли когда-нибудь произойти так, что компьютер искренне засомневается, но пересилит своё сомнение и всё равно продолжит действовать?
Для человеческого разума огромное значение имеет понятие «ценность». Его можно считать одним из основополагающих, движущих факторов. О чём мы думаем в тот или иной момент времени, и почему мы об этом думаем? Сможет ли компьютерный разум придавать ценность хоть чему-либо? И если да, то чему?
Было бы замечательно, если бы смогли создать компьютер, разделяющий систему человеческих ценностей. Но мы, вообще-то, сами не можем с уверенностью сказать, что это такое, а уж тем более как запрограммировать эту систему. К тому же, если компьютеры смогут программировать сами себя, то им может придти в голову, что ценности можно поменять.
Учитывая, сколько сил и ресурсов тратится на создание искусственного интеллекта, сейчас самое время попытаться понять, каким мы хотим видеть мыслящий компьютер. А для этого, возможно, нам нужно сначала постараться понять самих себя.
Этот тест назван в честь Ады Лавлейс, математика из XIX века, которую считают первым в истории программистом. Он призван определить наличие интеллекта у машины через способность её к творчеству. Первоначально тест предложили в 2001 году: тогда машина должна была создать произведение искусства, которое разработчик машины принял бы за созданное человеком. Так как чётких критериев успеха нет, тест получается слишком неточным.
В прошлом году профессор Марк Рейдел из Технологического института Джорджии обновил тест, чтобы сделать его менее субъективным. Теперь машина должна создать произведение в определённом жанре и в определённых творческих рамках, заданных человеком-судьёй. Проще говоря, это должно быть произведение искусства в конкретном стиле. Скажем, судья может попросить машину нарисовать маньеристскую картину в духе Пармиджанино или написать джазовое произведение в духе Майлза Дэвиса. В отличие от оригинального теста, машины работают в заданных рамках, и поэтому судьи могут оценивать результат более объективно.
Тест Тьюринга: общее описание
За почти 70 лет со времен первой публикации процедура прохождения претерпевала изменения, однако суть теста Тьюринга остается прежней. Кратко ее можно выразить следующим образом: если, общаясь с человеком и машиной, экспериментатор не сможет определить, кто из них кто, значит, машиной тест пройден. Иными словами, идея теста заключается в том, что компьютер своими ответами должен убедить собеседника (он же судья) в своей человечности. По мнению Тьюринга, это свидетельствует о способности искусственного интеллекта мыслить и должно стать основанием для признания его разумности.
Тест Алана Тьюринга является эмпирическим. Это значит, что он основан на опыте, наблюдениях, данных, полученных опытным путем. Идея данного теста возникла из салонной игры (игры для вечеринок того времени) – Imitation Game (Игра в имитацию). В ней участвовали как минимум три человека: женщина, мужчина и «судья» (любого пола). Мужчина и женщина уходили в разные комнаты и оттуда передавали третьему игроку записочки. По ним нужно было определить, в какой комнате представитель какого пола находится. При этом они старались запутать «судью»: женщина могла выдавать себя за мужчину и наоборот.
Конечно, чтобы тест состоялся, судья не должен видеть собеседника, слышать его голос и т.д. В противном случае эксперимент явно будет провален, но это не будет связано с интеллектуальными возможностями машины. Как правило, формой общения выбирается электронная переписка. В изначальной версии теста человек общался с двумя субъектами – другим человеком и машиной. Чуть позже Тьюринг видоизменил прохождение – перед ИИ ставилась задача убедить в своей разумности ряд судей, которые, в свою очередь, общались с несколькими людьми и несколькими машинами. Это в том числе позволяет избежать субъективности в оценках и снизить риск простого угадывания. Количество подопытных машин и людей в современных версиях теста разнится, как и время их общения.
Судья может говорить со своими виртуальными собеседниками о чем пожелает: вопросы теста Тьюринга не имеют ограничений. Для машины это представляет дополнительную сложность. Чтобы выполнить такое задание, компьютерная программа должна не просто понимать человеческий язык, но и давать естественные ответы по самым разным темам, отделяя важную информацию от несущественной для того или иного направления беседы.
Впервые тест был описан Тьюрингом в статье Computing Machinery and Intelligence, опубликованной в философском журнале Mind.
Ответы от собеседника судье приходят через заданные промежутки времени, чтобы по скорости их появления нельзя было сделать никаких выводов. Интересно, что раньше недостатки программного обеспечения приводили к тому, что машины реагировали медленнее человека, и фора давалась именно компьютеру. Сейчас же искусственный интеллект, напротив, работает быстрее, и время на размышление нужно уже людям.
Фильм Ex Machina (2014 г.) построен на интерпретации теста Тьюринга. Главный герой уже знает, что перед ним робот, но посредством общения этому роботу нужно убедить собеседника в своей человечности.
Испытание IKEA
Этот тест придумал Чарли Ортиц, менеджер по искусственному интеллекту в компании Nuance Communications. По словам Ортица, недостаток теста Тьюринга в том, что он проверяет в первую очередь языковые способности, опуская другие важные составляющие разума — восприятие и физические действия. Проще говоря, у компьютеров, проходящих тест Тьюринга, нет глаз или рук.
Испытание IKEA (также известное как строительное испытание), придуманное Ортицом, призвано обойти эти ограничения. Его могут пройти только роботы, способные построить физические структуры из, например, деталей мебели IKEA или даже кубиков LEGO. Робот, проходящий испытание IKEA, должен давать вербальные инструкции и описания структур, самостоятельно манипулировать деталями и физическими компонентами, следить за постройкой, отвечать на вопросы и описывать ход работы.
Визуальный тест Тьюринга
Как и Ортиц, создатели визуального теста Тьюринга пытаются уменьшить роль языка в первоначальном тесте. Сотрудники Эксетерского университета в Англии Майкл Барклай и Энтони Галтон придумали тест, который проверяет визуальные способности машины, то есть может ли она «видеть», как человек. Тест можно посмотреть здесь.
Прошел ли кто-либо тест Тьюринга?
На данный момент считается, что в своем строгом варианте тест за всю почти 70-летнюю историю пройден не был. Иногда машинам удается убедить собеседника в том, что он разговаривает с человеком, однако часто в таких случаях нельзя говорить именно о прохождении теста Тьюринга. Например, это распространяется на ситуации, когда «судья» не знает, что общается с машиной и что он вообще участвует в каком-то эксперименте. Получается, вместо того чтобы наблюдать за собеседником и делать выводы, подневольный «экспериментатор» просто верит, что общается с человеком, потому что изначально нацеливался именно на такой разговор. Также тест Тьюринга вроде бы удавался, когда круг тем был ограничен и/или времени на общение давалось мало. Но и здесь не соблюдался важный принцип изначального теста – максимальная естественность беседы. Поэтому в общем и целом последователи теста отмечают, что с ним еще никто не справился.
В 2014 году по СМИ разошлась новость, что тест якобы пройден. Сделал это Евгений Густман (Eugene Goostman), «13-летний мальчик из Одессы». По крайней мере в такую легенду поверили 10 из 30 судей в рамках конкурса, организованного британским Университетом Рединга в память 60-летия со дня смерти Тьюринга. В 2012 году, на аналогичном конкурсе в честь 100-летия со дня его рождения, Евгений смог убедить только 29% судей. Однако его результаты не считаются полноценным прохождением теста. Во-первых, потому что перед нами мальчик, а не взрослый, во-вторых, потому что английский язык для него неродной. Таким образом, логические ошибки и пробелы в репликах, а также уход от ответа на неудобных для машины темах судьи могли объяснять для себя тем, что «он же еще ребенок» и «он еще плохо знает язык».
В 2015 году прошел тест Тьюринга для чат-ботов на русском языке. Эксперимент организовали компания «Наносемантика» и Фонд Сколково в рамках выставки Startup Village. Тогда в конкурсе победила «14-летняя Соня Гусева из Петербурга», которую признали человеком 47% из 15 судей.
Схемы Винограда
Чат-боты, проходящие тест Тьюринга, умело обманывают судей и заставляют поверить, что они — люди. По словам Гектора Левеска, профессора информатики в Университете Торонто, такой тест лишь показывает, как легко обмануть человека, особенно в короткой текстовой переписке. Но из теста Тьюринга невозможно понять, есть ли у машины интеллект или хотя бы понимание языка.
В 2011 году Левеск опубликовал статью, в которой предложил новый тест, так называемую «схему Винограда», названную в честь учёного Терри Винограда. Проходя этот тест, машина отвечает на вопросы с двумя вариантами ответа. Звучит просто — и для людей эти вопросы действительно простые, — но они сформулированы так, что без естественного понимания языка машина испытывает трудности. Вот один из вопросов: «Трофей не влезал в коричневый чемодан, потому что он был слишком маленьким (большим). Что было слишком маленьким (большим)?». Если в вопросе используется слово «маленьким», то ответ — трофей, если «большим» — то чемодан. Эрнест Дэвис, коллега Левеска, работавший с ним над исследованием, опубликовал целую библиотеку вопросов, которые могут быть использованы в таком тесте. Чтобы ответить правильно, нужно обладать навыками, которые до сих пор недоступны компьютерам: например, уметь представлять пространство, отношения между людьми, размер объектов, даже нюансы политики — всё зависит от конкретных вопросов.
Когда боты смогут говорить с людьми на равных, это станет важной вехой для ИИ, но не таким уж значительным моментом, как его рисуют научные фантасты. Филлип Болл с BBC провел исследование сильных и слабых сторон противоречивого теста Тьюринга. Алан Тьюринг сделал множество предсказаний на тему искусственного интеллекта, но одно из них может показаться знакомым для тех, кто слышал предупреждения Стивена Хокинга или Элона Маска на тему угрозы ИИ в 2015 году. «На каком-то этапе… мы должны ожидать, что машины перехватят контроль», — писал Тьюринг в 1951 году.
При этом он не только был настроен оптимистично по поводу перспектив, но и, возможно, наслаждался ими: его друг Робин Ганди вспоминал, что когда Тьюринг читал некоторые пассажи в своей основополагающей работе «Тест Тьюринга», он «всегда улыбался, иногда хихикал». Как минимум это дает нам повод усомниться в грустном изображении Тьюринга в биографическом фильме 2014 года «Игра в имитацию».
Тьюринг повлиял на то, как мы видим ИИ — тест Тьюринга часто приводят в качестве важного порога, который должен преодолеть искусственный интеллект на пути к истинному интеллекту. Если машинный интеллект сможет обмануть человека в процессе разговора, предположил Тьюринг, это будет очень важный момент.
Кроме того, на тест Тьюринга часто ссылались в изображениях роботов и искусственной жизни в популярной культуре — из последних можно припомнить «Из машины» Алекса Гарленда. Чаще всего, эти литературные представления показывали тест Тьюринга неверно, превращая его в чистую меру того, может ли робот превзойти человека. Оригинальный тест Тьюринга предназначался не для этого, а скорее для принятия решения, можно ли посчитать, что машина думает в манере, неотличимой от человеческой, — и это, как говорил сам Тьюринг, зависит от того, какие вопросы вы задаете.
Более того, есть много других аспектов человечества, которыми пренебрегает этот тест — поэтому некоторые исследователи разрабатывают новые варианты теста Тьюринга, которым не обязательно поддерживать правдоподобный разговор.
Возьмем, к примеру, игры. Чтобы соперничать с человеческими когнитивными возможностями или превзойти их в чем-то более сложном, чем простой перебор цифр, Тьюринг предположил, что машина может начать с шахмат — игры, которая ассоциируется со стратегическим мышлением. После победы Deep Blue над чемпионом мира по шахматам Гарри Каспаровым в 1997 году, мы явно пересекли этот порог. Теперь у нас есть алгоритмы, которые чуть ли не всесильны (в долгосрочной перспективе) при игре в покер.
А как насчет чего-то более творческого и невыразимого, вроде музыки? Машины и здесь могут нас надурить. Уже существует музыкальный компьютер lamus, который производит настолько сложные работы, что они достойны внимания профессиональных музыкантов. Разработчик lamus Франциско Вико из Университета Малаги и его коллеги провели тест Тьюринга, попросив 250 субъектов — половина из которых была представлена профессиональными музыкантами — прослушать одну из композиций «ламуса» и музыку похожего стиля, написанную людьми, и решить, кто есть кто. «Произведения компьютера вызывали те же чувства и эмоции, что и написанные людьми, опрашиваемые не могли их различить, — говорит Вико. — Похожие результаты мы могли получить, подбросив монетку».
Некоторые утверждают, что компьютерная поэзия тоже прошла тест, хотя с оговоркой, мол, судьи попались не проницательные. Вдумайтесь в строку: «О, сладкий запах твой, алмазная архитектура».
Есть еще «сенсорный тест Тьюринга». Сам Тьюринг утверждал, что если мы когда-нибудь обнаружим материал, который может идеально имитировать человеческую кожу, едва ли мы будем пытаться сделать машину человечней, наращивая ей искусственное мясо. Тем не менее робот Ава в фильме «Из машины» показал, что это целесообразно, так как такая машина идеально вольется в человеческое общество.
Наша текущая мотивация немного отличается. Мы знаем, что современные протезы конечностей могут существенно уменьшать психологическое и эмоциональное воздействие, оказываемое на их носителей. Для этого, к примеру, инженер-механик Джон-Джон Кабибихан из Университета Катара и его коллеги работают над материалами, которые на вид и на ощупь неотличимы от человеческой кожи. В начале этого года он и его коллеги сообщили, что создали мягкий силиконовый полимер, который, будучи нагретым до температуры тела с помощью подкожных электронных нагревателей, напоминает реальную кожу. Ученые создали искусственную руку, обернув напечатанный на 3D-принтере резиновый скелет электрически нагретым полиметром и прикасались им к предплечьям людей, чтобы те не видели. Участники теста не смогли провести четких различий между прикосновениями искусственных и настоящих конечностей.
Аве точно понравится, но некоторые исследователи роботов считают, что существуют весьма веские этические причины оставлять зазор между людьми и роботами.
Несколько более прозаической причиной необходимости разработки новых вариаций теста Тьюринга может быть задача не обмануть человека, а просто определить возможности машины. Ученый из области информатики Стюарт Геман из Брауновского университета в Провиденсе, штат Род-Айленд, и сотрудники Университета Джона Хопкинса в Балтиморе недавно описали «визуальный тест Тьюринга» для системы компьютерного зрения, которая научилась извлекать осмысленные отношения и тезисы из сцены, как это делаем мы, а не просто идентифицировать отдельные объекты. Такая способность станет чрезвычайно важной в свете развития систем шпионажа и биометрического сканирования.
К примеру, глядя на уличную сцену, компьютер может ответить на вопросы: «Идет ли первый человек по тротуару?», «Взаимодействует ли второй человек с каким-нибудь объектом?», «Разговаривают ли человек два и человек три?».
Что касается оригинального теста Тьюринга, его будущее, вероятно, будет в Интернете. Онлайн-игроки уже иногда сомневаются в том, соперничают они с человеком или с игровым ботом — а некоторые вообще предпочитают играть с ботами. Некоторые общаются с ботами в чатах.
В прошлом году алгоритм, разработанный командой российских программистов, убедил одно из трех судей в ходе коротких онлайн-чатов, что является настоящим 13-летним украинским мальчиком Евгением Густманом. Некоторые критики могут заявить, что это сомнительное достижение, но основной вопрос остался в том, прошел ли бот тест Тьюринга, и если да, то в чем тогда его польза? Очевидно, сам Тьюринг имел в виду более высокий уровень диалога между человеком и машиной.
В общем, хотя машины уже способны на многое, до изящной реализации знаменитого теста им еще придется потрудиться.
Недостатки теста Тьюринга
Одним из главных недостатков теста видится то, что фактически перед машиной ставится задача запутать, обмануть человека. Говорит ли это о том, что мы может признать мыслящими и разумными только тех, кто умеет обманывать и манипулировать? Этот вопрос, скорее, лежит в области философии. Тем более что в теории прошедший тест Тьюринга робот должен хорошо имитировать, повторять действия человека, а не запутывать судью. На практике же с тестом лучше других справлялись «манипуляторы» – например, те, кто допускал опечатки в ответах. Машин даже специально этому обучали, чтобы их переписка выглядела «естественнее». Еще одна распространенная уловка компьютера: умолчать о чем-либо, дать неполный ответ на вопрос или вовсе сослаться на незнание. Иначе искусственный интеллект можно вычислить по тому, что он «слишком умный».
Кроме того, несмотря на заявленную цель в определении разумности и способности мыслить, фактически тест оценивает схожесть речевого поведения компьютера и человека. Это не может быть объективной оценкой ИИ в целом, особенно сегодня, когда компьютеры и роботы по скорости вычислений существенно превосходят человека и могут добиться впечатляющих результатов в самых различных областях. То есть саму по себе возможность «переписываться, как человек» нельзя признать значительным достижением. Фактически ориентация на тест Тьюринга, отмечают его критики, скорее тормозит развитие прогресса, чем подстегивает его. Вместо того чтобы создавать что-то еще более совершенное и превосходящее нас, мы прививаем роботу наши нелучшие черты и не даем ему двигаться вперед. Однако здесь надо сделать скидку на то, что, когда тест создавался, способности у компьютеров были существенно ниже.
Одним из критиков теста Тьюринга и тезиса о том, что роботы могут мыслить, уже почти 40 лет выступает Джон Серл, который в качестве доказательства представил мысленный эксперимент «Китайская комната» .
Читайте также: