fregimus: (Default)
[personal profile] fregimus
Про тест Тьюринга все слышали? Все, да? Вот сейчас мы и будем его проходить.

Тест наш будет всего из одного вопроса: как Тьюринг описывал свою идею теста, который потом получил это самое расхожее название?

Если вы ответили на этот вопрос, то вы прошли тест, и, значит, вы — бот, слава вам! А для людей — рассказываю. (Это, конечно, шутка. Никакого шовинизма: роботам тоже можно.)

Статья Тьюринга написана более 60 лет назад. Это было время появления вычислительной математики (ВМ). Сейчас, много лет спустя, мы так и не осознали до конца, что такое ВМ. Знаменитое утверждение Абельсона о том, что computer science (английское название ВМ, буквально «компьютерная наука») это не наука не о компьютерах, совершенно точно обозначает положение дел и сегодня. Компьютеры изменяют мир, а осознать толком мы их так и не можем. Но вернемся к статье Тьюринга. Ссылка на оригинал есть в конце этого сообщения.

В своей статье Тьюринг рассуждает над вопросом «может ли машина думать». Поскольку понятия «машина» и «думать» достаточно расплывчаты, он размышляет о том, как переформулировать задачу в иных терминах. По части «думания» он рассматривает игру в «имитацию», с игроками М и Ж, и ведущим В. В задает М и Ж вопросы, и должен определить, где М, а где Ж. М — мужчина, он заинтересован в том, чтобы В не угадал правильного ответа. Ж — женщина, которая заинтересована в том, чтобы В угадал правильный ответ. Таким образом, М делает вид, будто бы он Ж, он «имитатор», а Ж изображает себя, она как бы «на самом деле».

Тьюринг предлагает заменить вопрос «может ли машина думать» на другой: «будет ли В ошибаться одинаково часто, если заменить в этой игре мужчину М на „машину“». Этот вопрос отличается от изначального тем, что его уже можно проверить на практике.

Затем он переходит к понятию о машине. С одной стороны, кажется, что можно было бы позволить при создании машины любые инженерные решения. Однако, здесь возникает трудность, как обычно, связанная с разграничением человеков и машин. Например, может ли команда разнополых инженеров родить и воспитать ребенка? Будет ли этот ребенок засчитан подходящим кандидатом в «машины» для игры? Очевидно, что нет. А если это такие биоинженеры, которые вырастят человека из единственной клетки донора? Такой человек ведь тоже не годится на роль машины в игре — он ничем не отличается от любого другого человека. Следуя таким рассуждениям, Тьюринг ограничивает круг рассматриваемых машин только электронными цифровыми компьютерами.

Поскольку все цифровые компьютеры эквивалентны в смысле вычислений, которые они могут производить, то вопрос, который следует рассматривать, Тьюринг окончательно формулирует так: «Возможен ли такой воображаемый цифровой компьютер, успешно играющий роль М в игре в имитацию?»
Первоначальный вопрос «может ли машина думать» я полагаю недостаточно осмысленным, чтобы его обсуждать. Тем не менее, я полагаю, что к концу [XX] века смысл слов и общее понимание образованной публики изменится таким образом, что можно будет говорить о том, что машина думает, не вызывая возражений. Я полагаю также, что мне нет смысла скрывать это убеждение. Совершенно неверно популярное заблуждение, будто наука продвигается от одного достоверного факта к следущему достоверному факту, минуя предположения. Предположения не нанесут урона, коль скоро будет явно оговорено, что есть установленный факт, а что есть предположение. Предположения чрезвычайно важны, поскольку они задают направление научного поиска.
Большая часть статьи посвящена рассмотрению возможных возражений точке зрения Тьюринга, именно, аргументов, утверждающих, что машина думать на может — имея в виду новую формулировку вопроса. Стоит и нам их вкратце рассмотреть.

1. Теологическое возражение. Мышление есть функция бессмертной души. Бог дал бессмертную душу только людям, но не животным и не машинам. Следовательно, ни животное, ни машина думать не может.

Теологическое же возражение Тьюринга состоит в том, что это утверждение противоречит утверждению о божественном всемогуществе, поскольку утверждается, что бог не в состоянии дать мыслящей души машине.

2. Возражение от страуса. Последствия того, что машины начнут мыслить, настолько ужасны, что нам следует надеяться и верить, что этого не произойдет.
Этот аргумент редко выражается в столь явной форме… Не думаю, что [он] требует опровержения. Здесь скорее пристало утешение; возможно, следует искать его в переселении душ.
Ни первое, ни второе возражения, как видим, не вызывают у Тьюринга энтузиазма. Спор тут вряд ли возможен. К следующему он относится намного серьезнее.

3. Математическое возражение. Теорема Геделя говорит о том, что в любой достаточно мощной непротиворечивой формальной системе может быть сформулировано утверждение, которое не может быть ни доказано, ни опровергнуто в этой системе.
Кратким ответом на этот аргумент будет то, что, хотя предел возможностей данной конкретной машины и доказан,… не существует доказательства, что то же самое ограничение неприменимо и к человеческому интеллекту… Когда машина отвечает на критический вопрос, выдает ответ, но мы знаем, что ответ этот неверен, это дает нам определенное ощущение превосходства. Но не иллюзорно ли это ощущение?.. Мы сами слишком часто уверенно выдаем неверные ответы, чтобы принимать подобные свидетельства погрешности машин.

4. Возражение от сознания.
«Покуда машина не сочинит сонета или концерта от мыслей и эмоций, что она переживает, а не по случайному сложению символов, мы не примем того, что машина ровня мозгу, то есть, что не только пишет, но и знает, что пишет. Механизм не может чувствовать (а не просто искусственно о том сообщать) удовлетворения от успеха, печали от сгоревших ламп, услады от лести, печали от ошибок, очарования плотской любви, не может разозлиться или впасть в подавленность, когда не может получить, чего хочет» (проф. Джефферсон).
Этот аргумент отрицает самое возможность нашей проверки. Крайняя форма подобного рассуждения такова, что единственный способ убедиться, что машина думает — это быть этой машиной… Можно описать собственные чувства, но, разумеется, [с этой точки зрения] неразумно обращать на [такое описание] внимание… Это, фактически, солипсистский взгляд на вещи… Думаю, что тем, кто поддерживает такой аргумент, следовало бы отказаться от него, нежели встать на такую солипсистскую позицию. Тогда они, вероятно, согласятся с возможностью нашей проверки… Разумеется, я не думаю, что в сознании нет загадки… Но я не полагаю, что эта загадка должна быть полностью разгадана для того, чтобы нам начать искать ответ на вопрос, рассматриваемый в этой статье.

5. Возражения от разнообразных немощей.
Машины могут делать все, что угодно, но только не X, где X может быть {быть добрым, прекрасным, дружелюбным; обладать инициативой, чувством юмора; отличать плохое от хорошего; ошибаться; влюбляться; наслаждаться клубникой со сливками; обучаться; красиво и правильно говорить; размышлять о себе; делать что-то новое, и так далее}.

Тьюринг подробно анализирует несколько немощей. Не буду здесь останавливаться на конкретных примерах: лучше все-таки прочитать всю статью. Вывод его таков:
Эти аргументы представляют собой вариации аргумента от сознания [пункт 4, выше] Чаще всего, спорящий согласен, что машина может делать все это, и описывает метод, которым она это делает, но считает это невпечатляющим. Полагают, что метод, каким бы он ни был — просто механическое подражание. См. скобки в цитате из Джефферсона [в пункте 4].

6. Возражение от леди [Ады] Лавлейс. «Аналитическая машина не способна ничего зачинать. Она может делать только то, что мы умеем заставить ее делать» [курсив — ее].
Вариант… [этого] возражения таков: «машина не способна сделать ничего нового». Здесь неплохо вспомнить, что «нет ничего нового под солнцем»… Лучшим вариантом возражения будет «машина никогда не сделает чего-то удивительного». Такое утверждение… может быть прямо оспорено. Машины удивляют меня поразительно часто. Происходит это, скорее, оттого, что я не проделываю достаточно вычислений, а, если и делаю их, то второпях, неряшливо, рискованно… Естественно, я часто ошибаюсь, и результат удивляет меня, когда эксперимент уже проделан, а предположения мои давно забылись. Эти признания хоть и дают повод отчитать меня за мою порочную практику, но, тем не менее, не бросают ни тени сомнения в моей честности, когда я свидетельствую, что испытываю самое настоящее удивление… Не ожидаю, конечно, что этот ответ убедит моего критика: здесь он возразит, что удивление — творческий акт с моей стороны, а не со стороны машины. Это возвращает нас к аргументу от сознания [п. 4]. Стоит, однако, заметить, что восприятие чего-либо удивительным есть также творческий акт, будь удивление вызвано человеком, книгой или чем угодно еще.

7. Возражение от аналоговой нервной системы:
нервная система — не цифровой компьютер.

Рассуждение здесь интересно, но оно скорее дополнительное к главному аргументу Тьюринга: пусть нервная система и отличается от цифрового компьютера, но В не может воспользоваться отличиями практически.

8. Возражение от неформальности поведения: невозможно составить список правил, описывающих, как поведет себя человек в любой вообразимой ситуации.
Мы не можем убедиться в том, что подобных правил не существует. Единственный способ их поиска — научное наблюдение, но мы не можем представить себе случая, когда мы могли бы сказать: «Мы искали достаточно. Этих законов не существует».

Предположим, что мы обязательно должны были бы найти такие законы. Тогда некая цифровая машина должна была бы их найти, по наблюдении в течение некоего разумного времени, например, не более тысячи лет [вычислений]. Но это, похоже, не так. Я написал небольшую программу для Манчестерской машины, занимающую не более 1000 ячеек памяти, которая в ответ на шестнадцатизначное число выдает другое шестнадцатизначное число, затратив на вычисления не более двух секунд. Уверен, что никто не сможет найти из этих ответов, какова эта программа, чтобы предсказать ее ответы на любые исходные запросы.

9. Возражение от экстрасенсорного восприятия.
Этот раздел представляет только исторический интерес. Тьюринг рассматривает экстрасенсорное восприятие как научную гипотезу, и рассуждает, как исключить его влияние в эксперименте, предполагая, что человек им наделен, а машина — нет.

Заключительная часть статьи посвящена рассуждению об обучении людей и машин. Не буду здесь ее касаться, но она интересна, и ее тоже стоит прочитать.

Тьюринг, безусловно, прав, говоря, что значения слов меняются со временем. В области машинного интеллекта это особенно заметно. Игра в шахматы безусловно считалась областью, недостижимой для машины — и машина победила чемпиона мира по шахматам. Но, думаем мы, это не интеллект. Машина не думает. Восприятие образов, зрение было человеческой прерогативой — а теперь системы машинного зрения используются на линиях упаковки шоколадок. Но это тоже не интеллект: машина ведь не понимает, на что она смотрит. Машина не знает, как это вкусно — шоколадка, ей даже никогда не хочется ее попробовать. Значит, это тоже не интеллект. Системы, которые находят математические доказательства — тоже более не считаются интеллектуальными. Системы, которые просматривают все пакеты на входе в компьютерную сеть и «опускают шлагбаум», когда замечают подозрительные запросы, попытки «взломать» сеть — и они не интеллектуальны. Они не понимают, что такое сеть и что значит ее «взломать». Диспетчерская система, управляющая всеми линиями в Парижском метро тоже начисто лишена интеллекта. Она просто решает необозримую человеком задачу и быстро принимает часто непостижимые решения. Но что она знает о Париже?

Тут бы нам и остановиться, а то ведь так себя можно и совсем без интеллекта оставить. А может, так было бы и к лучшему. Зачем нам такое слово, которым непонятно даже, что называется?
__________________________________________

Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460

Если кто-то знает хороший перевод статьи Тьюринга — дайте, пожалуйста, ссылку.
Tags:
Page 1 of 3 << [1] [2] [3] >>

(no subject)

2008-12-07 07:00 (UTC)
nine_k: A stream of colors expanding from brain (Default)
Posted by [personal profile] nine_k
Про экстрасенсорное — молодец Тьюринг, настоящий экспериментатор всегда перестрахуется на случай наводок :)

Путь Разума

2008-12-07 07:23 (UTC)
Posted by [identity profile] matholimp.livejournal.com
Чтобы не перегружать комментарии, ответил Вам встречным постом http://matholimp.livejournal.com/26192.html . Там мой рассказик из нескольких новелл по мотивам сюжетов теста Тьюринга. О мышлении, душе, чувствах, ...

(no subject)

2008-12-07 08:49 (UTC)
Posted by [identity profile] kmmbvnr.livejournal.com
Хм.. такое ощушение что я уже все это где-то читал. Начиная со слов "В своей статье Тьюринг..."

Уж не у Хофштадтера ли?

(no subject)

2008-12-07 08:51 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Наверное, у Тьюринга все-таки.

(no subject)

2008-12-07 09:20 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Ну, имхо, задачка несложно решается, т.к. опять запутались в словах.

Просто в человеке есть не только интеллект. Интеллект это как раз такой компьютер, умеющий делать логические заключения, анализировать.

Но интеллект -- служебная часть. Ставить задачи/цели он не умеет. Угадывать он не умеет... Творить не умеет. Есть ещё кто-то, кто этим интеллектом пользуется как инструментом, подбрасывает ему задачки и данные со стороны.

В машине это можно эмулировать генератором случайных чисел... Но он всё же не настолько случайный, он генерирует осмысленные случайные числа :) Случайные потому что вне логики, а осмысленные потому что оказывается, что подходят. Так и Гегеля можно обмануть.

(no subject)

2008-12-07 10:14 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Хочу уточнить — Вы подписываетесь на возражения №4, №5 и/или №6.

Я правильно понимаю Ваш ответ Тьюрингу: Тьюринг просто запутался в словах, двух мыслей связать не может. Может быть, у Вас нашлось бы более конструктивное ему возражение?

(no subject)

2008-12-07 10:29 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
4 -- да, 5 слишком общё сформулировано, 6 -- генератор случайных чисел.

Нет, не правильно. Тьюринг как раз свёл всё к простому проверяемому тесту чтобы не определять толком понятие "думать". Но это слишком ограниченный тест. Хотя бы потому что задача _уже_ поставлена.

(no subject)

2008-12-07 10:36 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Конечно. Именно в том и была его цель — свести вопрос к проверяемому экспериментально.

А Вы можете определить понятие «думать»?

4 -- да
Ну, а возражения-то какие будут? Тьюринг на Ваше возражение уже возразил. Вы не согласны. Нельзя же сказать просто «я не согласен». Тут надо аргументы приводить, мне кажется.

(no subject)

2008-12-07 10:48 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Да, я заметил.

Нет, не могу. Зато и не берусь.

Его возражение... Это типа "ну с этим ничего поделать нельзя вообще, так что давайте его просто игнорировать".

Думание не сводится к детерминированным операциям, но и просто добавление случайной соли тут не помогает. Я не владею нужным математическим аппаратом чтобы как-то это формализовать. Я даже не знаю, существует ли такой на данный момент.

(no subject)

2008-12-07 11:15 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Нет, не могу. Зато и не берусь.
Ну, вот и он не берется, как я понимаю. Дело, безусловно, неблагодарное.

Его возражение... Это типа "ну с этим ничего поделать нельзя вообще, так что давайте его просто игнорировать".
Я, признаться, кажется, запутался. Это Вы о №4? Я читаю у него другое возражение.

Насчет формализации — нет, конечно. Тут формализацией и не пахнет: что формализовывать-то?

(no subject)

2008-12-07 11:20 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Этот аргумент отрицает самое возможность нашей проверки. Крайняя форма подобного рассуждения такова, что единственный способ убедиться, что машина думает — это быть этой машиной... [skip] Думаю, что тем, кто поддерживает такой аргумент, следовало бы отказаться от него, нежели встать на такую солипсистскую позицию. ..

А если я не хочу отказываться?

(no subject)

2008-12-07 11:51 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Насколько я понимаю, суть возражения 4 в том, что пока машина не напишет сонет, испытав при этом эмоции — не «демонстративно всплакнув», а на самом деле испытав эмоции! — Вы не поверите в то, что это был творческий акт. Возражение на это Тьюринга в том, что отличить демонстрацию эмоций от эмоций нельзя.

Если Вы убежденный сторонник солипсизма, конечно, это Вас не убедит — ни аргументы воображаемого меня, ни аргументы воображаемого Тьюринга не имеют никакой силы.

Если нет — то с «не хочу отказываться» возникает сложность: требуется тест, показывающий, что машина действительно сочинила сонет, повинуясь музе, а не алгоритму (понимая цифровой алгоритм, возможно со случайным элементом). Думаю, что такого теста придумать не можно — любое рассуждение приведет нас к солипсизму.

Можно свести его к qualia, но это будет исключительно вопрос веры: этот подход исключительно антропоцентричен. Мы не можем знать, какие qualia возникают у системы управления траффиком при перегрузке направления, как минимум. К этому сводят всякие неорошие шутки (ощущения робота от залипшего реле), а я вот всерьез.

(no subject)

2008-12-07 12:00 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Да я понимаю. Это аргумент о том, что это неформализуемое понятие и попытка Тьюринга придумать тест просто мимо кассы. Я, собственно, с этого начал.

Но вот про солипсизм, хм. Не вижу тут солипсизма. На всякий случай прочитал в вики, вдруг я забыл, что это за изм -- вроде не забыл.

(no subject)

2008-12-07 13:14 (UTC)
Posted by [identity profile] aelfhere.livejournal.com
Считаете ли Вы известную историю с "Корчевателем" (http://www.scientific.ru/trv/2008/013/erunda.html) примером успешного прохождения машиной теста Тьюринга?

(no subject)

2008-12-07 21:27 (UTC)
Posted by [identity profile] poslednii-krot.livejournal.com
Я бы сказал, что вопрос об интеллекте - это вопрос о социализации машин. Когда люди начнут включать роботов в свою социальную жизнь (дружить с ними, враждовать, обижаться, завидовать...), тогда и можно будет говорить об "искусственном разуме". Все прочее (включая и владение письменным языком, вырванное из контекста социальной жизни) - лишь попытка затуманить очевидное. (Чуть подробнее
у меня в журнале (http://poslednii-krot.livejournal.com/2398.html))

(no subject)

2008-12-07 21:34 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Нет, конечно. Не было ведущего, двух участников, интерактивного диалога и т. д.

(no subject)

2008-12-07 21:43 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Я прочитал. Можно поинтересоваться — Вы прочитали саму статью Тьюринга? Он дает полноценное объяснение почему он сводит вопрос к своему тесту.

(no subject)

2008-12-08 08:45 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Кажется, начинаю понимать. Вы начали с разделения интеллекта и не-интеллекта. У Тьюринга такого разделения не было — он говорит о цельном «мышлении». Вот в этом месте я опять запутался. Вы считаете, что воображаемый удачный тест Тьюринга выявит этот самый интеллект, но не мышление?

Давайте я по древней традиции индийских мудрецов Вашу точку зрения изложу, а Вы мне скажете, так ли я ее понял. Представим, что Вы поговорили с кем-то — на любую тему, представьте себе любой диалог, например, вот этот со мной. Положим, что Вы не знаете, человек я или цифровая машина (я и сам, честно говоря, не знаю). Тогда тест, по его определению, можно считать удачным. Ваша точка зрения такова, что это тест ни о чем не говорит. То есть — наш разговор сейчас (и никакой, по обобщению, разговор) не позволяет ни выявить, ни опровергнуть наличия у меня (и, по обобщению, у любого Вашего собеседника) мышления? Я правильно Вас понимаю?

(no subject)

2008-12-08 08:46 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Мрачненько. А почему «сюжетов теста Тьюринга»? Я не совсем связь понял.

(no subject)

2008-12-08 09:00 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Да, именно.
В чистом виде акт веры или не-веры.

Можно подойти немного иначе, предположить, что в бесконечном диалоге факт не-мышления я смогу обнаружить когда-нибудь.

Но бесконечный диалог это слишком абстрактно, я не пробовал и вообще не уверен в своей способности детектировать мышление.

(no subject)

2008-12-08 09:55 (UTC)
Posted by [identity profile] xeus-top-999.livejournal.com
Ваш пост написан настолько интересно, что вы попали в Топ-30 Зиуса (http://xeus.ru/top/) самых обсуждаемых тем в Живом Журнале (http://www.livejournal.com/).
Это очень положительное явление. Пожалуйста, продолжайте в том же духе. © Зиус

(no subject)

2008-12-08 11:06 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Интеллект (способность решать поставленную задачу) у компьютера потенциально есть. Запрограммируем - будет решать, т.е. будет работать не хуже человеческого.
Но у компьютера, на данном витке развития систем, нет и не предвидится способности СТАВИТЬ задачу.
В рамках теории Тьюринга рассуждать об этом трудно, т.к. о постановке задачи он ничего не говорит, только о решении задачи уже поставленной.

(no subject)

2008-12-08 14:25 (UTC)
Posted by [identity profile] poslednii-krot.livejournal.com
Прочитал ту статью, ссылка на которую дана в вашем посте.
Тьюринг первым же делом замечает, что ответ на вопрос "может ли машина думать" лежит в социальной сфере ("answer... is to be sought in a statistical survey such as a Gallup poll."), а не в сфере точных наук. Но, почему-то, этот вполне конструктивный вывод кажется ему абсурдным и он переходит (без особенных обоснований) к другому вопросу "может ли машина при игре в имитацию обмануть человека?"
Все дальнейшие объяснения касаются технических нюансов игры (почему игроки не должны друг друга видеть? почему надо ограничиться только текстом? и т.п.), но не затрагивают главного: какое отношение имеет новая постановка вопроса к старой, т.е., собственно к искусственному разуму?

(no subject)

2008-12-08 15:35 (UTC)
Posted by [identity profile] a-konst.livejournal.com
Нет конечно, оно не является примером прохождения теста Тьюринга, так как тест состоит в том, что человеку нужно отличить машину от другого человека, имея двух собеседников и заведомо зная, что один из них машина, а другой - человек.

(no subject)

2008-12-08 17:55 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Ну, так это и есть солипсизм в чистом виде. Вы знаете, что Вы мыслите, но не знаете, и думаете, что вряд ли узнаете, мыслят ли остальные. Разве нет?
Page 1 of 3 << [1] [2] [3] >>

Profile

fregimus: (Default)
fregimus

March 2014

S M T W T F S
       1
2 3456 78
910 1112 131415
16171819202122
23242526272829
3031     

Most Popular Tags

Page generated 2025-12-25 06:04

Expand Cut Tags

No cut tags