fregimus: (Default)
[personal profile] fregimus
Про тест Тьюринга все слышали? Все, да? Вот сейчас мы и будем его проходить.

Тест наш будет всего из одного вопроса: как Тьюринг описывал свою идею теста, который потом получил это самое расхожее название?

Если вы ответили на этот вопрос, то вы прошли тест, и, значит, вы — бот, слава вам! А для людей — рассказываю. (Это, конечно, шутка. Никакого шовинизма: роботам тоже можно.)

Статья Тьюринга написана более 60 лет назад. Это было время появления вычислительной математики (ВМ). Сейчас, много лет спустя, мы так и не осознали до конца, что такое ВМ. Знаменитое утверждение Абельсона о том, что computer science (английское название ВМ, буквально «компьютерная наука») это не наука не о компьютерах, совершенно точно обозначает положение дел и сегодня. Компьютеры изменяют мир, а осознать толком мы их так и не можем. Но вернемся к статье Тьюринга. Ссылка на оригинал есть в конце этого сообщения.

В своей статье Тьюринг рассуждает над вопросом «может ли машина думать». Поскольку понятия «машина» и «думать» достаточно расплывчаты, он размышляет о том, как переформулировать задачу в иных терминах. По части «думания» он рассматривает игру в «имитацию», с игроками М и Ж, и ведущим В. В задает М и Ж вопросы, и должен определить, где М, а где Ж. М — мужчина, он заинтересован в том, чтобы В не угадал правильного ответа. Ж — женщина, которая заинтересована в том, чтобы В угадал правильный ответ. Таким образом, М делает вид, будто бы он Ж, он «имитатор», а Ж изображает себя, она как бы «на самом деле».

Тьюринг предлагает заменить вопрос «может ли машина думать» на другой: «будет ли В ошибаться одинаково часто, если заменить в этой игре мужчину М на „машину“». Этот вопрос отличается от изначального тем, что его уже можно проверить на практике.

Затем он переходит к понятию о машине. С одной стороны, кажется, что можно было бы позволить при создании машины любые инженерные решения. Однако, здесь возникает трудность, как обычно, связанная с разграничением человеков и машин. Например, может ли команда разнополых инженеров родить и воспитать ребенка? Будет ли этот ребенок засчитан подходящим кандидатом в «машины» для игры? Очевидно, что нет. А если это такие биоинженеры, которые вырастят человека из единственной клетки донора? Такой человек ведь тоже не годится на роль машины в игре — он ничем не отличается от любого другого человека. Следуя таким рассуждениям, Тьюринг ограничивает круг рассматриваемых машин только электронными цифровыми компьютерами.

Поскольку все цифровые компьютеры эквивалентны в смысле вычислений, которые они могут производить, то вопрос, который следует рассматривать, Тьюринг окончательно формулирует так: «Возможен ли такой воображаемый цифровой компьютер, успешно играющий роль М в игре в имитацию?»
Первоначальный вопрос «может ли машина думать» я полагаю недостаточно осмысленным, чтобы его обсуждать. Тем не менее, я полагаю, что к концу [XX] века смысл слов и общее понимание образованной публики изменится таким образом, что можно будет говорить о том, что машина думает, не вызывая возражений. Я полагаю также, что мне нет смысла скрывать это убеждение. Совершенно неверно популярное заблуждение, будто наука продвигается от одного достоверного факта к следущему достоверному факту, минуя предположения. Предположения не нанесут урона, коль скоро будет явно оговорено, что есть установленный факт, а что есть предположение. Предположения чрезвычайно важны, поскольку они задают направление научного поиска.
Большая часть статьи посвящена рассмотрению возможных возражений точке зрения Тьюринга, именно, аргументов, утверждающих, что машина думать на может — имея в виду новую формулировку вопроса. Стоит и нам их вкратце рассмотреть.

1. Теологическое возражение. Мышление есть функция бессмертной души. Бог дал бессмертную душу только людям, но не животным и не машинам. Следовательно, ни животное, ни машина думать не может.

Теологическое же возражение Тьюринга состоит в том, что это утверждение противоречит утверждению о божественном всемогуществе, поскольку утверждается, что бог не в состоянии дать мыслящей души машине.

2. Возражение от страуса. Последствия того, что машины начнут мыслить, настолько ужасны, что нам следует надеяться и верить, что этого не произойдет.
Этот аргумент редко выражается в столь явной форме… Не думаю, что [он] требует опровержения. Здесь скорее пристало утешение; возможно, следует искать его в переселении душ.
Ни первое, ни второе возражения, как видим, не вызывают у Тьюринга энтузиазма. Спор тут вряд ли возможен. К следующему он относится намного серьезнее.

3. Математическое возражение. Теорема Геделя говорит о том, что в любой достаточно мощной непротиворечивой формальной системе может быть сформулировано утверждение, которое не может быть ни доказано, ни опровергнуто в этой системе.
Кратким ответом на этот аргумент будет то, что, хотя предел возможностей данной конкретной машины и доказан,… не существует доказательства, что то же самое ограничение неприменимо и к человеческому интеллекту… Когда машина отвечает на критический вопрос, выдает ответ, но мы знаем, что ответ этот неверен, это дает нам определенное ощущение превосходства. Но не иллюзорно ли это ощущение?.. Мы сами слишком часто уверенно выдаем неверные ответы, чтобы принимать подобные свидетельства погрешности машин.

4. Возражение от сознания.
«Покуда машина не сочинит сонета или концерта от мыслей и эмоций, что она переживает, а не по случайному сложению символов, мы не примем того, что машина ровня мозгу, то есть, что не только пишет, но и знает, что пишет. Механизм не может чувствовать (а не просто искусственно о том сообщать) удовлетворения от успеха, печали от сгоревших ламп, услады от лести, печали от ошибок, очарования плотской любви, не может разозлиться или впасть в подавленность, когда не может получить, чего хочет» (проф. Джефферсон).
Этот аргумент отрицает самое возможность нашей проверки. Крайняя форма подобного рассуждения такова, что единственный способ убедиться, что машина думает — это быть этой машиной… Можно описать собственные чувства, но, разумеется, [с этой точки зрения] неразумно обращать на [такое описание] внимание… Это, фактически, солипсистский взгляд на вещи… Думаю, что тем, кто поддерживает такой аргумент, следовало бы отказаться от него, нежели встать на такую солипсистскую позицию. Тогда они, вероятно, согласятся с возможностью нашей проверки… Разумеется, я не думаю, что в сознании нет загадки… Но я не полагаю, что эта загадка должна быть полностью разгадана для того, чтобы нам начать искать ответ на вопрос, рассматриваемый в этой статье.

5. Возражения от разнообразных немощей.
Машины могут делать все, что угодно, но только не X, где X может быть {быть добрым, прекрасным, дружелюбным; обладать инициативой, чувством юмора; отличать плохое от хорошего; ошибаться; влюбляться; наслаждаться клубникой со сливками; обучаться; красиво и правильно говорить; размышлять о себе; делать что-то новое, и так далее}.

Тьюринг подробно анализирует несколько немощей. Не буду здесь останавливаться на конкретных примерах: лучше все-таки прочитать всю статью. Вывод его таков:
Эти аргументы представляют собой вариации аргумента от сознания [пункт 4, выше] Чаще всего, спорящий согласен, что машина может делать все это, и описывает метод, которым она это делает, но считает это невпечатляющим. Полагают, что метод, каким бы он ни был — просто механическое подражание. См. скобки в цитате из Джефферсона [в пункте 4].

6. Возражение от леди [Ады] Лавлейс. «Аналитическая машина не способна ничего зачинать. Она может делать только то, что мы умеем заставить ее делать» [курсив — ее].
Вариант… [этого] возражения таков: «машина не способна сделать ничего нового». Здесь неплохо вспомнить, что «нет ничего нового под солнцем»… Лучшим вариантом возражения будет «машина никогда не сделает чего-то удивительного». Такое утверждение… может быть прямо оспорено. Машины удивляют меня поразительно часто. Происходит это, скорее, оттого, что я не проделываю достаточно вычислений, а, если и делаю их, то второпях, неряшливо, рискованно… Естественно, я часто ошибаюсь, и результат удивляет меня, когда эксперимент уже проделан, а предположения мои давно забылись. Эти признания хоть и дают повод отчитать меня за мою порочную практику, но, тем не менее, не бросают ни тени сомнения в моей честности, когда я свидетельствую, что испытываю самое настоящее удивление… Не ожидаю, конечно, что этот ответ убедит моего критика: здесь он возразит, что удивление — творческий акт с моей стороны, а не со стороны машины. Это возвращает нас к аргументу от сознания [п. 4]. Стоит, однако, заметить, что восприятие чего-либо удивительным есть также творческий акт, будь удивление вызвано человеком, книгой или чем угодно еще.

7. Возражение от аналоговой нервной системы:
нервная система — не цифровой компьютер.

Рассуждение здесь интересно, но оно скорее дополнительное к главному аргументу Тьюринга: пусть нервная система и отличается от цифрового компьютера, но В не может воспользоваться отличиями практически.

8. Возражение от неформальности поведения: невозможно составить список правил, описывающих, как поведет себя человек в любой вообразимой ситуации.
Мы не можем убедиться в том, что подобных правил не существует. Единственный способ их поиска — научное наблюдение, но мы не можем представить себе случая, когда мы могли бы сказать: «Мы искали достаточно. Этих законов не существует».

Предположим, что мы обязательно должны были бы найти такие законы. Тогда некая цифровая машина должна была бы их найти, по наблюдении в течение некоего разумного времени, например, не более тысячи лет [вычислений]. Но это, похоже, не так. Я написал небольшую программу для Манчестерской машины, занимающую не более 1000 ячеек памяти, которая в ответ на шестнадцатизначное число выдает другое шестнадцатизначное число, затратив на вычисления не более двух секунд. Уверен, что никто не сможет найти из этих ответов, какова эта программа, чтобы предсказать ее ответы на любые исходные запросы.

9. Возражение от экстрасенсорного восприятия.
Этот раздел представляет только исторический интерес. Тьюринг рассматривает экстрасенсорное восприятие как научную гипотезу, и рассуждает, как исключить его влияние в эксперименте, предполагая, что человек им наделен, а машина — нет.

Заключительная часть статьи посвящена рассуждению об обучении людей и машин. Не буду здесь ее касаться, но она интересна, и ее тоже стоит прочитать.

Тьюринг, безусловно, прав, говоря, что значения слов меняются со временем. В области машинного интеллекта это особенно заметно. Игра в шахматы безусловно считалась областью, недостижимой для машины — и машина победила чемпиона мира по шахматам. Но, думаем мы, это не интеллект. Машина не думает. Восприятие образов, зрение было человеческой прерогативой — а теперь системы машинного зрения используются на линиях упаковки шоколадок. Но это тоже не интеллект: машина ведь не понимает, на что она смотрит. Машина не знает, как это вкусно — шоколадка, ей даже никогда не хочется ее попробовать. Значит, это тоже не интеллект. Системы, которые находят математические доказательства — тоже более не считаются интеллектуальными. Системы, которые просматривают все пакеты на входе в компьютерную сеть и «опускают шлагбаум», когда замечают подозрительные запросы, попытки «взломать» сеть — и они не интеллектуальны. Они не понимают, что такое сеть и что значит ее «взломать». Диспетчерская система, управляющая всеми линиями в Парижском метро тоже начисто лишена интеллекта. Она просто решает необозримую человеком задачу и быстро принимает часто непостижимые решения. Но что она знает о Париже?

Тут бы нам и остановиться, а то ведь так себя можно и совсем без интеллекта оставить. А может, так было бы и к лучшему. Зачем нам такое слово, которым непонятно даже, что называется?
__________________________________________

Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460

Если кто-то знает хороший перевод статьи Тьюринга — дайте, пожалуйста, ссылку.
Tags:

(no subject)

2008-12-08 11:06 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Интеллект (способность решать поставленную задачу) у компьютера потенциально есть. Запрограммируем - будет решать, т.е. будет работать не хуже человеческого.
Но у компьютера, на данном витке развития систем, нет и не предвидится способности СТАВИТЬ задачу.
В рамках теории Тьюринга рассуждать об этом трудно, т.к. о постановке задачи он ничего не говорит, только о решении задачи уже поставленной.

(no subject)

2008-12-10 18:36 (UTC)
Posted by [identity profile] rainaldo anonimato (from livejournal.com)
Скажите, положа руку на сердце: Вы лично - много себе (или другим) поставили принципиально новых, ни из чего не вытекающих, произвольных "задач" в этом мире?
Вот родились, скажем, (поставив себе уж конечно такую задачу) - и сразу себе задачи изобретать: "надо дышать!", "надо кушать!", "надо спать!", "надо язык изучать! (выбрать только сначала...)". Или Вам это как бы не очень и требовалось? (Всё, чудесным образом, уже оказалось "украдено до нас"?..)
Где? когда? - как Вы себе представляете - пролёг тот чудесный рубеж, за которым Вы перестали опираться на "задачи", диктуемые нашему сознанию "извне" (нашим собственным устройством и устройством нашего мира), а стали их себе ставить исключительно оригинально и ничем не обусловленно? Уж не тогда ли, когда задумались: чтобы покушать - открыть ли холодильник, пойти ли в магазин или редиску на подоконнике посадить? Я даже не стану утверждать, что такого рубежа не случилось - да что мне, жалко? Просто вот, смотрите - ну, если Вам это удалось: перестать на протяжении жизни быть "только решателем" и начать с определённого момента воспринимать себя "ставящим задачи" (удовлетворяющим Вас образом), - то отчего бы за здорово живёшь в такой возможности любому компьютеру отказывать?

Я просто искренне не понимаю постулируемой Вами разницы: у Вас-человека есть "задачи" базово-врождённые + почерпнутые из социума, которые заставляют Вас впоследствии находить и ставить производные (поскольку Вы - система обучающаяся). Отключите врождённые (психическое заболевание) или не вложите социальные (дети-маугли и изолянты) - не будет нипочём и дальнейших надстроек.
Так что может мешать закладывать то же самое и в "электронный ящик"?

(no subject)

2008-12-11 13:50 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Заложить в электронный ящик самообучение? Собственно, уже сделано, в рамках сферы "экспертные системы". Происходит накопление базы данных.
А вот накопления базы знаний (т.е. пресловутых постановок задачи) - не происходит. Потому что господа программеры не понимают, как это программируется, ибо не знают, как это происходит у них самих. Происходит, да - но КАК, сформулировать не удается.
Собственно, тут и ответ: искусственного интеллекта нельзя создать до тех пор, пока не сформулированы правила работы интеллекта естественного - инструмента не столь потенциально мощного, но на данном этапе развития куда как более гибкого...

(no subject)

2008-12-11 19:44 (UTC)
Posted by [identity profile] fregimus.livejournal.com
А создать летательный аппарат, не изучив всех правил работы птичьего (или стрекозьего — сами выберите) крыла — можно?

Что такое интеллект? Вы-то точно знаете.

(no subject)

2008-12-12 14:54 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Если определять интеллект как "способность решить поставленную задачу", то он у компьютера может быть построен. Итогом постройки является "решательный аппарат", т.е. нечто, способное при помощи специалиста чего-то там решить.
Вы привели прекрасный пример: "летательный аппарат" тоже сам по себе не летает. Нужен как минимум спец по управлению полетом, неважно, из кабины или с пульта. Охотно допускаю прогресс в области автопилотостроения, когда от ключевого спеца потребуются лишь навыки простого юзера - задать конечную точку полета, - вот это и будет поставить задачу "лететь туда", которую могучий флаер успешно решит. Точно так же, как для юзера мощной экспертной системы нужно лишь ввести в систему формулу интересующей его задачи, которую эта система решит.
Способность решать задачи - программируется. Если обозвать интеллектом именно ее - что ж, вот он вам в компьютере, пожалуйста.
Способность СТАВИТЬ задачу - не программируется. Пока. Потому что пока что сам этот процесс не удается формализовать.

(no subject)

2008-12-12 18:58 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Значит, ежели такой автоматический самолет (а «крылатая ракета», например, именно такой самолет и есть: летит автономно в заданную точку, да еще соблюдая малую высоту) вдруг из-за какого-то замыкания решит полететь в точку Ы, мы это не назовем «постановкой задачи»? Скажем, что сбой, так?

… я шел, не разбирая дороги, мне было все равно, куда идти, лишь бы не стоять на месте …

(no subject)

2008-12-12 20:24 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Если классифицировать действие "выбор цели", вариантов в сущности два.

- выбор случайный. На раз программируется, поставим на входе генератор случайных чиссел. В природе присутствует (приведенный вами пример), но конструктивным не является (в примере конструктивность состоит в факте движения и нейтрализации выброса адреналина).

- выбор осознанный. Определяется некоторыми потребностями пользователя/заказчика (должно быть сделано нечто, предполагающее перемещение аппарата в конечную точку, возможно, с доп.условиями - в расчетное время, расчетным маршрутом и пр.). Запрограммировать это - нереально (у машины потребностей НЕТ); можно запрограммировать эмуляцию потребностей в стиле тамагочи, но это опять же неконструктивно.

(no subject)

2008-12-13 03:06 (UTC)
Posted by [identity profile] rainaldo anonimato (from livejournal.com)
На самом деле - такие эксперименты вполне с успехом тоже уже ставились: создание "машин с потребностями". В частности, в одном из них это выражалось в движущихся слепых, но с "тактильной чувствительностью", роботах с очень ограниченными ресурсами электробатарей, которым для "выживания" (заложенного как потребность - а в живые существа разве нет?) требовалось находить "порционные" источники подзарядки, рискуя при этом попасть во всяческие неприятности-ловушки. Естественно, при этом они были самообучающимися - и самостоятельно вырабатывали стратегию. Всех подробностей, к сожалению, не помню, - но результаты получались весьма интересными. У одинаковых роботов в результате разного ли опыта или случайностей - стратегии поведения образовывались совсем разными. Одни "пугливо" сидели на месте до последнего, растягивая бездействием жизненный ресурс поелику возможно. Другие - наоборот избирали очень затратные, но охватывающие максимальный объём, алгоритмы. Более того - при экспериментах с группами роботов - они начинали учитывать поведение друг друга и извлекать из него коллективные выгоды. Чему их никто не учил.
Можно говорить о примитивности всего этого. Но вот где Вы "нарисовали" ту непроходимую границу - я, честно говоря, всё ещё так и не понял. Или для Вас будет нужно, чтобы такой экспериментальный робот однажды проломил стенку лабораторного зала, обнаружил источники энергии в человеческих портативных устройствах ("мобильниках"?), связал их нахождение в пространстве с людьми - и начал бы после этого гоняться за сотрудниками? Вы не верите, что однажды такое вполне в логике эксперимента может случиться? Или это Вас тоже нисколько не убедило бы в качестве "постановки новой цели"?

(no subject)

2008-12-15 10:05 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Интересные эксперименты. Не слышал. Если не врут, здесь уже есть база для разумности. Нужно еще, чтобы эти роботы с какой-то долей успешности справлялись с задачей поиска "подзарядки" в условиях непредсказуемо изменяющейся (есс-но, в рамках допустимого для корпуса роботов) среды, т.е. когда прежние алгоритмы перестают работать и для выживания надо все время вырабатывать новые...
Собственно, вот это и есть разумность - САМОСТОЯТЕЛЬНАЯ разработка нового алгоритма поведения, более эффективного, нежели обеспечивает как слепое копирование алгоритма старого (действенного для старых условий, но в условиях новых далеко не оптимального, если вообще рабочего), так и генератор случайных чисел.

(no subject)

2008-12-13 05:52 (UTC)
Posted by [identity profile] fregimus.livejournal.com
выбор случайный. На раз программируется, поставим на входе генератор случайных чиссел. В природе присутствует
Не знал. А где он в природе присутствует?

приведенный вами пример
Нет, в нем случайности, мне кажется, нет. То, что я не понимаю своего решения, не говорит о его «случайности».

Насчет потребностей: вот хочет человек (или лягушка, скажем) есть — идет еду искать. Находит, съест кого нибудь, и потребность пропадает. Чего же тут неконструктивного? И причем тут разум?

(no subject)

2008-12-15 10:10 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Эмулировать весь объем под- и бессознательного, который обеспечивает принятие вами решения в условиях "отключенного разума", с достаточной точностью можно именно генератором случайных чисел. Постфактум вам, конечно, психи-аналитики объяснят, почему из сорока четырех дорог вы выбрали именно эту - но лишь постфактум, предсказать же ваш выбор ДО того, как он проделан - генератор не хуже справится.

Что до потребностей - разум возникает там, где вопрос удовлетворения потребностей необходимо всякий раз (ну или через раз, не суть важно, главное - часто) решать по-новому, т.к. старый алгоритм либо вообще не действует, либо явно неоптимален. Потребность здесь является необходимым условием для "включения" разума, нет потребности - нет необходимости в выработке нового алгоритма.

(no subject)

2008-12-15 17:12 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Когда ведут речь о генераторе случайных чисел в какой-либо модели, я этой моделью сразу перестаю интересоваться. Это белый флаг, это значит — мы не знаем, как это сделать, но мы посчитали статистику, и подобрали PDF для нее. У нас с Вами в головах генератора случайных чисел, как известно, нет.

(no subject)

2008-12-15 17:51 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Я бы столь уверенно об отсутствии генератора случайных чисел не говорил...

Profile

fregimus: (Default)
fregimus

March 2014

S M T W T F S
       1
2 3456 78
910 1112 131415
16171819202122
23242526272829
3031     

Most Popular Tags

Page generated 2025-12-25 05:07

Expand Cut Tags

No cut tags