fregimus: (Default)
[personal profile] fregimus
Про тест Тьюринга все слышали? Все, да? Вот сейчас мы и будем его проходить.

Тест наш будет всего из одного вопроса: как Тьюринг описывал свою идею теста, который потом получил это самое расхожее название?

Если вы ответили на этот вопрос, то вы прошли тест, и, значит, вы — бот, слава вам! А для людей — рассказываю. (Это, конечно, шутка. Никакого шовинизма: роботам тоже можно.)

Статья Тьюринга написана более 60 лет назад. Это было время появления вычислительной математики (ВМ). Сейчас, много лет спустя, мы так и не осознали до конца, что такое ВМ. Знаменитое утверждение Абельсона о том, что computer science (английское название ВМ, буквально «компьютерная наука») это не наука не о компьютерах, совершенно точно обозначает положение дел и сегодня. Компьютеры изменяют мир, а осознать толком мы их так и не можем. Но вернемся к статье Тьюринга. Ссылка на оригинал есть в конце этого сообщения.

В своей статье Тьюринг рассуждает над вопросом «может ли машина думать». Поскольку понятия «машина» и «думать» достаточно расплывчаты, он размышляет о том, как переформулировать задачу в иных терминах. По части «думания» он рассматривает игру в «имитацию», с игроками М и Ж, и ведущим В. В задает М и Ж вопросы, и должен определить, где М, а где Ж. М — мужчина, он заинтересован в том, чтобы В не угадал правильного ответа. Ж — женщина, которая заинтересована в том, чтобы В угадал правильный ответ. Таким образом, М делает вид, будто бы он Ж, он «имитатор», а Ж изображает себя, она как бы «на самом деле».

Тьюринг предлагает заменить вопрос «может ли машина думать» на другой: «будет ли В ошибаться одинаково часто, если заменить в этой игре мужчину М на „машину“». Этот вопрос отличается от изначального тем, что его уже можно проверить на практике.

Затем он переходит к понятию о машине. С одной стороны, кажется, что можно было бы позволить при создании машины любые инженерные решения. Однако, здесь возникает трудность, как обычно, связанная с разграничением человеков и машин. Например, может ли команда разнополых инженеров родить и воспитать ребенка? Будет ли этот ребенок засчитан подходящим кандидатом в «машины» для игры? Очевидно, что нет. А если это такие биоинженеры, которые вырастят человека из единственной клетки донора? Такой человек ведь тоже не годится на роль машины в игре — он ничем не отличается от любого другого человека. Следуя таким рассуждениям, Тьюринг ограничивает круг рассматриваемых машин только электронными цифровыми компьютерами.

Поскольку все цифровые компьютеры эквивалентны в смысле вычислений, которые они могут производить, то вопрос, который следует рассматривать, Тьюринг окончательно формулирует так: «Возможен ли такой воображаемый цифровой компьютер, успешно играющий роль М в игре в имитацию?»
Первоначальный вопрос «может ли машина думать» я полагаю недостаточно осмысленным, чтобы его обсуждать. Тем не менее, я полагаю, что к концу [XX] века смысл слов и общее понимание образованной публики изменится таким образом, что можно будет говорить о том, что машина думает, не вызывая возражений. Я полагаю также, что мне нет смысла скрывать это убеждение. Совершенно неверно популярное заблуждение, будто наука продвигается от одного достоверного факта к следущему достоверному факту, минуя предположения. Предположения не нанесут урона, коль скоро будет явно оговорено, что есть установленный факт, а что есть предположение. Предположения чрезвычайно важны, поскольку они задают направление научного поиска.
Большая часть статьи посвящена рассмотрению возможных возражений точке зрения Тьюринга, именно, аргументов, утверждающих, что машина думать на может — имея в виду новую формулировку вопроса. Стоит и нам их вкратце рассмотреть.

1. Теологическое возражение. Мышление есть функция бессмертной души. Бог дал бессмертную душу только людям, но не животным и не машинам. Следовательно, ни животное, ни машина думать не может.

Теологическое же возражение Тьюринга состоит в том, что это утверждение противоречит утверждению о божественном всемогуществе, поскольку утверждается, что бог не в состоянии дать мыслящей души машине.

2. Возражение от страуса. Последствия того, что машины начнут мыслить, настолько ужасны, что нам следует надеяться и верить, что этого не произойдет.
Этот аргумент редко выражается в столь явной форме… Не думаю, что [он] требует опровержения. Здесь скорее пристало утешение; возможно, следует искать его в переселении душ.
Ни первое, ни второе возражения, как видим, не вызывают у Тьюринга энтузиазма. Спор тут вряд ли возможен. К следующему он относится намного серьезнее.

3. Математическое возражение. Теорема Геделя говорит о том, что в любой достаточно мощной непротиворечивой формальной системе может быть сформулировано утверждение, которое не может быть ни доказано, ни опровергнуто в этой системе.
Кратким ответом на этот аргумент будет то, что, хотя предел возможностей данной конкретной машины и доказан,… не существует доказательства, что то же самое ограничение неприменимо и к человеческому интеллекту… Когда машина отвечает на критический вопрос, выдает ответ, но мы знаем, что ответ этот неверен, это дает нам определенное ощущение превосходства. Но не иллюзорно ли это ощущение?.. Мы сами слишком часто уверенно выдаем неверные ответы, чтобы принимать подобные свидетельства погрешности машин.

4. Возражение от сознания.
«Покуда машина не сочинит сонета или концерта от мыслей и эмоций, что она переживает, а не по случайному сложению символов, мы не примем того, что машина ровня мозгу, то есть, что не только пишет, но и знает, что пишет. Механизм не может чувствовать (а не просто искусственно о том сообщать) удовлетворения от успеха, печали от сгоревших ламп, услады от лести, печали от ошибок, очарования плотской любви, не может разозлиться или впасть в подавленность, когда не может получить, чего хочет» (проф. Джефферсон).
Этот аргумент отрицает самое возможность нашей проверки. Крайняя форма подобного рассуждения такова, что единственный способ убедиться, что машина думает — это быть этой машиной… Можно описать собственные чувства, но, разумеется, [с этой точки зрения] неразумно обращать на [такое описание] внимание… Это, фактически, солипсистский взгляд на вещи… Думаю, что тем, кто поддерживает такой аргумент, следовало бы отказаться от него, нежели встать на такую солипсистскую позицию. Тогда они, вероятно, согласятся с возможностью нашей проверки… Разумеется, я не думаю, что в сознании нет загадки… Но я не полагаю, что эта загадка должна быть полностью разгадана для того, чтобы нам начать искать ответ на вопрос, рассматриваемый в этой статье.

5. Возражения от разнообразных немощей.
Машины могут делать все, что угодно, но только не X, где X может быть {быть добрым, прекрасным, дружелюбным; обладать инициативой, чувством юмора; отличать плохое от хорошего; ошибаться; влюбляться; наслаждаться клубникой со сливками; обучаться; красиво и правильно говорить; размышлять о себе; делать что-то новое, и так далее}.

Тьюринг подробно анализирует несколько немощей. Не буду здесь останавливаться на конкретных примерах: лучше все-таки прочитать всю статью. Вывод его таков:
Эти аргументы представляют собой вариации аргумента от сознания [пункт 4, выше] Чаще всего, спорящий согласен, что машина может делать все это, и описывает метод, которым она это делает, но считает это невпечатляющим. Полагают, что метод, каким бы он ни был — просто механическое подражание. См. скобки в цитате из Джефферсона [в пункте 4].

6. Возражение от леди [Ады] Лавлейс. «Аналитическая машина не способна ничего зачинать. Она может делать только то, что мы умеем заставить ее делать» [курсив — ее].
Вариант… [этого] возражения таков: «машина не способна сделать ничего нового». Здесь неплохо вспомнить, что «нет ничего нового под солнцем»… Лучшим вариантом возражения будет «машина никогда не сделает чего-то удивительного». Такое утверждение… может быть прямо оспорено. Машины удивляют меня поразительно часто. Происходит это, скорее, оттого, что я не проделываю достаточно вычислений, а, если и делаю их, то второпях, неряшливо, рискованно… Естественно, я часто ошибаюсь, и результат удивляет меня, когда эксперимент уже проделан, а предположения мои давно забылись. Эти признания хоть и дают повод отчитать меня за мою порочную практику, но, тем не менее, не бросают ни тени сомнения в моей честности, когда я свидетельствую, что испытываю самое настоящее удивление… Не ожидаю, конечно, что этот ответ убедит моего критика: здесь он возразит, что удивление — творческий акт с моей стороны, а не со стороны машины. Это возвращает нас к аргументу от сознания [п. 4]. Стоит, однако, заметить, что восприятие чего-либо удивительным есть также творческий акт, будь удивление вызвано человеком, книгой или чем угодно еще.

7. Возражение от аналоговой нервной системы:
нервная система — не цифровой компьютер.

Рассуждение здесь интересно, но оно скорее дополнительное к главному аргументу Тьюринга: пусть нервная система и отличается от цифрового компьютера, но В не может воспользоваться отличиями практически.

8. Возражение от неформальности поведения: невозможно составить список правил, описывающих, как поведет себя человек в любой вообразимой ситуации.
Мы не можем убедиться в том, что подобных правил не существует. Единственный способ их поиска — научное наблюдение, но мы не можем представить себе случая, когда мы могли бы сказать: «Мы искали достаточно. Этих законов не существует».

Предположим, что мы обязательно должны были бы найти такие законы. Тогда некая цифровая машина должна была бы их найти, по наблюдении в течение некоего разумного времени, например, не более тысячи лет [вычислений]. Но это, похоже, не так. Я написал небольшую программу для Манчестерской машины, занимающую не более 1000 ячеек памяти, которая в ответ на шестнадцатизначное число выдает другое шестнадцатизначное число, затратив на вычисления не более двух секунд. Уверен, что никто не сможет найти из этих ответов, какова эта программа, чтобы предсказать ее ответы на любые исходные запросы.

9. Возражение от экстрасенсорного восприятия.
Этот раздел представляет только исторический интерес. Тьюринг рассматривает экстрасенсорное восприятие как научную гипотезу, и рассуждает, как исключить его влияние в эксперименте, предполагая, что человек им наделен, а машина — нет.

Заключительная часть статьи посвящена рассуждению об обучении людей и машин. Не буду здесь ее касаться, но она интересна, и ее тоже стоит прочитать.

Тьюринг, безусловно, прав, говоря, что значения слов меняются со временем. В области машинного интеллекта это особенно заметно. Игра в шахматы безусловно считалась областью, недостижимой для машины — и машина победила чемпиона мира по шахматам. Но, думаем мы, это не интеллект. Машина не думает. Восприятие образов, зрение было человеческой прерогативой — а теперь системы машинного зрения используются на линиях упаковки шоколадок. Но это тоже не интеллект: машина ведь не понимает, на что она смотрит. Машина не знает, как это вкусно — шоколадка, ей даже никогда не хочется ее попробовать. Значит, это тоже не интеллект. Системы, которые находят математические доказательства — тоже более не считаются интеллектуальными. Системы, которые просматривают все пакеты на входе в компьютерную сеть и «опускают шлагбаум», когда замечают подозрительные запросы, попытки «взломать» сеть — и они не интеллектуальны. Они не понимают, что такое сеть и что значит ее «взломать». Диспетчерская система, управляющая всеми линиями в Парижском метро тоже начисто лишена интеллекта. Она просто решает необозримую человеком задачу и быстро принимает часто непостижимые решения. Но что она знает о Париже?

Тут бы нам и остановиться, а то ведь так себя можно и совсем без интеллекта оставить. А может, так было бы и к лучшему. Зачем нам такое слово, которым непонятно даже, что называется?
__________________________________________

Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460

Если кто-то знает хороший перевод статьи Тьюринга — дайте, пожалуйста, ссылку.
Tags:

(no subject)

2008-12-07 07:00 (UTC)
nine_k: A stream of colors expanding from brain (Default)
Posted by [personal profile] nine_k
Про экстрасенсорное — молодец Тьюринг, настоящий экспериментатор всегда перестрахуется на случай наводок :)

Путь Разума

2008-12-07 07:23 (UTC)
Posted by [identity profile] matholimp.livejournal.com
Чтобы не перегружать комментарии, ответил Вам встречным постом http://matholimp.livejournal.com/26192.html . Там мой рассказик из нескольких новелл по мотивам сюжетов теста Тьюринга. О мышлении, душе, чувствах, ...

(no subject)

2008-12-08 08:46 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Мрачненько. А почему «сюжетов теста Тьюринга»? Я не совсем связь понял.

(no subject)

2008-12-07 08:49 (UTC)
Posted by [identity profile] kmmbvnr.livejournal.com
Хм.. такое ощушение что я уже все это где-то читал. Начиная со слов "В своей статье Тьюринг..."

Уж не у Хофштадтера ли?

(no subject)

2008-12-07 08:51 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Наверное, у Тьюринга все-таки.

(no subject)

2008-12-07 09:20 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
Ну, имхо, задачка несложно решается, т.к. опять запутались в словах.

Просто в человеке есть не только интеллект. Интеллект это как раз такой компьютер, умеющий делать логические заключения, анализировать.

Но интеллект -- служебная часть. Ставить задачи/цели он не умеет. Угадывать он не умеет... Творить не умеет. Есть ещё кто-то, кто этим интеллектом пользуется как инструментом, подбрасывает ему задачки и данные со стороны.

В машине это можно эмулировать генератором случайных чисел... Но он всё же не настолько случайный, он генерирует осмысленные случайные числа :) Случайные потому что вне логики, а осмысленные потому что оказывается, что подходят. Так и Гегеля можно обмануть.

(no subject)

2008-12-07 10:14 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Хочу уточнить — Вы подписываетесь на возражения №4, №5 и/или №6.

Я правильно понимаю Ваш ответ Тьюрингу: Тьюринг просто запутался в словах, двух мыслей связать не может. Может быть, у Вас нашлось бы более конструктивное ему возражение?

(no subject)

2008-12-07 10:29 (UTC)
Posted by [identity profile] fat-crocodile.livejournal.com
4 -- да, 5 слишком общё сформулировано, 6 -- генератор случайных чисел.

Нет, не правильно. Тьюринг как раз свёл всё к простому проверяемому тесту чтобы не определять толком понятие "думать". Но это слишком ограниченный тест. Хотя бы потому что задача _уже_ поставлена.

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-07 10:36 (UTC) - Expand

(no subject)

Posted by [identity profile] fat-crocodile.livejournal.com - 2008-12-07 10:48 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-07 11:15 (UTC) - Expand

(no subject)

Posted by [identity profile] fat-crocodile.livejournal.com - 2008-12-07 11:20 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-07 11:51 (UTC) - Expand

(no subject)

Posted by [identity profile] fat-crocodile.livejournal.com - 2008-12-07 12:00 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-08 08:45 (UTC) - Expand

(no subject)

Posted by [identity profile] fat-crocodile.livejournal.com - 2008-12-08 09:00 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-08 17:55 (UTC) - Expand

(no subject)

Posted by [identity profile] fat-crocodile.livejournal.com - 2008-12-09 10:02 (UTC) - Expand

(no subject)

2008-12-07 13:14 (UTC)
Posted by [identity profile] aelfhere.livejournal.com
Считаете ли Вы известную историю с "Корчевателем" (http://www.scientific.ru/trv/2008/013/erunda.html) примером успешного прохождения машиной теста Тьюринга?

(no subject)

2008-12-07 21:34 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Нет, конечно. Не было ведущего, двух участников, интерактивного диалога и т. д.

(no subject)

2008-12-08 15:35 (UTC)
Posted by [identity profile] a-konst.livejournal.com
Нет конечно, оно не является примером прохождения теста Тьюринга, так как тест состоит в том, что человеку нужно отличить машину от другого человека, имея двух собеседников и заведомо зная, что один из них машина, а другой - человек.

(no subject)

2008-12-10 16:20 (UTC)
Posted by [identity profile] rainaldo anonimato (from livejournal.com)
Нет!
В формулировке автора этого поста - получился совсем иной тест: принципиально иной, но показавшийся мне чем-то даже более интересным. Это может оказаться "на совести" уважаемого Фрегимуса - сознаюсь, первоисточника я скорее всего не читал и не готов сейчас к удовольствию от этого на иных языках кроме русского и итальянского. Но это как раз "не суть". Повторю: мне вдруг понравилось именно это прочтение. В приведённом выше пересказе "тест" оказался не в классическом предложении "отличить в данной беседе троих машину от человека", как высказали и Вы.
НО: в возможности (или нет) отличить лгущую нам машину от лгущего же человека. То есть конкурирует лгущая машина - не с говорящей правду женщиной, а со лгущим же в "контрольном эксперименте" мужчиной. И следовательно - даже если мы разоблачаем (в большинстве попыток или по истечении должного времени) машинную ложь, но не более эффективно и достоверно, чем ложь мужчины, то тест... пройден! (Во всяком случае, ещё раз оговорюсь, так недвусмысленно следует из формулировки в пересказе). И это... замечательно!

(no subject)

2008-12-07 21:27 (UTC)
Posted by [identity profile] poslednii-krot.livejournal.com
Я бы сказал, что вопрос об интеллекте - это вопрос о социализации машин. Когда люди начнут включать роботов в свою социальную жизнь (дружить с ними, враждовать, обижаться, завидовать...), тогда и можно будет говорить об "искусственном разуме". Все прочее (включая и владение письменным языком, вырванное из контекста социальной жизни) - лишь попытка затуманить очевидное. (Чуть подробнее
у меня в журнале (http://poslednii-krot.livejournal.com/2398.html))

(no subject)

2008-12-07 21:43 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Я прочитал. Можно поинтересоваться — Вы прочитали саму статью Тьюринга? Он дает полноценное объяснение почему он сводит вопрос к своему тесту.

(no subject)

2008-12-08 14:25 (UTC)
Posted by [identity profile] poslednii-krot.livejournal.com
Прочитал ту статью, ссылка на которую дана в вашем посте.
Тьюринг первым же делом замечает, что ответ на вопрос "может ли машина думать" лежит в социальной сфере ("answer... is to be sought in a statistical survey such as a Gallup poll."), а не в сфере точных наук. Но, почему-то, этот вполне конструктивный вывод кажется ему абсурдным и он переходит (без особенных обоснований) к другому вопросу "может ли машина при игре в имитацию обмануть человека?"
Все дальнейшие объяснения касаются технических нюансов игры (почему игроки не должны друг друга видеть? почему надо ограничиться только текстом? и т.п.), но не затрагивают главного: какое отношение имеет новая постановка вопроса к старой, т.е., собственно к искусственному разуму?

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-10 23:23 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-11 00:33 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 00:47 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-11 01:14 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 12:11 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-11 13:32 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-11 11:12 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 12:04 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-11 14:36 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 19:40 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-11 23:44 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-12 11:35 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-13 05:57 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-13 18:01 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-13 19:32 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-13 21:48 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-14 07:58 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-14 13:28 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-14 18:51 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-14 20:45 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-11 17:18 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 19:32 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-12 00:10 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-13 05:59 (UTC) - Expand

(no subject)

2008-12-10 17:54 (UTC)
Posted by [identity profile] rainaldo anonimato (from livejournal.com)
Соглашусь - не столько с репликой в Вашем журнале, сколько с более глобальной (хоть и тоже довольно банальной) встающей для меня за этим "социальным" тезисом мыслью.

Я вообще склонен отказаться (за неперспективностью) говорить о "разуме", "мышлении", "интеллекте" и т.п. применительно к индивиду - будь то гоминоид, железный дровосек, лемов океан или хоть сам демиург:). Вот ведь и Тьюрингу - понадобилось ну хоть три-шесть персон в некое взаимодействие завязать, чтобы о чём-то судить. А зачем, собственно? Может быть, чтобы понять: думает ли человек?

Уважаемый Иванов_Петров очень любит сводить всю возможную "интелектуальную деятельность" компьютера - к "отложенному во времени" ("консервированному") мышлению его программистов. Но позвольте - а разве к самому человеку это так уж не применимо? Дети-"маугли", не прошедшие "программирования" (за исключением наследственного - о котором тоже вряд ли можно забыть) - на прохождение тьюрингового теста вроде бы вовсе не претендуют...
Или зайдём со стороны всех тех "возражений" против "думающей машины", которые пересказаны Фрегимусом, только приложим их - опять-таки к некоему человеку.

Итак, представим себе человека, который:
1) Сотворён вне "божеских законов" (в пробирке?), оставив открытым вопрос о "душе". Это уже уравняет его в глазах определённых людей с "машиной" - но "теологические" аргументы по определению лежат вне сфер доказательств, поэтому проще нам вынести далее этот пункт "за скобки" - сформулировав его лишь для тех, кому без него неймётся.
2) Пугает нас своей непохожестью или непонятностью. Это что - в мире людей столь уж редкий случай?:)
3) Представляется нам примитивным по своим вопросам и ответам, по проявлениям своего мышления, кажущегося нам куда ниже потолком, чем наше собственное.
4) Никогда не сочинил ни сонета, ни концерта, ни даже двустишия и не испытал даже малейшего побуждения к этому или иному "искусству". К тому же крайне не эмоционален. (В том же журнале И._П. не столь давно был большой разговор с участием родителей таких людей, психологов и самих замечательно мыслящих людей, не различающих и не руководствующихся эмоциями).
5) Лишённый большинства ценимых людьми способностей - любого их перечня: да хоть бы и вплоть до членораздельной речи и грамотности.
6,8) Никогда и ничего не затевавший по собственной инициативе. Живущий строго по заданным ему правилам, вплоть до непонятных окружающим курьёзов и нелепостей.
7) Имеющий достаточно серьёзные аномалии нервной системы ("не как у всех"), а также, к примеру, протезы её частей (хотя бы периферических).
9) Пугает своими аурами или "непрошибаемостью" экстрасенсов:).

Все эти странности в глазах разных людей имели бы разный вес (от смехотворного до ужасающего), но скажите - какой из них (да хоть бы и все взятые вместе!) было бы достаточно, чтобы отказать нашему человеку в звании думающего?
Даже если бы всё это "думание" ограничивалось умением правильно держать метлу, поддерживать чистоту и пользоваться холодильником? Но вот живи он в волчьей стае по волчьим законам (и решай, быть может, в процессе охоты даже куда более сложные задачи) - и мы вполне были бы вправе ему в человеческом мышлении отказать и считать волком (если ведёт себя и выглядит похожим на волка, и воет, как волк, и предсказуем-объясним, исходя из знаний о волках, то...) - что ж, пусть эта мысль станет нашим последним "парадоксом" для прояснения сути замеченного выше.

Одним словом, возвращаю Вам Ваш справедливый тезис: "человеками" нас делает вовлечённость в человеческий социум, в том числе присущий этому социуму разум, элементы которого нами не изобретаются, а тем же социумом (нашей в него вовлечённостью) в нас закладываются, используя для этого наши способности к мыслительным, эмоциональным, информационным и прочим операциям, вкупе с ещё более глубоко и базово заложенными в нас алгоритмами первичных потребностей (им можно следовать, с ними можно бороться, блокировать их - но без этой врождённо-конструктивной "базовой системы ввода-вывода" надстроек опять же "крепить" было б некуда).

И вот кто мне теперь объяснит: где же, кроме социальной плоскости, отыскать тут щель для горделивого отмежевания "от машины" (как и, с другого "конца" - от "животного") - тому и сознаюсь, что я-то сам, вне всякого сомнения, "бот"...

(no subject)

2008-12-10 20:36 (UTC)
Posted by [identity profile] poslednii-krot.livejournal.com
Спасибо, ваш ответ было приятно читать. Вы как нельзя лучше сформулировали и аргументировали те тезисы, которые я как раз пытался (не весьма удачно) обозначить у себя в журнале.
В развитие мысли хотелось бы сказать, что "щель" все же существует. Она хоть и связана с социальными функциями, но тем не менее существует в каждом человеке независимо. Эта щель в том, что человек способен быть носителем той самой культуры, быть частью социума, а машина - (пока) нет. Человек, воспитанный волками становится волком (в социальном смысле), а волк, воспитанный людьми - нет. То есть, носителем человеческой культуры из всех известных нам существ может являться только человек. И вполне допустимо называть (индивидуальным) разумом именно то свойство человеческой психики, которое дает ему эту возможность.
И, кстати, творческие способности и непредсказуемость поведения вполне укладываются в это определение. Ведь быть носителем культуры и быть носителем компьютерной программы - совсем не одно и то же. Культура существует лишь в виде череды непрерывных изменений, и быть частью культуры - значит, изменять ее. Впрочем, вполне допускаю, что могут существовать и люди, не способные к этому изменению, а выявить их на практике весьма и весьма сложно.

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-10 22:30 (UTC) - Expand

(no subject)

Posted by [identity profile] poslednii-krot.livejournal.com - 2008-12-11 17:34 (UTC) - Expand

(no subject)

2008-12-08 09:55 (UTC)
Posted by [identity profile] xeus-top-999.livejournal.com
Ваш пост написан настолько интересно, что вы попали в Топ-30 Зиуса (http://xeus.ru/top/) самых обсуждаемых тем в Живом Журнале (http://www.livejournal.com/).
Это очень положительное явление. Пожалуйста, продолжайте в том же духе. © Зиус

(no subject)

2008-12-08 11:06 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Интеллект (способность решать поставленную задачу) у компьютера потенциально есть. Запрограммируем - будет решать, т.е. будет работать не хуже человеческого.
Но у компьютера, на данном витке развития систем, нет и не предвидится способности СТАВИТЬ задачу.
В рамках теории Тьюринга рассуждать об этом трудно, т.к. о постановке задачи он ничего не говорит, только о решении задачи уже поставленной.

(no subject)

2008-12-10 18:36 (UTC)
Posted by [identity profile] rainaldo anonimato (from livejournal.com)
Скажите, положа руку на сердце: Вы лично - много себе (или другим) поставили принципиально новых, ни из чего не вытекающих, произвольных "задач" в этом мире?
Вот родились, скажем, (поставив себе уж конечно такую задачу) - и сразу себе задачи изобретать: "надо дышать!", "надо кушать!", "надо спать!", "надо язык изучать! (выбрать только сначала...)". Или Вам это как бы не очень и требовалось? (Всё, чудесным образом, уже оказалось "украдено до нас"?..)
Где? когда? - как Вы себе представляете - пролёг тот чудесный рубеж, за которым Вы перестали опираться на "задачи", диктуемые нашему сознанию "извне" (нашим собственным устройством и устройством нашего мира), а стали их себе ставить исключительно оригинально и ничем не обусловленно? Уж не тогда ли, когда задумались: чтобы покушать - открыть ли холодильник, пойти ли в магазин или редиску на подоконнике посадить? Я даже не стану утверждать, что такого рубежа не случилось - да что мне, жалко? Просто вот, смотрите - ну, если Вам это удалось: перестать на протяжении жизни быть "только решателем" и начать с определённого момента воспринимать себя "ставящим задачи" (удовлетворяющим Вас образом), - то отчего бы за здорово живёшь в такой возможности любому компьютеру отказывать?

Я просто искренне не понимаю постулируемой Вами разницы: у Вас-человека есть "задачи" базово-врождённые + почерпнутые из социума, которые заставляют Вас впоследствии находить и ставить производные (поскольку Вы - система обучающаяся). Отключите врождённые (психическое заболевание) или не вложите социальные (дети-маугли и изолянты) - не будет нипочём и дальнейших надстроек.
Так что может мешать закладывать то же самое и в "электронный ящик"?

(no subject)

2008-12-11 13:50 (UTC)
Posted by [identity profile] jaerraeth.livejournal.com
Заложить в электронный ящик самообучение? Собственно, уже сделано, в рамках сферы "экспертные системы". Происходит накопление базы данных.
А вот накопления базы знаний (т.е. пресловутых постановок задачи) - не происходит. Потому что господа программеры не понимают, как это программируется, ибо не знают, как это происходит у них самих. Происходит, да - но КАК, сформулировать не удается.
Собственно, тут и ответ: искусственного интеллекта нельзя создать до тех пор, пока не сформулированы правила работы интеллекта естественного - инструмента не столь потенциально мощного, но на данном этапе развития куда как более гибкого...

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-11 19:44 (UTC) - Expand

(no subject)

Posted by [identity profile] jaerraeth.livejournal.com - 2008-12-12 14:54 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-12 18:58 (UTC) - Expand

(no subject)

Posted by [identity profile] jaerraeth.livejournal.com - 2008-12-12 20:24 (UTC) - Expand

(no subject)

Posted by [identity profile] rainaldo anonimato - 2008-12-13 03:06 (UTC) - Expand

(no subject)

Posted by [identity profile] jaerraeth.livejournal.com - 2008-12-15 10:05 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-13 05:52 (UTC) - Expand

(no subject)

Posted by [identity profile] jaerraeth.livejournal.com - 2008-12-15 10:10 (UTC) - Expand

(no subject)

Posted by [identity profile] fregimus.livejournal.com - 2008-12-15 17:12 (UTC) - Expand

(no subject)

Posted by [identity profile] jaerraeth.livejournal.com - 2008-12-15 17:51 (UTC) - Expand

(no subject)

2008-12-19 08:24 (UTC)
Posted by [identity profile] vlkamov.livejournal.com
> машина ведь не понимает, на что она смотрит. Машина не знает, как это
> вкусно — шоколадка, ей даже никогда не хочется ее попробовать. Значит,
> это тоже не интеллект.

Толкование интеллекта сомнительно, но допустим. по существу же процитированного - есть масса производственных процессов, в которых работник не понимает, как вкусно или полезно то что он делает, часто вообще не догадываясь о конечном назначении продукции и(*) . Вы непроизвольно сместили акцент и сделали из этого аргумент. А это не аргумент.

* Например слепые нередко работают на сборке несложной электротехники. Представьте, что они собирают фонарики...

(no subject)

2008-12-19 09:27 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Ну, значит, не справился.

(no subject)

2009-01-08 05:58 (UTC)
Posted by [identity profile] paraxboct.livejournal.com
Очень интересное эссе. Спасибо.

Резюмируя, добавлю, что машина не способна понимать и ососзнавать свое существование. Она лишь может совершать ряд закономерных действий, основанных на происходящих в ее "мыслительном" устройстве объективных событиях.

Человек же с этой точки зрения полагает наличие у себя воли и способности принимать решение из неисчислимого множества выбора таковых решений. И назвает это способностью думать.

(no subject)

2009-01-08 22:44 (UTC)
Posted by [identity profile] fregimus.livejournal.com
Как резюме мне это кажется странным — с это возражением Тьюринг спорил как с гипотетическим аргументом №5. Можно его так сформулировать: «машина может (что угодно), но не может осознавать себя»? С этим он как раз не согласен, и аргументы даже привел, почему он так не считает.

> происходящих в ее "мыслительном" устройстве объективных событиях.
А мышление человека не основано на объективных событиях в его мыслительном устройстве?

(no subject)

Posted by [identity profile] paraxboct.livejournal.com - 2009-01-09 03:11 (UTC) - Expand