![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Неудавшаяся попытка критического прочтения
Русское название: Роджер Пенроуз. «Новый ум короля. О вычислительных машинах, разуме и законах физики». Номера страниц следуют в квадратных скобках за цитатами, и даются по изданию [Penrose 89]. Все переводы сделаны автором, изо всех сил старавшимся сохранить не только семантику, но и стилистику оригинала; последнюю, разумеется, не в ущерб первой. Ссылки на литературу в квадратных скобках и начинаются с фамилии автора. Ссылки на комментарии в конце статьи обозначаются «ножичко솻.
Эта книга захватывает читателя, захватывает новым, по крайней мере для вашего скромного собеседника, методом: в течение всего изложения автор обещает объяснить множество вещей, от необходимости квантово-механического объяснения работы его, читателя, мозга, до эволюционных преимуществ сознания, но не торопится с этими объяснениями. Подобного suspense ожидаешь от детективной истории, но никак уж ни от научно-популярной книги, ни от монографии.
В книге чуть более 450 страниц, но далеко не все они посвящены изложению теории ее автора. В задачу книги входит, как следует думать, предварительное образование читателя до уровня, необходимого для понимания обосновываемых Пенроузом идей. Книга состоит из десяти глав, из которых семь содержат в сжатом и, по видимому пониманию писавшего, популярном изложении определенные физические и математические теории. В главах со второй по девятую кратко и сжато излагаются основы следующих наук и дисциплин:
- философии математики (где автор указывает, что он последователь Платонова учения, утверждающего, среди прочего, существование независимого от нас, непридуманного мира чисел, идеального, внепространственного, неизменного и непреходящего);
- арифметики и теории чисел;
- теории множеств (десятая проблема Гильберта, теорема Гёделя о неполноте, Канторовы мощности множеств; фрактальность, рекурсивная перечислимость множеств);
- вычислительной математики (включая машины Тьюринга, тезис Тьюринга-Черча и λ-исчисление) и теории сложности;
- классической механики (включая Гамильтоново изложение динамики и фазовые пространства);
- классической электродинамики;
- специальной теории относительности;
- общей теории относительности (с тензорами, разумеется!);
- квантовой механики;
- квантовой электродинамики;
- гипотез о квантовой гравитации;
- и наконец, космологии (черные дыры, Большой взрыв, направленность времени и энтропия вселенной).
Список, как видите, нешуточный, и задача изложить эти науки в тех трехстах пятидесяти страницах, наверное, неразрешима. Поэтому не следует ставить Пенроузу в вину то, что он ее не исполнил: иные тратят годы и прочитывают десятки пухлых томов, чтобы понимать все эти учения. Разумеется, разъяснить λ-исчисление, даже популярно, на трех страницах, которые автор смог для того выкроить, невероятно трудно, если и возможно вообще. Именно сжатым объемом и надобностью донести до читателя несоразмерно огромное знание и вызвано такое рваное, косноязычное и совершенно непонятное изложение материала, к которому был вынужден прибегнуть автор. Положа руку на сердце, мало кто произвел бы лучший результат, пытаясь справиться с подобной задачей. Автор здесь признается, что малодушно отказался бы от такой попытки сразу же, без размышления.
Мой наблюдательный читатель уже, должно быть, задается вопросом: как же работа по теории сознания обходится без хотя бы обзора теорий в области искусственного интеллекта (ИИ)? Ведь читателя надо бы «подтянуть» и в этих дисциплинах? Здесь, справедливости ради, надо возразить, что все узнать зараз все равно нельзя. Пенроуз обучает читателя здесь лишь самому необходимому, а что касается остального, тут нам придется положиться на анализ этой области, проделанный Пенроузом, и изложенный кратко и сжато, да и понятный притом без всякой подготовки.
А именно, Пенроуз считает, что ИИ невозможен, и все эти ученые занимаются, в отличие от него, физика, каким-то нелепым делом. Чтобы избавить нас, читателей, от утомительных споров по существу дела, он применяет новый, невиданный доселе в научной литературе (хотя и популярный в некоторых торговых точках) риторический прием: вводит коллективное понятие «ИИ-парни», они же «ИИшники», а затем, виртуозно оперируя утверждениями, подобными «ИИшники никакого понятия не имеют, как запрограммировать [алгоритм] суждения [об истинности факта] на компьютере!»,[412] немедленно заставляет своего читателя задуматься: а всякое ли суждение «естественного» интеллекта озарено светом истины?
Для доказательства «невозможности» ИИ, Пенроуз приводит хорошо известный «аргумент Сирла», известный также под именем «китайской комнаты». «Доказательство» производится путем reductio ad absurdum, или «рассуждением от противного» (см., напр., Википедия, «Доказательство от противного»). Предположим, что ИИ возможен, в том смысле, что существует алгоритм, понимающий китайский язык и выдающий осмысленные ответы. Испытатель, не знающий китайского, запирается в комнате, а испытуемый, не знакомый с испытателем и говорящий по-китайски, пишет на листочке вопрос, а затем просовывает этот листочек в запертую комнату. Испытатель проделывает все шаги алгоритма и пишет в итоге ответ по-китайски. Испытуемый читает ответ и говорит: «Да, это разумный ответ! В комнате сидит человек, оворящий по-китайски!». Но ведь испытатель не говорит по-китайски? Не говорит. Противоречие? Ага! Следовательно, наше начальное положение неверно, и, стало быть, ИИ невозможен.
Правда, автор этих строк не видит, почему бы тем же способом не доказать также и невозможности алгоритмического сложения чисел, или, скажем, решения квадратного уравнения. Ведь если испытатель не обучен сложению, а пользуется алгоритмом, то испытуемый снаружи тоже подумает, что человек в комнате складывать умеет! Противоречие? Противоречие! Значит, алгоритм сложения двух чисел невозможен! Калькуляторы тоже невозможны: читатель легко докажет это, дав необученному арифметике испытателю в руки вместо алгоритма калькулятор. Впрочем, философия на то и древняя наука, чтобы все было туманно, но утвердительно. Автор здесь уверен, что есть философские аргументы, объясняющие принципиальную разницу между этими двумя случаями, и почти уверен, что их ему точно так же не понять… Впрочем, не будем огорчаться. Калькуляторов не бывает, но самая обычная логарифмическая линейка† сделает то, что никакому компьютеру не под силу! Сейчас ее превосходство будет объяснено.
В главе о классической механике Пенроуз говорит о принципиальной невозможности численного моделирования механической системы, за редким исключением сконструированных специально для того, чтобы быть моделируемыми. Этот тезис доказывается очень просто: до бесконечного числа знаков компьютер ведь считать не может†. А из него сразу же следует вывод, блестящий в своей простоте, мимо которого прошли, буквально не заметив его прямо под ногами, целые поколения физиков и математиков! Например, угол отклонения качающегося маятника от вертикали может оказаться числом и невычислимым. А значит, компьютерная модель маятника невозможна! Правда, Пенроуз тут же оговаривается, что специально просчитанный маятник можно смоделировать. Но кому это было бы интересно — заранее придумать то, что моделировать? Да и как считать, если калькуляторов не бывает? Но старая добрая логарифмическая линейка нас спасет! Она-то считает любые числа с бесконечной точностью! Движок на ней можно передвигать на сколь угодно малые расстояния, правда ведь?
Позволительно ли так надувать физику, чтобы натянуть ее на математику? Пенроуз, при всей неординарности своего, можно назвать, мышления, — все-таки физик, и о том, что материя состоит из атомов, наверное, знает. И о том, что длинами меньше планковской, ~10−35 м, не оперируют даже в микромире, тоже знает. Но требует при этом бесконечной точности в вычислениях: или бесконечность, или ничего не вычислится! А вот почему, этого нам с вами, по нашей недоученности, не понять. Да в конце концов, кто книжку писал? — Пенроуз. Кто писал, тот и написал, а чего не написать-то?
Затем Пенроуз переходит к описанию устройства мозга и выяснению, где именно в нем находится сознание. Путем довольно неочевидных рассуждений, Пенроуз, в своей конструктивной манере изложения, одну за одной исключает все части мозга, как возможные вместилища сознания. Все гениальное воистину просто! Сознание — нигде! Даже не в больших полушариях, столь высоко оцененных лишь несколькими страницами ранее, в следующем образчике изящного слова: большие полушария есть «та часть, которой, как знают человеческие существа, им следует гордиться более всего,… поскольку эта часть не только наибольшая от всего мозга человека, но и наибольшая по отношению к [размеру] всего мозга, в сравнении с другими животными».[375] Нельзя не согласиться: именно это чувство, вызывающая желание помериться величиной сего предмета гордости, и нашла отражение в известной поговорке; хорошо известна также и сила влечения к истине, возбуждаемая двумя большими полушариями в особо страстных адептах философии! А вот «бессознательное… все то, что можно вычислить алгоритмически, [находится], предположительно, в мозжечке».[413] Из чего, правда, исходя, делается такое предположение, в книге не говорится. Но, повторюсь, учитывая малый объем книги и грандиозность задачи, опущение принципиальных рассуждений тут вполне оправдано. Да и вообще, что для нас главное: рассуждения или результат? К теории, товарищи, надо подходить практически!
Далее Пенроуз дает первую из давно обещанных разгадок: почему мозг — это квантовый вычислитель. Это рассуждение достойно развернутой цитаты (речь в этом параграфе сначала велась о параллельных компьютерах):
Единство «я»† сознательного восприятия, как мне кажется, идет вразрез с картиной параллельного компьютера. Эта же картина могла бы, с другой стороны, подойти в качестве модели бессознательных действий мозга… С другой стороны [с третьей —freg.], мне кажется, что может быть вполне вообразима связь между единством «я» и квантовым параллелизмом†… Если сознательное «ментальное состояние» может быть уподоблено квантовому состоянию, то некая форма единственности «я» или глобальности мысли может быть более подходящей, чем в случае обычного параллельного компьютера… Но прежде, чем рассматривать такую идею, мы должны рассмотреть вопрос о важности квантовых эффектов вообще в деятельности мозга.[399]
Этими золотыми словами, этим обещанием рассмотреть вопрос важности квантовых эффектов Пенроуз опять создает ситуацию подвешенности в долгом, напряженном ожидании! Вашему собеседнику-недоучке, например, кажется, что единство «я» также идет вразрез и с картиной Ван Гога «Череп с сигаретой в зубах», из чего он все же затрудняется сделать вывод о квантово-механической природе своего «я», Ван Гога или черепа. Неясность эту мы опять же должны отнести на стесненность Пенроуза несоразмерностью громадья задач и ничтожности объема одного тома. Следует отметить, справедливости ради, что отдельные логически завершенные рассуждения мы все-таки находим: «Поскольку [в сетчатке] имеются нейроны, возбудимые, в принципе, одним квантом [света], не будет бессмысленным вопрос, а нет ли подобных нейронов и в мозге? Свидетельств этому, как мне известно, нет… Однако, можно и представить, что где-то глубоко в мозге найдутся нейроны с порогом возбуждения ниже [энергии] одного кванта. Если таковые нейроны вдруг обнаружатся, тогда можно будет сказать, что квантовая механика важна для деятельности мозга».[400] Присутствие столь неоспоримо справедливого вывода еще раз укрепляет пишущего эти строки в убежденности, что в прочих случаях Пенроуз отказывается от логического размышления лишь для экономии изложения, а вовсе не из неумения или, как можно было бы подумать, нежелания.
По ходу изложения Пенроуз оперирует понятиями «сознание» (consciousness), «бдение» (awareness) и «мышление» (cognition), по-видимому, в равном смысле, как антитезу «бессознательному» (unconscious), покрывающему такой диапазон явлений, как сон, инстинкты, рефлексы и автоматические действия. За 40 страниц до конца изложения, когда наступает пора, наконец, определить термины, которыми Пенроуз пользуется в течение всей книги, он отводит этому несколько страниц, где, в очередной раз не обманывая наших ожиданий, так и не приходит ни к какому определению†; затем он неоднократно возвращается к этим попыткам. В числе прочих, при обращении к этой же теме возник следующий, несомненно благородный по своим намерениям пассаж, обличающий тех из братьев старших, которые совершенно не по-братски принижают достижения и подавляют личности братьев меньших: «Остается открытым вопрос о возможности горилл и шимпанзе общаться, пользуясь языком жестов, а не нормальным[sic!] человеческим образом (коему они не приспособлены из-за отсутствия подходящих[sic!] голосовых связок)… Кажется ясным, что, невзирая на жаркие дебаты, [обезьяны эти] способны к обмену знаками, хоть и элементарному. По моему убеждению, это немного хамовато[sic!] со стороны некоторых не называть этот обмен жестами „словесным“. Не для того ли не допускают они приматов в „клуб небессловесных тварей“, чтобы потом изгнать их и из клуба тварей сознательных?»[425]. Да, товарищи, стыдно, стыдно за наших товарищей по биологическому виду, еще допускающих немного хамство, и, не обойду вниманием намека тов. Пенроуза, замышляющих конспирацию с целью изгнания наших ближайших родственников, наших братьев, «способных на истинное вдохновение»,[425] наших, так сказать, соратников в этом нелегком деле словесности, из партии сознательных, честных и совестливых! Где же ваш интерспециализм, товарищи! Позор предателям классовых, отрядных и семейственных интересов!
И вот, наконец, мы, вслед за автором, приближаемся к разгадке, к торжественному моменту, когда ленточка будет разрезана, и покрывало тайн сознания падет, и ничто более не скроет от нас живительных лучей света истинного знания! Полезно здесь перечислить, какие же истины были открыты нам к этому времени:
- ИИ не бывает.
- Модели механической системы тоже, в общем случае, не бывает.
- Ум алгоритмом не охватишь.
- Можно было бы предположить, что нельзя исключить возможного влияния квантовых эффектов на работу мозга, если вдруг найдутся этому экспериментальные подтверждения.
- Гориллы суть говорящи и вдохновенны.
Какой же нам следует сделать из этого вывод? Невозможно было нам и на этот раз предвосхитить той ярчайшей вспышки интуиции, момента озарения истинного мыслителя! Вот что говорит сам Пенроуз, открывая нам глаза на эту тайну:
Я представляю себе, что, когда ум воспринимает математическую идею, он входит в контакт с Платоновым миром идеальных концепций… В соответствии с точкой зрения Платона, математические идеи существуют сами по себе, в идеальном, [вечном и неизменном] мире, доступном лишь уму. Когда кто-либо „видит“ математическую идею, его сознание врывается в этот идеальный мир, и входит с ним прямой контакт („доступность только через ум“)[sic!]… Разговор математиков возможен только лишь потому, что им открыта эта прямая дорога к истине, и сознание каждого из них находится в состоянии напрямую воспринимать истины математики, посредством „ви́дения“…
…Разум всегда в состоянии соединиться [с этим миром]. Но только немного выдается каждый раз… Из того факта, что математические истины есть необходимые истины, никакой „информации“, в техническом смысле, делающему открытие не передается. Вся информация была там [где? —freg.] все время. Это — лишь вопрос совокупления фактов и „ви́дения“ ответа! Все это соответствует идее самого Платона о том, что (скажем, математическое) открытие есть лишь разновидность воспоминания!… Но, чтобы эта точка зрения была полезна, в случае математической коммуникации, следует представлять себе, что интересные и глубокие математические идеи неким образом более существуют[sic!], нежели тривиальные или неинтересные.[428—429]
Оставшиеся несколько страниц книги посвящены, насколько смог их понять ваш скромный помощник, геометрическим мозаикам и специальным вопросам кристаллографии.
«А как же обещания автора?», спросит удивленный читатель, «Как же suspense? А зачем нас учили на протяжении семи глав непроходимым языком всем этим головоломным дисциплинам, которых все равно из такого краткого изложения не понять — при том, что для осознания идеи автора, кажется, даже школьная арифметика не требуется? Зачем меня, добропорядочного читателя, так жестоко надули?» Увы, ответы нам не известны. Рискнем лишь предположить, что Пенроуз сам не предвидел этого неожиданного контакта с идеальным миром истин, закончившегося извлечением в наш мир этой, несомненно, самой существующей из идей, и именно нежданное, не по плану, можно сказать, изложение ее и сделало все предыдущие вопросы несущественными, а ответы на них — более не нужными. Задаваться этими вопросами теперь было бы, думается, так же несмысленно, как, дочитав «Знак четырех», терять и сон, и аппетит, мучаясь загадкой: а ковырял ли когда-нибудь Шерлок Холмс в носу?
Ведь нам все ясно уже и без этого, не правда ли?
Комментарии
Это приложение, в отличие от основного текста статьи, не содержит ни иронии, ни сарказма. Любое утверждение здесь, за исключением, разумеется, цитат, следует принимать за то, чем оно представляется.
Логарифмическая линейка — вычислительный прибор, состоящий из корпуса с неподвижными шкалами, скользящего в нем движка со шкалами, подвижными относительно первых, а также визира с риской для точного считывания значений с отдаленных друг от друга шкал. Градуировка шкал нелинейная, и, хоть не для всех шкал она и логарифмическая, именно такой принцип градуировки дал название прибору. Устройство использовалось до появления калькуляторов для численных расчетов инженерами, навигаторами и т. д. См., напр., Википедия, «Логарифмическая линейка».
Вычислимые и невычислимые числа. Натуральных чисел, как известно, бесконечно много, а целых чисел — так же много, как и натуральных, а вовсе не вдвое больше (здесь полезно вспомнить, что расходящиеся ряды не позволяют применять к ним кажущиеся очевидными алгебраические преобразования). Доказательство этой теоремы разработано великим математиком Георгом Кантором, и удивительно просто: возьмем
и перенумеруем все целые числа! Поскольку мы не можем нумеровать каждое число в отдельности, мы выведем вместо того общий принцип нумерации, для произвольного целого числа n. Начнем нумерацию так:
0 будет № 1, −1 — № 2, 1 — № 3, −2 — № 4, 2 — № 5, −3 — № 6, и так далее, так что любое целое число n будет иметь номер 2n + 1, если оно положительное, или −2n в противном случае. Другими способами
можно перенумеровать все рациональные числа, т. е. дроби (т. н. «диагональный аргумент Кантора»), а также все алгебраические числа, которые суть решения полиномиальных уравнений. Но даже за вычетом всех этих перенумерованных чисел, остается еще множество чисел, которые нельзя перенумеровать: континуум вещественных чисел. Кантор доказывает, что даже в интервале между 0 и 1 «все» числа перенумеровать нельзя. Также верно и то, что эти числа непредставимы в компьютере, и даже называются они «невычислимыми». Компьютеры ведь считают с ограниченной точностью. Представим, что некий компьютер считает числа до 40 десятичных знаков. Такому компьютеру все равно, что вот это число:
0,1111122222333334444455555666667777788888 ,
что это:
0,1111122222333334444455555666667777788887 ,
потому что оба они округлятся до
0,111112222233333444445555566666777778889 ,
Если надо для решения конкретной задачи, правда, компьютер может и до сотни, и до тысячи знаков сосчитать, и с любой конечной точностью. Но с бесконечной точностью за конечное время, само собой, нет.
Тем не менее, утверждения о бесконечной точности механического движения в системе, даже идеальной, равно как и о бесконечной точности, потребной для построения вычислительной модели такой системы, от физика слышать чрезвычайно, просто запредельно странно.
Единство «я». Пенроуз постоянно ссылается на некое единство сознания как данность. Аргумент этот возникает из здравомысленных наблюдений, но рациональному обсуждению не подвергается: «Характеристикой сознательной мысли является ее единство… Вопросы наподобие „Как, по-вашему, мне думать более одной мысли сразу?“ совершенно обычны».[399] Меж тем, постулат единства «я», как процесса, производящего сознание, отнюдь не очевиден, более того, при внимательном рассмотрении оказывается ошибочным.
«Мы называем словом «я» полновластное существо внутри нас, желающее чувствовать и думать за нас, и принимать важные решения за нас. Мы зовем его «я», самость, эго, и мы представляем его никогда не меняющимся, чтобы ни случилось с нами. Иногда мы даже делаем «я» маленьким человечком, живущим внутри нашего разума».[Minsky 06 с. 299]
«Гомункул… миниатюрный взрослый, который, по положению, обитает в мозгу… воспринимая… сенсорные сигналы и вызывая все команды мускулам. Любая теория, полагающая подобного внутреннего агента, рискует оказаться в бесконечной рекурсии… поскольку мы можем спросить, а нет ли у маленького человечка в голове своего маленького человечка, отвечающего за его действия и восприятия, и так далее». [Dennett 78 apud Minsky 06].
Квантовый параллелизм — вытекающая из особой интерпретации квантовой механики возможность элементарной частице находиться одновременно в нескольких точках пространства.
Определение сознания и интеллекта. Справедливости ради, отметим, что определение даже в гораздо менее расплывчатых случаях затруднительно. Пенроуз, по недопониманию, устанавливает рамки для определений невнимательно, и пытается разграничить процессы в уме там, где они в разграничении не нуждаются. Даже сама терминология, используемая Пенроузом, противоречива и нестабильна. Он говорит, «при моем собственном взгляде на вещи, вопрос интеллекта подчинен вопросу сознания. Я не полагаю, что я мог бы поверить, что истинный интеллект может проявиться, если при этом не появляется и сознание».[407] Автор, при всех приложенных им стараниях, так и не смог разобраться, что же, по взглядам Пенроуза, есть главное, а также в чем состоит отличие истинного интеллекта от просто интеллекта.
Минский [Minsky 86], вводя понятие сознания [гл. 6.1], пишет, «в жизни вам очень часто приходится иметь дело с вещами, которых вы не понимаете. Вы водите машину, не зная, как двигатель устроен внутри. Вы едете пассажиром, не зная, как водитель устроен внутри. Но самое странное, вы управляете своими телом и разумом, не понимая, как вы сами устроены внутри. Не замечательно ли то, что мы можем думать, не понимая, что значит думать?… Наши мысли… управляют множеством процессов, которые мы редко замечаем. Не понимая, как они работают, мы учимся достигать цели, посылая сигналы этим чудесным машинам, словно колдуны древности, читающие ритуальные заклинания».
Здесь же Минский приводит определение из словаря Вебстера: «сознающий. 1. имеющий чувства или знание о своих ощущениях, либо о внешних вещах); знающий или чувствующий, (что ч.‑л. существует, происходит);… 3. Воспринимающий себя мыслящим существом, знающий, что и почему он делает». Как хорошо заметно, ни метафорическое сказание Минского, ни претендующий на четкость определения язык словаря ясности здесь не дают.
В [гл. 7.1], Минский рассуждает о трудности определения интеллекта, пробует, ведя диалог с критиком, различные определения, и останавливается вот на таком: «В наших умах происходят процессы, позволяющие нам решать задачи, которые мы сами полагаем сложными. Те из этих процессов, которые мы пока не понимаем, называются „интеллектом“. Некоторым не понравится это определение, поскольку оно обречено на изменение по мере того, как мы все глубже изучаем психологию. Но, на мой взгляд, именно так и должно быть, поскольку само понятие „интеллекта“ напоминает фокус на сцене. Подобно „неисследованным регионам Африки“, он исчезает по мере того, как мы исследуем его».
Здесь автору остается лишь согласиться с Минским и расстаться с надеждой дать четкое и неопровержимое определение сознанию или интеллекту, а заняться вместо того делом интересным и полезным.
Использованная литература
Dennett, Daniel C. “Why Can't You Build A Machine That Feels Pain.” In Brainstorms, Cambridge: MIT Press, 1978, 190—229. Apud [Minsky 06].
Minsky, Marvin. The Society of Mind. New York: Simon and Schuster, 1986.
Minsky, Marvin. Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster, 2006.
Penrose, Roger. The Emperor's New Mind. Concerning Computers, Minds And the Laws of Physics. New York: Oxford University Press, 1989
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 19:01 (UTC)Честно говоря, то, что я прочитал статью, прежде чем иметь какое-либо суждение по поводу аргументации Сирла, я полагал само-собой разумеющимся. Первый раз я ознакомился с ней, естественно, задолго до нашего разговора. При этом столь же естественно ожидаю этого от любого, кто вступает в дискуссию по КК. Согласитесь, иное было бы в высшей степени странно. Возможно, я чрезмерно наивен в этом плане.
Возражение на КК, столь подробно расписанное (что, несомненно, будет полезно для читателей этой дискуссии), хорошо известно. Это, по-существу, позиция Дэннета, Минского, Хофштадтера и др. Признавая выводы Сирла (понимания у МТ не возникает), в рамках этой позиции делается следующий шаг - понимания на самом деле не возникает и у Сирла. А то, что Сирл принимает за понимание - суть иллюзия по отношению к собственному мозгу (типа мини-КК), подобная той, что возникает у собеседников Сирла, китайцев, по отношению к нему.
Занятное рассуждение. Проблема лишь в том, что оно не более обосновано, нежели доводы Сирла. Если обратите внимание, оно опирается на предположение, что мозг в процессе понимания осуществляет те же типографские операции и ничего сверх этого (исполняет тот же алгоритм, но на нейронах). Однако дело в том, что как раз этот момент подлежит обсуждению (именно его атакует Сирл): невозможно постулат сильного ИИ обосновать через него же (постулат сильного ИИ).
Не говоря уже о следующей интересной мелочи - кто (что) является наблюдателем мозга Сирла в момент понимания. Кто (что) испытывает иллюзию?
Утверждение, что Сирл такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин предполагает гомункулуса, со стороны выносящего суждение о наличии понимания у машины "А". Надеюсь, вы не имели это в виду. Сирл и есть машина "А". Он не может ее внешне наблюдать, он ей является. Вы (вместе с Д., М.и Х.) предлагаете считать, что машина "А" сама выносит суждение о себе и собственном понимании, не производя, как мы договорились, ничего кроме типографских операций.
Мне кажется, этот тезис достаточно тяжел для аргументации и для демонстрации. Пока он существует в виде веры (назовем это убеждением).
Как показал Сирл (и с ним все согласились), в результате выполнения алгоритма у исполнителя не может возникнуть никакого понимания. Даже иллюзорно понимать что-либо МТ не может (у МТ ума нет), она не наблюдает и не выносит суждений. Она манипулирует символами. Кто тогда выносит суждения?
Сколько я не пытался выяснить, как конкретно предлагается выскочить из этой рекурсивной петли, ничего внятного не обнаружил. Даже весьма уважаемые мною и упомянутые выше господа, на мой взгляд, к этой проблеме не смогли подступиться. Хотя очень старались.
На "точки над i" я пока решил не отвечать. Будет настроение, напишу. Скорее всего не будет. Думаю, что и вам моя писанина по этому поводу не сильно нужна.
Я вклинюсь в разговор, с Вашего позволения
2008-01-05 22:55 (UTC)"Утверждение, что Сирл такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин предполагает гомункулуса, со стороны выносящего суждение о наличии понимания у машины "А". Надеюсь, вы не имели это в виду. Сирл и есть машина "А". Он не может ее внешне наблюдать, он ей является."
Посмотрите так. Когда Вы говорите по-английски, Вы говорите по-английски. А когда Вы думаете: "Я говорю по-английски", Вы не говорите по-английски, Вы думаете о себе-прошедшем. Т.е. о том агрегате/процессоре/объекте, говорившем по-английски некоторое время назад. А в текущий момент это тот же самый агрегат, только занимающийся другим делом (рефлексией).
Иными словами, Сирл не является машиной "А". Сирл является объединением машины "А", процессора, способного выполнить алгоритм "К" и некоторой ещё части, способной наблюдать _прошлое_ (именно прошлое - но ни в коем случае не себя в настоящем). И вот именно эта часть может наблюдать прошлое внешне - и работу машины "А", и работу процессора "К", и даже себя-в-прошлом.
И далее, про суждения -
"Даже иллюзорно понимать что-либо МТ не может (у МТ ума нет), она не наблюдает и не выносит суждений. Она манипулирует символами."
Я, вероятно, повторю аргументы
Мой ответ таков - только по предыдущему опыту, по аналогии с другими людьми. Т.е. мы тут тоже манипулируем символами, но так искусно, что Вы из этих символов извлекаете некий "смысл". _Вы_ извлекаете - но потом неявно предполагаете, что "ну не может же тупая железка делать то же самое!" и делаете вывод: "значит, на другой стороне такой же понимающий, что и я".
Вы не знаете, что происходит у меня в голове, когда я Вам отвечаю по-русски. Но Вы, однако, не знаете и того, что происходит в _Вашей_ голове, когда она отвечает мне по-русски! Но по результатам - по манипуляции символами - делаете вывод, что наши с Вами головы в чём-то похожи. Т.е. обе "умные".
Алгоритм "К", если он будет создан, точно так же будет "умным" (вернее, работающий комплекс из процессора и этого алгоритма). Сирл, который выучит алгоритм и будет работать по алгоритму "К", тоже будет в той же степени умным. Собственно, любое китайское дитё именно это и делает в течение первых нескольких лет своей жизни :)
Re: Я вклинюсь в разговор, с Вашего позволения
2008-01-06 05:09 (UTC)да, я предполагал, что такое возражение может возникнуть. На мой взгляд, оно бесперспективно. Привнесение для каждого мыслительного процесса или действия отдельной МТ ничего не дает - все это разнообразие сводимо к одной МТ и одному алгоритму. Кроме того, надо учитывать, что разговор идет в контексте сильного ИИ, согласно которому понимание достижимо на МТ. Если вы вводите дополнительные факторы ("некоторая часть", не сводимая к МТ), это надо обсуждать отдельно. Там будут свои трудности.
Откуда следует, что "наблюдение и вынесение суждений" отлично от "манипулирования символами"?
http://fregimus.livejournal.com/8524.html?thread=47180#t47180
Заметьте, ровно тот же вопрос задает вам Сирл, меняя его знак на противоположный - откуда следует, что "наблюдение и вынесение суждений" представляет собой процесс "манипулирования символами"? И говорит: нет никаких достаточных оснований считать, что это так.
Так что здесь у сторонников и противников сильного ИИ равнозначные взаимные вопросы друг другу.
Как Вы...отличаете, что мы с уважаемым fregimus'ом - не боты, а живые люди?
Я не отличаю. Я просто исхожу из предпосылки, которая наиболее рациональна в данной ситуации.
Обратите внимание, как вы составляете свои сообщения, я не знаю. Но важно, что в случае МТ мы это знаем достоверно. Иначе, разумеется, ничего нельзя было бы сказать по поводу ее "понимания".
Re: Я вклинюсь в разговор, с Вашего позволения
2008-01-06 06:04 (UTC)Не очень понятно, к чему это замечание. Я возражал Сирлу на "Он не может ее внешне наблюдать, он ей является." Пусть МТ может наблюдать _себя_в_прошлом_ - в чём проблема?
"откуда следует, что "наблюдение и вынесение суждений" представляет собой процесс "манипулирования символами"? И говорит: нет никаких достаточных оснований считать, что это так."
Тут всё просто - это действительно ниоткуда не следует. Однако подобное предположение проще, чем обратное, непротиворечиво и посему имеет право быть принятым в качестве основной гипотезы. Я просто исхожу из предпосылки, которая наиболее рациональна в данной ситуации. (с) :-)
В конце концов, насколько я понимаю, Сирл возражает этому - а Вы тут выступаете за Сирла. Ну так выступайте же! :)
"Обратите внимание, как вы составляете свои сообщения, я не знаю. Но важно, что в случае МТ мы это знаем достоверно."
Что из этого следует? Почему из этого делается вывод, что МТ не обладает "пониманием"?
Смотрите, предположим, мы имеем два процесса - я и МТ. Входные/выходные потоки данных у них идентичны. Каково самое рациональное предположение? Что устроены они одинаково, правда? И что если один процесс обладает "пониманием", то и другой им тоже обладает, верно? Это всё - "наиболее рациональные предпосылки".
Заметьте теперь, что с одной стороны - "эта предпосылка наиболее рациональна", а с другой - "эту предпосылку невозможно доказать". Спрашивается, разрешим ли этот спор. Наиболее рациональным (конструктивным) будет считать, что он разрешим - в пользу первой стороны :)
Re: Я вклинюсь в разговор, с Вашего позволения
2008-01-06 06:36 (UTC)что значит пусть? вы отдаете себе отчет, как это может происходить, или просто выражаете пожелание?
Однако подобное предположение проще, чем обратное
Неочевидно, что проще. К тому же, в гипотезах, затрагивающих биологические объекты, "проще" не всегда оказывается верным выбором. Это сложная проблема.
Входные/выходные потоки данных у них идентичны. Каково самое рациональное предположение? Что устроены они одинаково, правда?
У вас есть не только входные/выходные потоки. У вас еще есть полное знание принципов работы МТ и возможность наблюдать собственное мышление изнутри (рефлексия). Этого достаточно (ну помимо нейрофизиологии, которая показывает, что ваше устройство и МТ очень даже различаются), чтобы как минимум рассматривать разные гипотезы.
Отв. 1
2008-01-06 14:53 (UTC)- Что значит пусть? вы отдаете себе отчет, как это может происходить, или просто выражаете пожелание?"
"Пусть" здесь означает, что ключевым моментом моего рассуждения является способность одной части наблюдать другую часть в прошлом. Если Вы говорите, что многие части сводимы к одной МТ (утв.А), то это Вам надо озаботиться этим вопросом - если _Вы_ можете свести многие части к одной, сохранив это свойство, значит, утв.А верно. Если _Вы_ не можете свести многие части к одной с сохранением этого свойства, значит, утв.А неверно.
Пока же я даже не понимаю, какой смысл в Вашем утверждении - предположим, что сводимо - что это нам даёт? К какому противоречию приводит? Или, предположим, несводимо - что тогда из этого следует?
Повторюсь, я отвечал (и опровергал - или, если угодно, объяснял) утверждение Сирла "Он не может ее внешне наблюдать, он ей является." Как Ваше утверждение о сводимости относится к этому Сирловому?
Re: Отв. 1
2008-01-06 18:24 (UTC)Я не знаю, что вы вкладываете в данном случае в слово "наблюдать". Я его использовал в контексте суждения о понимании. Что такая способность существует, мы знаем достоверно только по отношению к себе. Если вы повторите эксперимент Сирла и в результате формальных операций у вас не появляется понимания семантики сообщений, вы можете принять это за довод против постулата сильного ИИ. Но можете и не принимать. Считая, что МТ все же каким-то неизвестным способом может понимать, несмотря на то, что у вас это не получилось.
Я полагаю, что внятных оснований делать такое предположение никем не было предложено. Но вы можете его придерживаться, ни Сирл, ни Пенроуз никак не способны этому воспрепятствовать.
Re: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byОтв. 2
2008-01-06 14:59 (UTC)Неочевидно, что проще.
См. бритву Оккама - если многое можно объяснить с помощью малого, то так и стоит делать, не вводя многое для объяснения.
Проблема, действительно, сложная. Однако констатация этого факта не является _возражением_. Да и вообще, констатация чего-либо как сложной проблемы, без дополнительного развития мысли, довольно бессмысленна :)
Рассматривайте эту пропозицию так - "наблюдение и вынесение суждений" можно рассматривать, как процесс "манипулирования символами". Т.е. если подобное рассмотрение не приводит нас к противоречию, значит, можно.
Re: Отв. 2
2008-01-06 17:55 (UTC)Что касается бритвы Оккама, то, как бы это ни было для вас неожиданным, гипотеза Сирла проще, чем ваша. Так что размахивать ей надо аккуратно.
Re: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byОтв. 3
2008-01-06 15:08 (UTC)- У вас есть не только входные/выходные потоки. У вас еще есть полное знание принципов работы МТ и возможность наблюдать собственное мышление изнутри (рефлексия)."
Это неправда - у меня нет возможности наблюдать собственное мышление изнутри полностью. Другими словами, я подвергаю сомнению Ваши (и мои) внутренние ощущения и соображения на тему собственной мыслительной деятельности. Тем более, что никто никогда не смог (пока) чётко описать эту свою деятельность. Собственно, именно на это, в частности, и направлены все подобные разговоры - описать мыслительную деятельность, в частности, свою.
___
Вообще, упоминание "разных гипотез" без их рассмотрения (и даже без называния) не является осмысленным с моей точки зрения. Это знаете, на что похоже - что я Вам выдвигаю гипотезу, что
2*2=5что Солнце вращается вокруг Земли, а Вы мне - "это сложная проблема".Так мы недалеко уйдём, да и вообще подобный разговор малоинтересен. Выдвигайте _свою_ гипотезу и доказывайте её - или по крайней мере докажите несостоятельность моей. А констатировать, что всё тут кругом сложно, и может быть так, а может быть и эдак... ну, я это и так знаю :)
Re: Отв. 3
2008-01-06 17:43 (UTC)Re: Отв. 3
Posted byRe: Отв. 3
Posted byRe: Отв. 3
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 04:36 (UTC)Неверно Вы меня в этой детали поняли. Понимания у процессора не возникает. Собственно «ум» состоит из алгоритма и, непременно, состояния процессора (например, содержимое оперативной памяти). Я не признаю тут выводы Сирла. Я только соглашаюсь, что процессор, без алгоритма, не умен. Без алгоритма — здесь именно это важно.
> Проблема лишь в том, что оно не более обосновано, нежели доводы Сирла.
Я не уверен вообще, что Вы понимаете, о чем я говорю. Постарайтесь, пожалуйста, я очень Вас прошу. Вот то, что я сейчас скажу в этом абзаце. Сирл доводит рассуждение до необходимости введения в картину некоей «каузальности» («шайтана», «Юпитера», «демона им. Максвелла», и т.д. Можете называть это любым из этих слов). Я показываю только, только то, что этой необходимости нет. Более этого я ничего не утверждаю. Договорились? Я не «за», не «против», и даже не «вместе с».
> Если обратите внимание, оно опирается на предположение, что [и т.д.]
Это было предположение. Такой способ доказательства называется «от противного». Сирл его использует, но ошибается по ходу дела, и ошибочно полагает, что все это приводит к противоречию. Я показываю, что не приводит, но не доказываю ни истинности, ни ложности этого утверждения.
Понимаете, Сирл как бы говорит: пусть утверждение P есть «Машина «К« возможна»; тогда, если предположить P, из этого следует, что и U, и Ū, одновременно, а этого не может быть; следовательно, P ложно. Я показываю, где он ошибся. Никакого утверждения, стало быть, о ложности P делать нельзя. И, конечно, об истинности P речь вообще ни разу не шла.
> кто (что) является наблюдателем мозга Сирла… [и] испытывает иллюзию?
Никакой иллюзии. Или уж настоящий ум, или тогда и Вы мне мерешитесь, и я мне мерещусь.
> Утверждение, что Сирл … наблюдатель машины «А», предполагает гомункулуса,
Не предполагает. С чего бы?
> Сирл и есть машина "А".
Заблуждение (1).
> Он не может ее внешне наблюдать, он ей является.
Ум знает, полагаю, что он ум. Мой вот точно знает. Большинство людей, с которыми мне довелось общаться, знают, что у них есть ум. Это вот мое наблюдение, такой у нас будет grounding, пока мы не дадим определения «уму». А у Вас вот другой, выходит, опыт на эту тему? Вы, значит, не наблюдаете у себя своего ума? А откуда же Вы знаете тогда, что он есть?
> Вы … предлагаете считать, что машина "А" сама выносит суждение … не производя, как мы договорились, ничего кроме типографских операций.
(Вздохнув) Плохо дело. Я просто показываю, что это предположение (и только!), вопреки утверждению Сирла, не ведет к противоречию. Я ничего не предлагаю. Я не ставил такой задачи. Я обещал показать, где ошибка, и показал. Для доказательства надо было предположить, (вообразить, на время только, как будто бы так и есть, ну, я уже не знаю, как проще объяснить, ну как в игре как бы в детской — как будто так, а на самом-то деле все равно неизвестно, как бы), что машина «А» и т д. Как только мы нащли у Сирла ошибку, и с доказательством закончили, так у нас нужда делать такое предположение (предположение, не более!) и перестала. Понятно?
> Как показал Сирл … в результате выполнения алгоритма у исполнителя не может возникнуть никакого понимания.
Может не возникнуть, строго говоря, но это — мелкая деталь. То есть, «Сирлу» не запрещено выучить кит. яз., читая алгоритм. Но учебник, думаю, лучше! :-) (Посл. предложение — шутка. Ее не надо обсуждать, пожалуйста)
> она не наблюдает и не выносит суждений. Она манипулирует символами.
Одно ведь не исключает другого? Паровоз одновременно и пыхтит, и дымит, и едет. Тут нет противоречия.
> Кто тогда выносит суждения?
Говорите, что суждение о себе самом невозможно? Разве? А сам-то я, грешным делом, вот, иногда… Ладно, не буду рассказывать.
> На "точки над i" я пока решил не отвечать.
Спасибо! Я там так просил не отвечать. Честно, Я буду Вам просто признателен чрезвычайно, если Вы на это отвечать не будете.
В итоге, давайте так. Я показал, где Сирл неправ, доказывая P, где P = как мы договорились выше. Если у меня ошибка — покажите, где. Если нет — хорошо. Про «невычислимость» рассказывать?
(no subject)
2008-01-06 06:11 (UTC)Сирл как бы говорит: пусть утверждение P есть «Машина «К« возможна»; тогда, если предположить P, из этого следует, что и U, и Ū, одновременно, а этого не может быть; следовательно, P ложно.
У меня не возникло впечатления, что Сирл вообще как-то использует метод от противного. Сжатую аргументацию Сирла я изложил по вашей просьбе, что вы понимаете под "U, и Ū, одновременно"?
Сирл не пытается играть на "машина "К" возможна/невозможна". Такая машина признается им возможной, и он даже не пытается спорить с этой возможностью. Прототип, машина Шэнка, реальна. Сирл делает другое, разбирает утверждения, возникающие в связи с этой машиной:
1. можно сказать буквальным образом, что машина понимает рассказ и дает ответы на вопросы;
2. то, что делают машина и ее программа, объясняет человеческую способность понимать рассказ и отвечать на вопросы о нем.
Где вы там метод от противного увидели? - да и казуальность...довольно боковая тема. Уберите ее, аргументация по поводу 1. и 2. не меняется.
(no subject)
2008-01-06 07:30 (UTC)Я вот объяснил, как мог, почему такое заблуждение вообще получается. А уж что кому «должно казаться» — это точно не ко мне, это к
орнитологамфилософам, они любят такие вопросы пообсуждать. Только вопрос этот, как у них говорится, «вечный», так что я бы вот не рассчитывал от них скорый ответ получить. Я просто скажу «рассуждение здесь бессильно». А иной, бывает, и рассуждать ведь примется.Или, если хотите, это тоже вопрос «заземления символов». Рассмотрите его и таким вот образом. Опору-то он может найти в бессчетных слоях контекстов — каждый из них может быть простеньким и совсем коротеньким, а может и целым виртуальным миром, если хотите. Для самых больших контекстов используют название «мировоззрение» — не точно, зато красиво и понятно.
Не помню, считается ли, что машина Шенка «проходит тест Тьюринга», кстати, но это не видится мне особо важным; да и сам ТТ — глубоко сомнительный критерий интеллекта, кстати, по соображениям совершенно иным, нежели у Сирла.
Я уж попозже про вычыслимость и редуцируемость напишу, хорошо? Уже вот из графика выбился, даже с этим-то вопросом, а каким он непонятным-то может быть, оказывается! Да, это, пожалуй, хорошо, что Вы меня так расшевелили.
(no subject)
2008-01-06 18:29 (UTC)Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 17:17 (UTC)Сирл доказывает, что машина тьюринга (рассматриваемая без алгоритма) не может обладать пониманием. Совершенно верно, не может, его доказательство совершенно корректно в этом понимании. Правда, при этом он всё время говорит об алгоритме, что несколько сбивает с толку и заставляет поверить, что то, что он говорит, имеет хоть какое-нибудь отношение к реализуемости ИИ. Тут я ещё хотел написать про два килограмма нейронов в банке с формалином, но понял, что это, скорее, к обратному вопросу относится, к вопросу о том, может ли что-нибудь понимать неисполняемый алгоритм ("в нирване программа не глючит, но и не работает").
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 16:08 (UTC)Нет, совершенно не так. То есть они это всё говорят, но уже намного позже, излагая собственную точку зрения, давно забыв про Сирла и вообще вкладывая в эти слова довольно специфический смысл.
Смотрите: Сирл как бы рассуждает от противного, предполагая, что алгорит может обладать пониманием, таким же, как у нас с Вами. Это на самом деле очень сильное предположение, ведущее к крайне нетривиальным размышлениям и выводам. Если бы КК на этом предположении и закончилась, проиллюстрировав, как этот гипотетический алгоритм выглядит изнутри и что с ним можно сделать (клонировать состояние, остановить на произвольное время, запускать в обратном направлении етс), то вопросов бы никаких не было. Да, если мы такое допускаем, то нам нужно очень сильно расширить сознание, чтобы вместить туда такую странную штуку.
Но Сирл не останавливается, он пытается опровергнуть это предположение и совершает логическую ошибку, fallacy of division: из того, что какая-то часть целого (или даже все части по отдельности, но Сирл рассматривает только одну часть, человека, перекладывающего карточки) не обладает неким свойством, не следует, что целое не обладает этим свойством. Самолётный двигатель не может перелететь Атлантику, целый самолёт -- может. Транзистор не может сложить два числа, сумматор может. Сирл вытаскивает из системы "человек + карточки" человека, видит, что у него нет понимания (китайского языка) и делает вывод, что и у всей системы его нет. Это ошибка. Я не знаю, как можно интерпретировать КК, чтобы этой ошибки не было.
Насколько я помню (статью читал жутко давно, а перечитывать лениво) Сирл её ещё и усугубляет, предлагая посмотреть на оставшуюся часть системы и заметить, что у неё "очевидно" не может быть понимания (хотя оставшаяся часть системы и есть алгоритм, так что мы как бы и надо заниматься доказательством этого "очевидного"). Собственно, оттуда ошибка и появляется: на самом деле Сирл изначально засовывает человека в систему внутренне предполагая, что в этой системе больше ничего пониманием обладать не может, поэтому понимание, если оно есть, всё сконцентрируется в человеке.
Вот.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 17:37 (UTC)Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 18:24 (UTC)Но он мне не кажется правильным. Сирл, заучив правила, конечно, "содержит" систему в себе. Но с тем же успехом он мог бы попросту съесть книжку с правилами. Это "содержание" именно в таком смысле. Да, конечно, у него внутри появляется подсистема, причём эта подсистема работает совершенно не так, как его личная подсистема, понимающая английский. Он совершенно правильно потом говорит про желудок, который работает у него внутри, но работает сам по себе, так что нельзя говорить, что Сирл понимает, как работает его желудок (точнее, обладает всеми свойствами собственного желудка), на основании того, что желудок в нём содержится.
Я могу проиллюстрировать своё возражение простым примером, который где-то тут уже появлялся, но, кажется, не был развит до логического завершения. Вот я даю Вам следующий алгоритм Маркова (http://en.wikipedia.org/wiki/Markov_algorithm) (это штука ещё проще машины тьюринга, на каждом шаге ищется правило подстановки, левая часть которого есть в строке данных, в случае успеха вместо неё подставляется правая часть, правила обозначаемые как ".->" завершают работу):
*1 -> 1*
*0 -> 0*
* -> #
1# -> #0
0# .-> 1
# .-> 1
-> *
Вы его можете заучить, "включить в себя как подсистему". Я буду давать Вам строки из нулей и единиц, вы будете его к ним применять и возвращать мне результат. Через некоторое время Вы, должно быть, начнёте подозревать, что эта ваша новая подсистема попросту увеличивает на единицу данное ей число в двоичной записи. Делает это она, конечно же, совершенно не так, как это делаете Вы. Является ли это поводом говорить, что она этого "на самом деле" не делает? Её можно дать ребёнку, понятия не имеющему ни о числах, ни, тем более, о двоичной записи -- является ли это поводом утверждать, что Вас обманывают глаза, что на самом деле подобного алгоритма не может существовать?
Я был бы рад, если бы Вы нашли время для ответа на эти два вопроса, или объяснили, в чём, по Вашему, разница между моим реализуемым мысленным экспериментом и КК.
Вообще в статье есть другое, более корректное возражение, которое, почему-то, ни разу не проговаривается вслух, касающееся методики определения наличия "понимания". Фактически, Сирл отвергает критерий Тьюринга (не без веских оснований, впрочем) и предлагает свой: ИИ обладает пониманием, если в нём есть специальное место, куда можно посадить человека, так что этот человек посмотрит на работу ИИ и скажет: да, оно понимает. Иначе, считает (как мне кажется) Сирл, о понимании говорить нельзя. Это интересное возражение, но если принять такой критерий, то нельзя говорить о наличии понимания хоть у кого-то, кроме самого себя. У других людей-то такого места нет. То есть это как-то странно: надеяться, что можно сделать ИИ, которое обладает не только всеми человеческими качествами, но и ещё одним дополнительным: позволяет в этом объективно убедиться. Как-то странно требовать от ИИ большего, чем от естественного интеллекта.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 18:44 (UTC)это абсолютно верно. Строгим образом, именно так и обстоит дело. И именно поэтому Сирл пошел в комнату сам. Он никому другому не доверяет! - прочувствуйте элегантность этого эксперимента.
С вашем последним абзацем целиком я вполне согласен. Никуда не денешься, но допущения, которые мы вынуждены вводить, кажутся достаточно рациональными. Скажем, их возможной ложностью можно пренебречь. И в такой ситуации нет ничего нового - и в научной деятельности, и в любой другой мы регулярно опираемся на ряд допущений.
По первой части вашего комментария: заучить правила и съесть их, на мой взгляд, кардинально разные ситуации. Может существовать алгоритм или не может, не имеет значения. Имеет значение вопрос - воспринимает ли машина, исполняющая алгоритм, семантику.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 18:58 (UTC)Если в оригинальной постановке задачи Сирл попадается на Fallacy of Division (http://en.wikipedia.org/wiki/Fallacy_of_division), то в случае заучивания получается Fallacy of Composition (http://en.wikipedia.org/wiki/Fallacy_of_composition). Подчеркну: это логические ошибки, описанные впервые тысячи две с половиной лет назад. Если в рассуждении есть логические ошибки, то можно говорить о том, что оно наталкивает на интересные мысли и всё такое, но нельзя говорить о том, что оно что-то доказывает.
Сирл не может придумать способа так сопоставить КК себе, чтобы испытать её понимание на собственной шкуре. Я тоже не могу придумать такого способа, ни в отношении машины, ни в отношении другого человека. Я даже подозреваю, что это может быть невозможно в принципе. Из чего, естественно не следует ни невозможности естественного интеллекта (кроме своего личного), ни невозможности искуственного.
--- воспринимает ли машина, исполняющая алгоритм, семантику ---
давайте всё-таки чётче говорить: "воспринимает ли алгоритм, исполняемый на машине, семантику". Иначе, если смотреть только на машину, то она, конечно, ничего не воспринимает, в этом смысле КК абсолютно корректна.
PS: Мне бы очень хотелось услышать ответы на те два вопроса, про алгоритм прибавления единицы к двоичному числу. Понимаете, если изначально постулировать, что "понимание" это такая совершенно особая штука, непохожая ни на какую другую штуку, то спор становится бессмысленным. Мне кажется, что определённые параллели между вопросами "может ли алгоритм увеличить число на единицу?" и "может ли алгоритм воспринимать семантику" можно провести, так что если некий мысленный эксперимент даёт ответ "нет" на оба вопроса, это повод дико серьёзно задуматься и, как минимум, попытаться объяснить, почему так.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 19:59 (UTC)Причем тут комната, пусть делает то же самое вне комнаты. Ничего не меняется, понимания не возникает. Закрытая комната нужна исключительно для опровержения ТТ как критерия интеллекта и ни для чего больше. Мы обсуждаем другую проблему, приводит ли выполнение алгоритма к пониманию.
Я не улавливаю выражение "алгоритм понимает". Понимать может объект, алгоритм - платоновское понятие. Этак мы очень далеко зайдем.
Рад бы ответить на ваш вопрос про прибавление единицы, но просто его не понимаю.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byПростите, не могу удержаться :)
Posted byповторно
Posted byRe: повторно
Posted byв третий раз
Posted byRe: в третий раз
Posted byвсе, хватит
Posted byRe: все, хватит
Posted byRe: в третий раз
Posted byRe: в третий раз
Posted byRe: в третий раз
Posted byв четвертый раз
Posted byRe: в четвертый раз
Posted byНе могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byзапоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted by(no subject)
Posted by(no subject)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted by (Anonymous) - 2009-06-24 20:29 (UTC) - ExpandRe: запоздалые вопросы ;)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-07 07:07 (UTC)- это абсолютно верно. Строгим образом, именно так и обстоит дело."
Позвольте, раз уж Вы с этим согласны, я сделаю некоторое обобщение. Сирл даёт такое определение понимания, по которому он может установить наличие понимания лишь у самого себя, и ни у кого другого (назовём это С-пониманием). Вполне естественно тогда, он не может установить понимание и у компьютера с сильным ИИ. Т.е. его утверждение "ни у какого компьютера с алгоритмами установить понимания невозможно", как Вы только что согласились, можно расширить до "ни у кого другого, кроме меня, установить понимания невозможно".
Что это нам даёт? Это показывает, что "Сирлово понимание" (С-понимание) и то обычное "понимание", которое имеют в виду другие люди - это разные вещи. Ведь и
Т.е. Сирл (и Вы вместе с ним) установили, что некое свойство, не являющееся пониманием в общепринятом смысле слова, отсутствует у сильного ИИ. Отлично, в чём же тогда проблема? :)
все наоборот
2008-01-07 07:26 (UTC)Re: все наоборот
Posted byRe: все наоборот
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-08 20:49 (UTC)---
Untrue. Я ничего подобного не утверждаю. Я утверждаю, что то, что я не могу это установить, не даёт мне права утверждать, что этого нет.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted by