![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Неудавшаяся попытка критического прочтения
Русское название: Роджер Пенроуз. «Новый ум короля. О вычислительных машинах, разуме и законах физики». Номера страниц следуют в квадратных скобках за цитатами, и даются по изданию [Penrose 89]. Все переводы сделаны автором, изо всех сил старавшимся сохранить не только семантику, но и стилистику оригинала; последнюю, разумеется, не в ущерб первой. Ссылки на литературу в квадратных скобках и начинаются с фамилии автора. Ссылки на комментарии в конце статьи обозначаются «ножичко솻.
Эта книга захватывает читателя, захватывает новым, по крайней мере для вашего скромного собеседника, методом: в течение всего изложения автор обещает объяснить множество вещей, от необходимости квантово-механического объяснения работы его, читателя, мозга, до эволюционных преимуществ сознания, но не торопится с этими объяснениями. Подобного suspense ожидаешь от детективной истории, но никак уж ни от научно-популярной книги, ни от монографии.
В книге чуть более 450 страниц, но далеко не все они посвящены изложению теории ее автора. В задачу книги входит, как следует думать, предварительное образование читателя до уровня, необходимого для понимания обосновываемых Пенроузом идей. Книга состоит из десяти глав, из которых семь содержат в сжатом и, по видимому пониманию писавшего, популярном изложении определенные физические и математические теории. В главах со второй по девятую кратко и сжато излагаются основы следующих наук и дисциплин:
- философии математики (где автор указывает, что он последователь Платонова учения, утверждающего, среди прочего, существование независимого от нас, непридуманного мира чисел, идеального, внепространственного, неизменного и непреходящего);
- арифметики и теории чисел;
- теории множеств (десятая проблема Гильберта, теорема Гёделя о неполноте, Канторовы мощности множеств; фрактальность, рекурсивная перечислимость множеств);
- вычислительной математики (включая машины Тьюринга, тезис Тьюринга-Черча и λ-исчисление) и теории сложности;
- классической механики (включая Гамильтоново изложение динамики и фазовые пространства);
- классической электродинамики;
- специальной теории относительности;
- общей теории относительности (с тензорами, разумеется!);
- квантовой механики;
- квантовой электродинамики;
- гипотез о квантовой гравитации;
- и наконец, космологии (черные дыры, Большой взрыв, направленность времени и энтропия вселенной).
Список, как видите, нешуточный, и задача изложить эти науки в тех трехстах пятидесяти страницах, наверное, неразрешима. Поэтому не следует ставить Пенроузу в вину то, что он ее не исполнил: иные тратят годы и прочитывают десятки пухлых томов, чтобы понимать все эти учения. Разумеется, разъяснить λ-исчисление, даже популярно, на трех страницах, которые автор смог для того выкроить, невероятно трудно, если и возможно вообще. Именно сжатым объемом и надобностью донести до читателя несоразмерно огромное знание и вызвано такое рваное, косноязычное и совершенно непонятное изложение материала, к которому был вынужден прибегнуть автор. Положа руку на сердце, мало кто произвел бы лучший результат, пытаясь справиться с подобной задачей. Автор здесь признается, что малодушно отказался бы от такой попытки сразу же, без размышления.
Мой наблюдательный читатель уже, должно быть, задается вопросом: как же работа по теории сознания обходится без хотя бы обзора теорий в области искусственного интеллекта (ИИ)? Ведь читателя надо бы «подтянуть» и в этих дисциплинах? Здесь, справедливости ради, надо возразить, что все узнать зараз все равно нельзя. Пенроуз обучает читателя здесь лишь самому необходимому, а что касается остального, тут нам придется положиться на анализ этой области, проделанный Пенроузом, и изложенный кратко и сжато, да и понятный притом без всякой подготовки.
А именно, Пенроуз считает, что ИИ невозможен, и все эти ученые занимаются, в отличие от него, физика, каким-то нелепым делом. Чтобы избавить нас, читателей, от утомительных споров по существу дела, он применяет новый, невиданный доселе в научной литературе (хотя и популярный в некоторых торговых точках) риторический прием: вводит коллективное понятие «ИИ-парни», они же «ИИшники», а затем, виртуозно оперируя утверждениями, подобными «ИИшники никакого понятия не имеют, как запрограммировать [алгоритм] суждения [об истинности факта] на компьютере!»,[412] немедленно заставляет своего читателя задуматься: а всякое ли суждение «естественного» интеллекта озарено светом истины?
Для доказательства «невозможности» ИИ, Пенроуз приводит хорошо известный «аргумент Сирла», известный также под именем «китайской комнаты». «Доказательство» производится путем reductio ad absurdum, или «рассуждением от противного» (см., напр., Википедия, «Доказательство от противного»). Предположим, что ИИ возможен, в том смысле, что существует алгоритм, понимающий китайский язык и выдающий осмысленные ответы. Испытатель, не знающий китайского, запирается в комнате, а испытуемый, не знакомый с испытателем и говорящий по-китайски, пишет на листочке вопрос, а затем просовывает этот листочек в запертую комнату. Испытатель проделывает все шаги алгоритма и пишет в итоге ответ по-китайски. Испытуемый читает ответ и говорит: «Да, это разумный ответ! В комнате сидит человек, оворящий по-китайски!». Но ведь испытатель не говорит по-китайски? Не говорит. Противоречие? Ага! Следовательно, наше начальное положение неверно, и, стало быть, ИИ невозможен.
Правда, автор этих строк не видит, почему бы тем же способом не доказать также и невозможности алгоритмического сложения чисел, или, скажем, решения квадратного уравнения. Ведь если испытатель не обучен сложению, а пользуется алгоритмом, то испытуемый снаружи тоже подумает, что человек в комнате складывать умеет! Противоречие? Противоречие! Значит, алгоритм сложения двух чисел невозможен! Калькуляторы тоже невозможны: читатель легко докажет это, дав необученному арифметике испытателю в руки вместо алгоритма калькулятор. Впрочем, философия на то и древняя наука, чтобы все было туманно, но утвердительно. Автор здесь уверен, что есть философские аргументы, объясняющие принципиальную разницу между этими двумя случаями, и почти уверен, что их ему точно так же не понять… Впрочем, не будем огорчаться. Калькуляторов не бывает, но самая обычная логарифмическая линейка† сделает то, что никакому компьютеру не под силу! Сейчас ее превосходство будет объяснено.
В главе о классической механике Пенроуз говорит о принципиальной невозможности численного моделирования механической системы, за редким исключением сконструированных специально для того, чтобы быть моделируемыми. Этот тезис доказывается очень просто: до бесконечного числа знаков компьютер ведь считать не может†. А из него сразу же следует вывод, блестящий в своей простоте, мимо которого прошли, буквально не заметив его прямо под ногами, целые поколения физиков и математиков! Например, угол отклонения качающегося маятника от вертикали может оказаться числом и невычислимым. А значит, компьютерная модель маятника невозможна! Правда, Пенроуз тут же оговаривается, что специально просчитанный маятник можно смоделировать. Но кому это было бы интересно — заранее придумать то, что моделировать? Да и как считать, если калькуляторов не бывает? Но старая добрая логарифмическая линейка нас спасет! Она-то считает любые числа с бесконечной точностью! Движок на ней можно передвигать на сколь угодно малые расстояния, правда ведь?
Позволительно ли так надувать физику, чтобы натянуть ее на математику? Пенроуз, при всей неординарности своего, можно назвать, мышления, — все-таки физик, и о том, что материя состоит из атомов, наверное, знает. И о том, что длинами меньше планковской, ~10−35 м, не оперируют даже в микромире, тоже знает. Но требует при этом бесконечной точности в вычислениях: или бесконечность, или ничего не вычислится! А вот почему, этого нам с вами, по нашей недоученности, не понять. Да в конце концов, кто книжку писал? — Пенроуз. Кто писал, тот и написал, а чего не написать-то?
Затем Пенроуз переходит к описанию устройства мозга и выяснению, где именно в нем находится сознание. Путем довольно неочевидных рассуждений, Пенроуз, в своей конструктивной манере изложения, одну за одной исключает все части мозга, как возможные вместилища сознания. Все гениальное воистину просто! Сознание — нигде! Даже не в больших полушариях, столь высоко оцененных лишь несколькими страницами ранее, в следующем образчике изящного слова: большие полушария есть «та часть, которой, как знают человеческие существа, им следует гордиться более всего,… поскольку эта часть не только наибольшая от всего мозга человека, но и наибольшая по отношению к [размеру] всего мозга, в сравнении с другими животными».[375] Нельзя не согласиться: именно это чувство, вызывающая желание помериться величиной сего предмета гордости, и нашла отражение в известной поговорке; хорошо известна также и сила влечения к истине, возбуждаемая двумя большими полушариями в особо страстных адептах философии! А вот «бессознательное… все то, что можно вычислить алгоритмически, [находится], предположительно, в мозжечке».[413] Из чего, правда, исходя, делается такое предположение, в книге не говорится. Но, повторюсь, учитывая малый объем книги и грандиозность задачи, опущение принципиальных рассуждений тут вполне оправдано. Да и вообще, что для нас главное: рассуждения или результат? К теории, товарищи, надо подходить практически!
Далее Пенроуз дает первую из давно обещанных разгадок: почему мозг — это квантовый вычислитель. Это рассуждение достойно развернутой цитаты (речь в этом параграфе сначала велась о параллельных компьютерах):
Единство «я»† сознательного восприятия, как мне кажется, идет вразрез с картиной параллельного компьютера. Эта же картина могла бы, с другой стороны, подойти в качестве модели бессознательных действий мозга… С другой стороны [с третьей —freg.], мне кажется, что может быть вполне вообразима связь между единством «я» и квантовым параллелизмом†… Если сознательное «ментальное состояние» может быть уподоблено квантовому состоянию, то некая форма единственности «я» или глобальности мысли может быть более подходящей, чем в случае обычного параллельного компьютера… Но прежде, чем рассматривать такую идею, мы должны рассмотреть вопрос о важности квантовых эффектов вообще в деятельности мозга.[399]
Этими золотыми словами, этим обещанием рассмотреть вопрос важности квантовых эффектов Пенроуз опять создает ситуацию подвешенности в долгом, напряженном ожидании! Вашему собеседнику-недоучке, например, кажется, что единство «я» также идет вразрез и с картиной Ван Гога «Череп с сигаретой в зубах», из чего он все же затрудняется сделать вывод о квантово-механической природе своего «я», Ван Гога или черепа. Неясность эту мы опять же должны отнести на стесненность Пенроуза несоразмерностью громадья задач и ничтожности объема одного тома. Следует отметить, справедливости ради, что отдельные логически завершенные рассуждения мы все-таки находим: «Поскольку [в сетчатке] имеются нейроны, возбудимые, в принципе, одним квантом [света], не будет бессмысленным вопрос, а нет ли подобных нейронов и в мозге? Свидетельств этому, как мне известно, нет… Однако, можно и представить, что где-то глубоко в мозге найдутся нейроны с порогом возбуждения ниже [энергии] одного кванта. Если таковые нейроны вдруг обнаружатся, тогда можно будет сказать, что квантовая механика важна для деятельности мозга».[400] Присутствие столь неоспоримо справедливого вывода еще раз укрепляет пишущего эти строки в убежденности, что в прочих случаях Пенроуз отказывается от логического размышления лишь для экономии изложения, а вовсе не из неумения или, как можно было бы подумать, нежелания.
По ходу изложения Пенроуз оперирует понятиями «сознание» (consciousness), «бдение» (awareness) и «мышление» (cognition), по-видимому, в равном смысле, как антитезу «бессознательному» (unconscious), покрывающему такой диапазон явлений, как сон, инстинкты, рефлексы и автоматические действия. За 40 страниц до конца изложения, когда наступает пора, наконец, определить термины, которыми Пенроуз пользуется в течение всей книги, он отводит этому несколько страниц, где, в очередной раз не обманывая наших ожиданий, так и не приходит ни к какому определению†; затем он неоднократно возвращается к этим попыткам. В числе прочих, при обращении к этой же теме возник следующий, несомненно благородный по своим намерениям пассаж, обличающий тех из братьев старших, которые совершенно не по-братски принижают достижения и подавляют личности братьев меньших: «Остается открытым вопрос о возможности горилл и шимпанзе общаться, пользуясь языком жестов, а не нормальным[sic!] человеческим образом (коему они не приспособлены из-за отсутствия подходящих[sic!] голосовых связок)… Кажется ясным, что, невзирая на жаркие дебаты, [обезьяны эти] способны к обмену знаками, хоть и элементарному. По моему убеждению, это немного хамовато[sic!] со стороны некоторых не называть этот обмен жестами „словесным“. Не для того ли не допускают они приматов в „клуб небессловесных тварей“, чтобы потом изгнать их и из клуба тварей сознательных?»[425]. Да, товарищи, стыдно, стыдно за наших товарищей по биологическому виду, еще допускающих немного хамство, и, не обойду вниманием намека тов. Пенроуза, замышляющих конспирацию с целью изгнания наших ближайших родственников, наших братьев, «способных на истинное вдохновение»,[425] наших, так сказать, соратников в этом нелегком деле словесности, из партии сознательных, честных и совестливых! Где же ваш интерспециализм, товарищи! Позор предателям классовых, отрядных и семейственных интересов!
И вот, наконец, мы, вслед за автором, приближаемся к разгадке, к торжественному моменту, когда ленточка будет разрезана, и покрывало тайн сознания падет, и ничто более не скроет от нас живительных лучей света истинного знания! Полезно здесь перечислить, какие же истины были открыты нам к этому времени:
- ИИ не бывает.
- Модели механической системы тоже, в общем случае, не бывает.
- Ум алгоритмом не охватишь.
- Можно было бы предположить, что нельзя исключить возможного влияния квантовых эффектов на работу мозга, если вдруг найдутся этому экспериментальные подтверждения.
- Гориллы суть говорящи и вдохновенны.
Какой же нам следует сделать из этого вывод? Невозможно было нам и на этот раз предвосхитить той ярчайшей вспышки интуиции, момента озарения истинного мыслителя! Вот что говорит сам Пенроуз, открывая нам глаза на эту тайну:
Я представляю себе, что, когда ум воспринимает математическую идею, он входит в контакт с Платоновым миром идеальных концепций… В соответствии с точкой зрения Платона, математические идеи существуют сами по себе, в идеальном, [вечном и неизменном] мире, доступном лишь уму. Когда кто-либо „видит“ математическую идею, его сознание врывается в этот идеальный мир, и входит с ним прямой контакт („доступность только через ум“)[sic!]… Разговор математиков возможен только лишь потому, что им открыта эта прямая дорога к истине, и сознание каждого из них находится в состоянии напрямую воспринимать истины математики, посредством „ви́дения“…
…Разум всегда в состоянии соединиться [с этим миром]. Но только немного выдается каждый раз… Из того факта, что математические истины есть необходимые истины, никакой „информации“, в техническом смысле, делающему открытие не передается. Вся информация была там [где? —freg.] все время. Это — лишь вопрос совокупления фактов и „ви́дения“ ответа! Все это соответствует идее самого Платона о том, что (скажем, математическое) открытие есть лишь разновидность воспоминания!… Но, чтобы эта точка зрения была полезна, в случае математической коммуникации, следует представлять себе, что интересные и глубокие математические идеи неким образом более существуют[sic!], нежели тривиальные или неинтересные.[428—429]
Оставшиеся несколько страниц книги посвящены, насколько смог их понять ваш скромный помощник, геометрическим мозаикам и специальным вопросам кристаллографии.
«А как же обещания автора?», спросит удивленный читатель, «Как же suspense? А зачем нас учили на протяжении семи глав непроходимым языком всем этим головоломным дисциплинам, которых все равно из такого краткого изложения не понять — при том, что для осознания идеи автора, кажется, даже школьная арифметика не требуется? Зачем меня, добропорядочного читателя, так жестоко надули?» Увы, ответы нам не известны. Рискнем лишь предположить, что Пенроуз сам не предвидел этого неожиданного контакта с идеальным миром истин, закончившегося извлечением в наш мир этой, несомненно, самой существующей из идей, и именно нежданное, не по плану, можно сказать, изложение ее и сделало все предыдущие вопросы несущественными, а ответы на них — более не нужными. Задаваться этими вопросами теперь было бы, думается, так же несмысленно, как, дочитав «Знак четырех», терять и сон, и аппетит, мучаясь загадкой: а ковырял ли когда-нибудь Шерлок Холмс в носу?
Ведь нам все ясно уже и без этого, не правда ли?
Комментарии
Это приложение, в отличие от основного текста статьи, не содержит ни иронии, ни сарказма. Любое утверждение здесь, за исключением, разумеется, цитат, следует принимать за то, чем оно представляется.
Логарифмическая линейка — вычислительный прибор, состоящий из корпуса с неподвижными шкалами, скользящего в нем движка со шкалами, подвижными относительно первых, а также визира с риской для точного считывания значений с отдаленных друг от друга шкал. Градуировка шкал нелинейная, и, хоть не для всех шкал она и логарифмическая, именно такой принцип градуировки дал название прибору. Устройство использовалось до появления калькуляторов для численных расчетов инженерами, навигаторами и т. д. См., напр., Википедия, «Логарифмическая линейка».
Вычислимые и невычислимые числа. Натуральных чисел, как известно, бесконечно много, а целых чисел — так же много, как и натуральных, а вовсе не вдвое больше (здесь полезно вспомнить, что расходящиеся ряды не позволяют применять к ним кажущиеся очевидными алгебраические преобразования). Доказательство этой теоремы разработано великим математиком Георгом Кантором, и удивительно просто: возьмем
и перенумеруем все целые числа! Поскольку мы не можем нумеровать каждое число в отдельности, мы выведем вместо того общий принцип нумерации, для произвольного целого числа n. Начнем нумерацию так:
0 будет № 1, −1 — № 2, 1 — № 3, −2 — № 4, 2 — № 5, −3 — № 6, и так далее, так что любое целое число n будет иметь номер 2n + 1, если оно положительное, или −2n в противном случае. Другими способами
можно перенумеровать все рациональные числа, т. е. дроби (т. н. «диагональный аргумент Кантора»), а также все алгебраические числа, которые суть решения полиномиальных уравнений. Но даже за вычетом всех этих перенумерованных чисел, остается еще множество чисел, которые нельзя перенумеровать: континуум вещественных чисел. Кантор доказывает, что даже в интервале между 0 и 1 «все» числа перенумеровать нельзя. Также верно и то, что эти числа непредставимы в компьютере, и даже называются они «невычислимыми». Компьютеры ведь считают с ограниченной точностью. Представим, что некий компьютер считает числа до 40 десятичных знаков. Такому компьютеру все равно, что вот это число:
0,1111122222333334444455555666667777788888 ,
что это:
0,1111122222333334444455555666667777788887 ,
потому что оба они округлятся до
0,111112222233333444445555566666777778889 ,
Если надо для решения конкретной задачи, правда, компьютер может и до сотни, и до тысячи знаков сосчитать, и с любой конечной точностью. Но с бесконечной точностью за конечное время, само собой, нет.
Тем не менее, утверждения о бесконечной точности механического движения в системе, даже идеальной, равно как и о бесконечной точности, потребной для построения вычислительной модели такой системы, от физика слышать чрезвычайно, просто запредельно странно.
Единство «я». Пенроуз постоянно ссылается на некое единство сознания как данность. Аргумент этот возникает из здравомысленных наблюдений, но рациональному обсуждению не подвергается: «Характеристикой сознательной мысли является ее единство… Вопросы наподобие „Как, по-вашему, мне думать более одной мысли сразу?“ совершенно обычны».[399] Меж тем, постулат единства «я», как процесса, производящего сознание, отнюдь не очевиден, более того, при внимательном рассмотрении оказывается ошибочным.
«Мы называем словом «я» полновластное существо внутри нас, желающее чувствовать и думать за нас, и принимать важные решения за нас. Мы зовем его «я», самость, эго, и мы представляем его никогда не меняющимся, чтобы ни случилось с нами. Иногда мы даже делаем «я» маленьким человечком, живущим внутри нашего разума».[Minsky 06 с. 299]
«Гомункул… миниатюрный взрослый, который, по положению, обитает в мозгу… воспринимая… сенсорные сигналы и вызывая все команды мускулам. Любая теория, полагающая подобного внутреннего агента, рискует оказаться в бесконечной рекурсии… поскольку мы можем спросить, а нет ли у маленького человечка в голове своего маленького человечка, отвечающего за его действия и восприятия, и так далее». [Dennett 78 apud Minsky 06].
Квантовый параллелизм — вытекающая из особой интерпретации квантовой механики возможность элементарной частице находиться одновременно в нескольких точках пространства.
Определение сознания и интеллекта. Справедливости ради, отметим, что определение даже в гораздо менее расплывчатых случаях затруднительно. Пенроуз, по недопониманию, устанавливает рамки для определений невнимательно, и пытается разграничить процессы в уме там, где они в разграничении не нуждаются. Даже сама терминология, используемая Пенроузом, противоречива и нестабильна. Он говорит, «при моем собственном взгляде на вещи, вопрос интеллекта подчинен вопросу сознания. Я не полагаю, что я мог бы поверить, что истинный интеллект может проявиться, если при этом не появляется и сознание».[407] Автор, при всех приложенных им стараниях, так и не смог разобраться, что же, по взглядам Пенроуза, есть главное, а также в чем состоит отличие истинного интеллекта от просто интеллекта.
Минский [Minsky 86], вводя понятие сознания [гл. 6.1], пишет, «в жизни вам очень часто приходится иметь дело с вещами, которых вы не понимаете. Вы водите машину, не зная, как двигатель устроен внутри. Вы едете пассажиром, не зная, как водитель устроен внутри. Но самое странное, вы управляете своими телом и разумом, не понимая, как вы сами устроены внутри. Не замечательно ли то, что мы можем думать, не понимая, что значит думать?… Наши мысли… управляют множеством процессов, которые мы редко замечаем. Не понимая, как они работают, мы учимся достигать цели, посылая сигналы этим чудесным машинам, словно колдуны древности, читающие ритуальные заклинания».
Здесь же Минский приводит определение из словаря Вебстера: «сознающий. 1. имеющий чувства или знание о своих ощущениях, либо о внешних вещах); знающий или чувствующий, (что ч.‑л. существует, происходит);… 3. Воспринимающий себя мыслящим существом, знающий, что и почему он делает». Как хорошо заметно, ни метафорическое сказание Минского, ни претендующий на четкость определения язык словаря ясности здесь не дают.
В [гл. 7.1], Минский рассуждает о трудности определения интеллекта, пробует, ведя диалог с критиком, различные определения, и останавливается вот на таком: «В наших умах происходят процессы, позволяющие нам решать задачи, которые мы сами полагаем сложными. Те из этих процессов, которые мы пока не понимаем, называются „интеллектом“. Некоторым не понравится это определение, поскольку оно обречено на изменение по мере того, как мы все глубже изучаем психологию. Но, на мой взгляд, именно так и должно быть, поскольку само понятие „интеллекта“ напоминает фокус на сцене. Подобно „неисследованным регионам Африки“, он исчезает по мере того, как мы исследуем его».
Здесь автору остается лишь согласиться с Минским и расстаться с надеждой дать четкое и неопровержимое определение сознанию или интеллекту, а заняться вместо того делом интересным и полезным.
Использованная литература
Dennett, Daniel C. “Why Can't You Build A Machine That Feels Pain.” In Brainstorms, Cambridge: MIT Press, 1978, 190—229. Apud [Minsky 06].
Minsky, Marvin. The Society of Mind. New York: Simon and Schuster, 1986.
Minsky, Marvin. Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster, 2006.
Penrose, Roger. The Emperor's New Mind. Concerning Computers, Minds And the Laws of Physics. New York: Oxford University Press, 1989
Re: Часть 2.2: Просьба уточнить интерпретации
2008-01-05 06:04 (UTC)Поскольку в первом случае он проделывает ровно те операции, что производила бы МТ, и при этом никаким образом у него не прибавляется способности понимать китайский язык, Сирл не видит оснований рассчитывать, что в результате подобных операций это понимание возникнет, если вместо него поставить в комнату МТ. Тот же вывод можно распространить вообще на любой случай исполнения программы компьютером, так как последний, по определению, не производит ничего кроме типографских операций с символами. И вопрос об источнике понимания т.о. подвисает в воздухе...
Далее его позицию можно суммировать след. образом: синтаксис не способен породить семантику; разум порождается мозгом в силу его казуальных физических свойств, а не алгоритма (хотя наличие в нем алгоритмов он не отрицает).
КК - абсолютно не доказательство чего-либо, и даже не строгие рассуждения. Это то, что я написал выше, позволяющее ставить правильные вопросы. Если мои несколько строк не удовлетворили вашей просьбы, задавайте конкретные вопросы - иначе затрудняюсь понять, что вас интересует.
Для Пенроуза КК далеко не основной аргумент, он использует ее для введения в проблему, чтобы наглядно показать, чем для него отличается понимание от просто выполнения задачи алгоритмом.
2.2.1, Разъяснение со статьей в руках.
2008-01-05 09:20 (UTC)Давайте внимательно прочитаем сразу возражение от систем, №1, три абзаца. До «та система во мне, которая понимает английский язык, обладает чем-то гораздо большим, чем та система, которая просто оперирует с китайским текстом.»
Сирл, кстати, чудесно ясно пишет. И он очень правильно, формулирует настоящие проблемы ИИ. Вот гамбургеры во втором абзаце, то, что называется grounding problem, она с практической точки зрения особенно серьезна. Любая интеллектуальная машина должна как минимум содержать, кроме I/O, конечно, логический анализатор, бесполезный, как говорит нам т. Геделя, без вот этого «заземления концепций». Но я отвлекаюсь.
Внимательно отнеситесь вот к чему. В голове у «Сирла» в третьем абзаце случились две системы. Для наружного наблюдателя они одинаковы: он говорит как по-англ., так и по-кит. А вот «внутри» он видит разницу, и исходя из этого делает вывод, что разница эта есть. А ее нет.
Это упущение очень легко сделать, ибо то, что происходит внутри, мы склонны принимать за чистую монету, потому, опять же, что, здравомысленно заблуждаясь, полагаем себя обладателями единственного «я». Если «я» одно, то о каком споре в голове может идти речь? Заметьте, это не аргумент, это просто объяснение, как могла мимо такого ума, как вполне здравый ум Сирла (без кавычек, настоящего), пробраться такая ошибка.
(продолжение следует незамедлительно!)
2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 09:27 (UTC)Итак, внешний наблюдатель видит машину «К» и машину «А». Он говорит: да, ум налицо, и там и там. А «Сирл» «знает»: ни фига не так: «А»-то ум, а «К» — это я, «Сирл», по нотам играю. А на самом деле, «Сирл» этот, и здесь как раз упущение, точно такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин.
В машине «К» «Сирл» сознательности не видит, ибо он наблюдает, что она делает, но понять в деталях не может: она читает какие-то картинки и пишет какие-то картинки. О, это, похоже, буквы такие! О! это язык! Китайский? Японский? Почему не может? потому что он не знает китайского, конечно. Он прекрасно видит, что она рисует глифы, он знает, что это — глифы, он только не может понять, что же именно она пишет. Это не мешает машине «К» иметь сознание (щас объясню, откуда оно), и общаться с соседом-китайцем, также в поле зрения «Сирла». «Сирл» исполняет алгоритм (ну, механически, как на спицах вяжет), а сам поглядывает — и на «свой», т.е. алгоритма, результат, и на китайца.
Глядя на китайца, «Сирл» видит то же самое, что и глядя на машину «К». Однако, он наделяет китайца «умом». Почему так? Понятно теперь?
«Ум» есть у каждого. Каждый с детства наблюдает за своим «умом». Поэтому, увидев проявление другого «ума», мы сразу узнаем его: ага, это — ум. Он разговаривает, умные вещи говорит. Если человек танцует, скажем, мы не называем этого «умом», и правильно: приплясывать и робот железный может.
А вот отчего, глядя на китайца, «Сирл» подумал, что у китайца — ум? Может, у китайца шизофрения обострилась, и он несет ерунду и пишет бессвязицу? Мы говорим «сошел с ума» о таком случае. Но, видя иностранца, мы привыкли думать: у него есть ум, просто я не понимаю его языка. «Сирл» полагает, что все, что выглядит как человек, имеет ум. Это почти верное утверждение, и следует оно тоже из здравого смысла.
Машина «К» — это единственный «ум», на который «Сирл» смотрит изнутри, со стороны механизма. Здравый смысл подсказывает: «это — ум??? Он что-то умное делает? Нет. Ты такое вот где раньше где видел? Вспомни-ка? Провода во все стороны? Точно, в стиральной машине! А откуда там ум?» На основании этого, «Сирл» машине «К» в «уме» отказывает.
Суммирую:
Машина «А» — это ум, потому что {это — я}. (1)
Китаец напротив — ум, потому что {он просто иностранец}. (2)
Машина «К» — совсем иная, не такая, как машина «А», и не такая, как китаец, значит, {это — не ум.} (3)
Утверждения в фигурных скобках, все три, следуют из опыта, из здравого смысла, который часто нас обманывает. Логически все три «ложны», логика нас не выручит. Но если мы сопоставим их с реальностью, оставим им этакую щелочку, попробуем их «заземлить», то утверждение (2) окажется «скорее всего истинным», ибо большинство китайцев и впрямь не сумасшедшие. Утверждения (1) и (3) не имеют обоснования в реальности, а они ведь и ввели Сирла (наст. Сирла, без кавычек) в заблуждение. (1) подробно расколупывают и Деннет, и Минский, см. комментарии к фельетону. (3) мне не надо опровергать? :-) Или надо? оно ничего не доказывает и не опровергает. Самолет не такой, как муха, значит,он не полетит! Паровоз не такой, как муха — значит, он не полетит! Один полетит, другой не полетит, а ложны оба, потому как не «значит»: похожесть здесь не важна. Вот такой grounding.
Беда-то в том, что Сирл застрял в своем убеждении. А может, вот, подозреваю, и не застрял — ну, работа у него такая, Сирлом. Поэтому я и сказал тогда: «все, кто не Сирл…»
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 13:25 (UTC)Если да, то скажите, пожалуйста - все-таки есть некая разница в том, как устроена внутри машина А и машина К, обозначаемая словом "понимание" - или ее нет?
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 14:47 (UTC)1. мне кажется, слово "понимание" уже занято, и оно означает вовсе не diff между чертежами устройства двух машин. Можно заменить его здесь на "foo".
2. В эксперименте речь об устройстве машин не идет, оно не важно.
3. Детальное устройство машины «А» неизвестно. Она состоит из нескольких миллиардов нейронов, соединенных несколькими триллионами соединений. Процессы, происходящие в ней, теоретически-сложны, и, как предполагается, вычислительно-нередуцируемы.
4. Машина «К», скорее всего, невозможна в действительности. Вы прочитали те три абзаца в статье Сирла? «Сирл» там выучивает алгоритм ИИ, и исполняет его в уме. Исполняя его сознательно, но без понимания того, что происходит, т.е. «… и если положительно, то запиши 5 в клеточку Ы, и перейди к шагу 121764».
Разница, обозначенная нами "foo" — какая? п.3 из п.4 не вычтешь. «"foo" огромно!»?.. Но Вы ведь не об этом спрашивали, так ведь? Вот начиная с таких рассуждений, Вы можете вопрос Ваш уточнить?
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 15:06 (UTC)Я так понял сабж, что экспиремент с китайской комнатой важен не сам по себе, он, фактически, показывает слабую связь теста Тьюринга с пониманием того, что же такое ум и обладает ли им исследуемая система. То есть Сирл утверждает, что мы можем создать машину, проходящую тест Тьюринга, но не можем - обладающую умом. Непосредственно из экспиремента с КК такой вывод, конечно, не следует.
Далее он фактически постулирует неалгоритмичность мышления, упоминая при этом некое "понимание", т.е. оно, в Вашей терминологии, является одной из характерных особенностей процессов, происходящих в машине А, в отличие от машины К, одной из характерых особенностей происходящих в ней процессов является наличие алгоритма.
Фактически, я хочу спросить - что Вы думаете о предыдущих двух абзацах?
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 19:01 (UTC)Честно говоря, то, что я прочитал статью, прежде чем иметь какое-либо суждение по поводу аргументации Сирла, я полагал само-собой разумеющимся. Первый раз я ознакомился с ней, естественно, задолго до нашего разговора. При этом столь же естественно ожидаю этого от любого, кто вступает в дискуссию по КК. Согласитесь, иное было бы в высшей степени странно. Возможно, я чрезмерно наивен в этом плане.
Возражение на КК, столь подробно расписанное (что, несомненно, будет полезно для читателей этой дискуссии), хорошо известно. Это, по-существу, позиция Дэннета, Минского, Хофштадтера и др. Признавая выводы Сирла (понимания у МТ не возникает), в рамках этой позиции делается следующий шаг - понимания на самом деле не возникает и у Сирла. А то, что Сирл принимает за понимание - суть иллюзия по отношению к собственному мозгу (типа мини-КК), подобная той, что возникает у собеседников Сирла, китайцев, по отношению к нему.
Занятное рассуждение. Проблема лишь в том, что оно не более обосновано, нежели доводы Сирла. Если обратите внимание, оно опирается на предположение, что мозг в процессе понимания осуществляет те же типографские операции и ничего сверх этого (исполняет тот же алгоритм, но на нейронах). Однако дело в том, что как раз этот момент подлежит обсуждению (именно его атакует Сирл): невозможно постулат сильного ИИ обосновать через него же (постулат сильного ИИ).
Не говоря уже о следующей интересной мелочи - кто (что) является наблюдателем мозга Сирла в момент понимания. Кто (что) испытывает иллюзию?
Утверждение, что Сирл такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин предполагает гомункулуса, со стороны выносящего суждение о наличии понимания у машины "А". Надеюсь, вы не имели это в виду. Сирл и есть машина "А". Он не может ее внешне наблюдать, он ей является. Вы (вместе с Д., М.и Х.) предлагаете считать, что машина "А" сама выносит суждение о себе и собственном понимании, не производя, как мы договорились, ничего кроме типографских операций.
Мне кажется, этот тезис достаточно тяжел для аргументации и для демонстрации. Пока он существует в виде веры (назовем это убеждением).
Как показал Сирл (и с ним все согласились), в результате выполнения алгоритма у исполнителя не может возникнуть никакого понимания. Даже иллюзорно понимать что-либо МТ не может (у МТ ума нет), она не наблюдает и не выносит суждений. Она манипулирует символами. Кто тогда выносит суждения?
Сколько я не пытался выяснить, как конкретно предлагается выскочить из этой рекурсивной петли, ничего внятного не обнаружил. Даже весьма уважаемые мною и упомянутые выше господа, на мой взгляд, к этой проблеме не смогли подступиться. Хотя очень старались.
На "точки над i" я пока решил не отвечать. Будет настроение, напишу. Скорее всего не будет. Думаю, что и вам моя писанина по этому поводу не сильно нужна.
Я вклинюсь в разговор, с Вашего позволения
2008-01-05 22:55 (UTC)"Утверждение, что Сирл такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин предполагает гомункулуса, со стороны выносящего суждение о наличии понимания у машины "А". Надеюсь, вы не имели это в виду. Сирл и есть машина "А". Он не может ее внешне наблюдать, он ей является."
Посмотрите так. Когда Вы говорите по-английски, Вы говорите по-английски. А когда Вы думаете: "Я говорю по-английски", Вы не говорите по-английски, Вы думаете о себе-прошедшем. Т.е. о том агрегате/процессоре/объекте, говорившем по-английски некоторое время назад. А в текущий момент это тот же самый агрегат, только занимающийся другим делом (рефлексией).
Иными словами, Сирл не является машиной "А". Сирл является объединением машины "А", процессора, способного выполнить алгоритм "К" и некоторой ещё части, способной наблюдать _прошлое_ (именно прошлое - но ни в коем случае не себя в настоящем). И вот именно эта часть может наблюдать прошлое внешне - и работу машины "А", и работу процессора "К", и даже себя-в-прошлом.
И далее, про суждения -
"Даже иллюзорно понимать что-либо МТ не может (у МТ ума нет), она не наблюдает и не выносит суждений. Она манипулирует символами."
Я, вероятно, повторю аргументы
Мой ответ таков - только по предыдущему опыту, по аналогии с другими людьми. Т.е. мы тут тоже манипулируем символами, но так искусно, что Вы из этих символов извлекаете некий "смысл". _Вы_ извлекаете - но потом неявно предполагаете, что "ну не может же тупая железка делать то же самое!" и делаете вывод: "значит, на другой стороне такой же понимающий, что и я".
Вы не знаете, что происходит у меня в голове, когда я Вам отвечаю по-русски. Но Вы, однако, не знаете и того, что происходит в _Вашей_ голове, когда она отвечает мне по-русски! Но по результатам - по манипуляции символами - делаете вывод, что наши с Вами головы в чём-то похожи. Т.е. обе "умные".
Алгоритм "К", если он будет создан, точно так же будет "умным" (вернее, работающий комплекс из процессора и этого алгоритма). Сирл, который выучит алгоритм и будет работать по алгоритму "К", тоже будет в той же степени умным. Собственно, любое китайское дитё именно это и делает в течение первых нескольких лет своей жизни :)
Re: Я вклинюсь в разговор, с Вашего позволения
2008-01-06 05:09 (UTC)да, я предполагал, что такое возражение может возникнуть. На мой взгляд, оно бесперспективно. Привнесение для каждого мыслительного процесса или действия отдельной МТ ничего не дает - все это разнообразие сводимо к одной МТ и одному алгоритму. Кроме того, надо учитывать, что разговор идет в контексте сильного ИИ, согласно которому понимание достижимо на МТ. Если вы вводите дополнительные факторы ("некоторая часть", не сводимая к МТ), это надо обсуждать отдельно. Там будут свои трудности.
Откуда следует, что "наблюдение и вынесение суждений" отлично от "манипулирования символами"?
http://fregimus.livejournal.com/8524.html?thread=47180#t47180
Заметьте, ровно тот же вопрос задает вам Сирл, меняя его знак на противоположный - откуда следует, что "наблюдение и вынесение суждений" представляет собой процесс "манипулирования символами"? И говорит: нет никаких достаточных оснований считать, что это так.
Так что здесь у сторонников и противников сильного ИИ равнозначные взаимные вопросы друг другу.
Как Вы...отличаете, что мы с уважаемым fregimus'ом - не боты, а живые люди?
Я не отличаю. Я просто исхожу из предпосылки, которая наиболее рациональна в данной ситуации.
Обратите внимание, как вы составляете свои сообщения, я не знаю. Но важно, что в случае МТ мы это знаем достоверно. Иначе, разумеется, ничего нельзя было бы сказать по поводу ее "понимания".
Re: Я вклинюсь в разговор, с Вашего позволения
Posted byRe: Я вклинюсь в разговор, с Вашего позволения
Posted byОтв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byRe: Отв. 1
Posted byОтв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byRe: Отв. 2
Posted byОтв. 3
Posted byRe: Отв. 3
Posted byRe: Отв. 3
Posted byRe: Отв. 3
Posted byRe: Отв. 3
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 04:36 (UTC)Неверно Вы меня в этой детали поняли. Понимания у процессора не возникает. Собственно «ум» состоит из алгоритма и, непременно, состояния процессора (например, содержимое оперативной памяти). Я не признаю тут выводы Сирла. Я только соглашаюсь, что процессор, без алгоритма, не умен. Без алгоритма — здесь именно это важно.
> Проблема лишь в том, что оно не более обосновано, нежели доводы Сирла.
Я не уверен вообще, что Вы понимаете, о чем я говорю. Постарайтесь, пожалуйста, я очень Вас прошу. Вот то, что я сейчас скажу в этом абзаце. Сирл доводит рассуждение до необходимости введения в картину некоей «каузальности» («шайтана», «Юпитера», «демона им. Максвелла», и т.д. Можете называть это любым из этих слов). Я показываю только, только то, что этой необходимости нет. Более этого я ничего не утверждаю. Договорились? Я не «за», не «против», и даже не «вместе с».
> Если обратите внимание, оно опирается на предположение, что [и т.д.]
Это было предположение. Такой способ доказательства называется «от противного». Сирл его использует, но ошибается по ходу дела, и ошибочно полагает, что все это приводит к противоречию. Я показываю, что не приводит, но не доказываю ни истинности, ни ложности этого утверждения.
Понимаете, Сирл как бы говорит: пусть утверждение P есть «Машина «К« возможна»; тогда, если предположить P, из этого следует, что и U, и Ū, одновременно, а этого не может быть; следовательно, P ложно. Я показываю, где он ошибся. Никакого утверждения, стало быть, о ложности P делать нельзя. И, конечно, об истинности P речь вообще ни разу не шла.
> кто (что) является наблюдателем мозга Сирла… [и] испытывает иллюзию?
Никакой иллюзии. Или уж настоящий ум, или тогда и Вы мне мерешитесь, и я мне мерещусь.
> Утверждение, что Сирл … наблюдатель машины «А», предполагает гомункулуса,
Не предполагает. С чего бы?
> Сирл и есть машина "А".
Заблуждение (1).
> Он не может ее внешне наблюдать, он ей является.
Ум знает, полагаю, что он ум. Мой вот точно знает. Большинство людей, с которыми мне довелось общаться, знают, что у них есть ум. Это вот мое наблюдение, такой у нас будет grounding, пока мы не дадим определения «уму». А у Вас вот другой, выходит, опыт на эту тему? Вы, значит, не наблюдаете у себя своего ума? А откуда же Вы знаете тогда, что он есть?
> Вы … предлагаете считать, что машина "А" сама выносит суждение … не производя, как мы договорились, ничего кроме типографских операций.
(Вздохнув) Плохо дело. Я просто показываю, что это предположение (и только!), вопреки утверждению Сирла, не ведет к противоречию. Я ничего не предлагаю. Я не ставил такой задачи. Я обещал показать, где ошибка, и показал. Для доказательства надо было предположить, (вообразить, на время только, как будто бы так и есть, ну, я уже не знаю, как проще объяснить, ну как в игре как бы в детской — как будто так, а на самом-то деле все равно неизвестно, как бы), что машина «А» и т д. Как только мы нащли у Сирла ошибку, и с доказательством закончили, так у нас нужда делать такое предположение (предположение, не более!) и перестала. Понятно?
> Как показал Сирл … в результате выполнения алгоритма у исполнителя не может возникнуть никакого понимания.
Может не возникнуть, строго говоря, но это — мелкая деталь. То есть, «Сирлу» не запрещено выучить кит. яз., читая алгоритм. Но учебник, думаю, лучше! :-) (Посл. предложение — шутка. Ее не надо обсуждать, пожалуйста)
> она не наблюдает и не выносит суждений. Она манипулирует символами.
Одно ведь не исключает другого? Паровоз одновременно и пыхтит, и дымит, и едет. Тут нет противоречия.
> Кто тогда выносит суждения?
Говорите, что суждение о себе самом невозможно? Разве? А сам-то я, грешным делом, вот, иногда… Ладно, не буду рассказывать.
> На "точки над i" я пока решил не отвечать.
Спасибо! Я там так просил не отвечать. Честно, Я буду Вам просто признателен чрезвычайно, если Вы на это отвечать не будете.
В итоге, давайте так. Я показал, где Сирл неправ, доказывая P, где P = как мы договорились выше. Если у меня ошибка — покажите, где. Если нет — хорошо. Про «невычислимость» рассказывать?
(no subject)
2008-01-06 06:11 (UTC)Сирл как бы говорит: пусть утверждение P есть «Машина «К« возможна»; тогда, если предположить P, из этого следует, что и U, и Ū, одновременно, а этого не может быть; следовательно, P ложно.
У меня не возникло впечатления, что Сирл вообще как-то использует метод от противного. Сжатую аргументацию Сирла я изложил по вашей просьбе, что вы понимаете под "U, и Ū, одновременно"?
Сирл не пытается играть на "машина "К" возможна/невозможна". Такая машина признается им возможной, и он даже не пытается спорить с этой возможностью. Прототип, машина Шэнка, реальна. Сирл делает другое, разбирает утверждения, возникающие в связи с этой машиной:
1. можно сказать буквальным образом, что машина понимает рассказ и дает ответы на вопросы;
2. то, что делают машина и ее программа, объясняет человеческую способность понимать рассказ и отвечать на вопросы о нем.
Где вы там метод от противного увидели? - да и казуальность...довольно боковая тема. Уберите ее, аргументация по поводу 1. и 2. не меняется.
(no subject)
Posted by(no subject)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 17:17 (UTC)Сирл доказывает, что машина тьюринга (рассматриваемая без алгоритма) не может обладать пониманием. Совершенно верно, не может, его доказательство совершенно корректно в этом понимании. Правда, при этом он всё время говорит об алгоритме, что несколько сбивает с толку и заставляет поверить, что то, что он говорит, имеет хоть какое-нибудь отношение к реализуемости ИИ. Тут я ещё хотел написать про два килограмма нейронов в банке с формалином, но понял, что это, скорее, к обратному вопросу относится, к вопросу о том, может ли что-нибудь понимать неисполняемый алгоритм ("в нирване программа не глючит, но и не работает").
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 16:08 (UTC)Нет, совершенно не так. То есть они это всё говорят, но уже намного позже, излагая собственную точку зрения, давно забыв про Сирла и вообще вкладывая в эти слова довольно специфический смысл.
Смотрите: Сирл как бы рассуждает от противного, предполагая, что алгорит может обладать пониманием, таким же, как у нас с Вами. Это на самом деле очень сильное предположение, ведущее к крайне нетривиальным размышлениям и выводам. Если бы КК на этом предположении и закончилась, проиллюстрировав, как этот гипотетический алгоритм выглядит изнутри и что с ним можно сделать (клонировать состояние, остановить на произвольное время, запускать в обратном направлении етс), то вопросов бы никаких не было. Да, если мы такое допускаем, то нам нужно очень сильно расширить сознание, чтобы вместить туда такую странную штуку.
Но Сирл не останавливается, он пытается опровергнуть это предположение и совершает логическую ошибку, fallacy of division: из того, что какая-то часть целого (или даже все части по отдельности, но Сирл рассматривает только одну часть, человека, перекладывающего карточки) не обладает неким свойством, не следует, что целое не обладает этим свойством. Самолётный двигатель не может перелететь Атлантику, целый самолёт -- может. Транзистор не может сложить два числа, сумматор может. Сирл вытаскивает из системы "человек + карточки" человека, видит, что у него нет понимания (китайского языка) и делает вывод, что и у всей системы его нет. Это ошибка. Я не знаю, как можно интерпретировать КК, чтобы этой ошибки не было.
Насколько я помню (статью читал жутко давно, а перечитывать лениво) Сирл её ещё и усугубляет, предлагая посмотреть на оставшуюся часть системы и заметить, что у неё "очевидно" не может быть понимания (хотя оставшаяся часть системы и есть алгоритм, так что мы как бы и надо заниматься доказательством этого "очевидного"). Собственно, оттуда ошибка и появляется: на самом деле Сирл изначально засовывает человека в систему внутренне предполагая, что в этой системе больше ничего пониманием обладать не может, поэтому понимание, если оно есть, всё сконцентрируется в человеке.
Вот.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 17:37 (UTC)Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byПростите, не могу удержаться :)
Posted byповторно
Posted byRe: повторно
Posted byв третий раз
Posted byRe: в третий раз
Posted byвсе, хватит
Posted byRe: все, хватит
Posted byRe: в третий раз
Posted byRe: в третий раз
Posted byRe: в третий раз
Posted byв четвертый раз
Posted byRe: в четвертый раз
Posted byНе могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: Не могу удержаться ещё раз :)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byзапоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted by(no subject)
Posted by(no subject)
Posted byRe: запоздалые вопросы ;)
Posted byRe: запоздалые вопросы ;)
Posted by (Anonymous) - 2009-06-24 20:29 (UTC) - ExpandRe: запоздалые вопросы ;)
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byвсе наоборот
Posted byRe: все наоборот
Posted byRe: все наоборот
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byНебольшое добавление
2008-01-05 20:39 (UTC)Машина «А» — это ум, потому что {это — я}. (1)
Китаец напротив — ум, потому что {он просто иностранец}. (2)
Машина «К» — совсем иная, не такая, как машина «А», и не такая, как китаец, значит, {это — не ум.} (3)
Машина "К" - не ум, потому что ничего не знает о содержании, семантике сообщений. А не потому что совсем иная.
Машина «А» - это ум, потому что знает (понимает) семантику.
Re: Небольшое добавление
2008-01-05 22:56 (UTC)Вы это на каком основании утверждаете?
Re: Небольшое добавление
2008-01-06 05:06 (UTC)Это утверждает Сирл. На основании того, что он сам был в роли машины "К":
Та подсистема, которая понимает английский язык...знает, что наши рассказы суть о ресторанах и поедании гамбургеров, она знает, что ей задают вопросы о ресторанах и что она отвечает на эти вопросы, используя все свои возможности, делая различные выводы из содержания рассказа, и так далее. Но китайская система ничего этого не знает. Тогда как английская система знает, что «hamburgers» указывает на гамбургеры, китайская подсистема знает лишь, что за такой-то загогулиной следует такая-то закорючка. Она знает только, что на одном конце вводятся различные формальные символы и ими манипулируют по правилам, записанным на английском языке, а на другом конце выходят другие символы.
Re: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: Небольшое добавление
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-05 23:06 (UTC)Это не мешает машине «К» иметь сознание (щас объясню, откуда оно), ...
Пожалуй, эти два высказывания явно демонстрируют, что именно Вы не понимаете в аргументации Серля.
Посмотрите Qualia (http://en.wikipedia.org/wiki/Qualia), в частности, такое утверждение:
John Searle has rejected the notion that the problem of qualia is different from the problem of consciousness itself, arguing that consciousness and qualia are one and the same phenomenon. (Джон Серль отвергает идею о том, что проблема qualia отлична от проблемы сознания, утверждая, что сознание и qualia - это один и тот же феномен.)
Серль отрицает наличия у машины «К» сознания как, в первую очередь, quala - субъективных переживаний (subjective experiences). В этом же смысле (а не в бихевиористском, которое пытаетесь отстаивать Вы) он отказывает машине «К» в "истинном понимании", которое также переживается, испытывается субъективно.
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 04:38 (UTC)Re: 2.2.1., Продолжение разъяснения со статьей в руках.
2008-01-06 06:58 (UTC)Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted byRe: 2.2.1., Продолжение разъяснения со статьей в руках.
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted byQualia or No qualia
Posted byRe: Qualia or No qualia
Posted byRe: Часть 2.2: Просьба уточнить интерпретации
2008-01-06 09:04 (UTC)Поскольку в первом случае он проделывает ровно те операции, что производила бы МТ
Нет. Вот здесь Серль передёргивает. И дальше всё уже мимо. Подробнее можете, при желании, посмотреть здесь (как-то мы это уже обсуждали) - http://kaktus77.livejournal.com/6338.html
Кстати, машина Т. - это машина с памятью, она модифицирует свое текущее состояние на каждом шаге.
Машина Т. вообще не раскладывается на инструкцию и "исполнителя"!
Re: Часть 2.2: Просьба уточнить интерпретации
2008-01-06 18:06 (UTC)Re: Часть 2.2: Просьба уточнить интерпретации
2008-01-06 20:23 (UTC)МТ не манипулирует отдельными символами. Чтобы не было разночтений уточним. У С. четко зафиксировано, что является "манипулированием" - берется текущий китайский символ, "сообщается" инструкции и инструкция указывает на тот символ, который должен пойти в ответ.
А МТ - это машина с памятью, она модифицирует свое текущее состояние на каждом шаге. Т.е. каждый входной "символ" модифицирует саму МТ, и что там будет на выходе, будет известно только в конце работы машины, и определяется этой работой.
МТ не делится на (неизменную) инструкцию и (неизменный) исполнительный механизм (человечка). В этом языке её можно рассматривать только как само-меняющуюся "инструкцию", в которую встроен исполняющий механизм.
Соответственно, возникает вопрос - где здесь место для "железного" человека? Ведь в схеме С. он не меняет своих внутренних состояний, т.е. элементы ответа рождаются не внутри человечка (как в рождаются в МТ), а сообщаются инструкцией.
Так что схема С. не имеет никакого отношения к МТ (как и к "понимающим" комп. системам)
(no subject)
2008-01-07 05:38 (UTC)(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted by(no subject)
Posted byRe: Часть 2.2: Просьба уточнить интерпретации
2008-01-09 06:58 (UTC)