Сирл изобрел мысленный эксперимент « Китайская комната» , который, как он предлагает, является аргументом против сильного ИИ (который мыслит машинами), но не против слабого ИИ (который машины имитируют мышление). У него есть человек в комнате, манипулирующий китайскими символами с помощью инструкции. написано на английском языке.
У меня вопрос: откуда взялась эта инструкция? Мы все знаем, что люди пишут код, который управляет компьютером, или пишут код, который пишет дополнительный код для управления компьютером (например, компилятор) и т. д.
Мое уточнение (то есть, если это так) мысленного эксперимента Серла «Китайская комната» состоит в том, чтобы иметь человека (Джона), который не понимает по-китайски, в комнате с двумя окнами. У одного окна кто-то (Май) задает вопросы по-китайски, у другого окна стоит мужчина (Лаос), который понимает по-китайски; когда задан вопрос, Джон берет вопрос, проходит через комнату, передает его через окно и отдает Лао, который читает его, отвечает на него, а затем Джон возвращается к первому окну и возвращает ответ. к май.
Май кажется, что Джон понимает по-китайски (даже если он довольно странно отказывается говорить на нем). Она не знает, что у него есть тайный сотрудник, Лао.
Я думаю, что это моделирует то, что на самом деле происходит в компьютере, гораздо более четко. Но точная ли это аналогия?
Вы указываете, что фолиант, который позволяет Джону моделировать общение на китайском языке, представляет собой довольно колоссальный вычислительный ресурс: тот, который очень близок по сложности — при условии, что его правила достаточно сложны, чтобы успешно вести многолетние разговоры так же, как китайский эссеист мог бы — к простому общению с китайцем. И я думаю, что вы в основном правы. Несмотря на то, что книга сама по себе является статическим объектом, она кодирует правила для имитации интерактивного процесса (самой своей конструкцией!) и поэтому не очень отличима с точки зрения ценности разговорного ресурса от китайца.
Очевидно, что книга — это не сознательный китаец. Я думаю, мы можем с некоторой уверенностью сказать, что книга сама по себе не является какой-либо сознательной сущностью. Но книга, подобная той, которую видит Серл, станет информационным ресурсом огромной силы; абсурдно огромной силы, на самом деле. (И тот, кто имел достаточно терпения, чтобы успешно использовать его, был бы не промах в вычислениях или, по крайней мере, в надежном выполнении сложных систем правил.) как эта книга (или ее пользователь) должна выглядеть, чтобы достичь цели, которую он для нее запланировал. По сути, он должен быть таким же сложным, как довольно значительная часть человеческого мозга, еще однавещь, которую мы не понимаем ни на каком уровне, кроме сущностно синтаксического.
Есть причина , по которой сознание является такой загадкой. У нас нет ни малейшего представления о том, как понимать мир таким образом, чтобы мы могли обладать как предсказательной силой, так и способностью использовать эту предсказательную силу для описания того, из чего вообще состоит сознание, помимо того, что мы переживаем его сами и описываем . симптомы явного сознания у других. Говоря, что компьютеры не могут быть сознательными, потому что мы не знаем механизма, который позволил бы ему возникнуть в результате механической эволюции, мы также обобщаем проблему, с которой мы сталкиваемся в понимании нашего собственного сознания.
Скотт Ааронсон, профессор компьютерных наук Массачусетского технологического института, говорит очень похожие вещи. Ниже приводится отрывок из набора заметок из его лекции об искусственном интеллекте , из превосходного и гораздо более обширного набора лекций.
Были ли за последние пятьдесят лет какие-либо новые идеи о самом тесте Тьюринга? На мой взгляд, нет. С другой стороны, имело место непонимание, которое называется Китайской комнатой Серла. Предполагается, что это аргумент в пользу того, что даже компьютер, прошедший тест Тьюринга, не будет разумным. Как это происходит, скажем, вы не говорите по-китайски. (Дебби [китайско-американская коллега Скотта] сегодня здесь нет, поэтому я думаю, что это безопасное предположение.) Вы сидите в комнате, и кто-то передает вам листки бумаги через дыру в стене с вопросами, написанными на китайском языке, и вы можете ответить на вопросы (опять же на китайском языке), просто сверившись со сводом правил. В этом случае вы можете вести интеллектуальную беседу по-китайски, хотя, по предположению, вы не понимаете ни слова по-китайски!
[...] Как и многие другие мысленные эксперименты, Китайская комната выигрывает от обманчивого выбора образов - и, что более важно, от игнорирования вычислительной сложности. Нам предлагается представить кого-то, кто толкает листки бумаги с нулевым пониманием или проницательностью — очень похоже на тупых первокурсников, которые пишут (a+b) 2 =a 2 +b 2на своих математических тестах. Но о скольких листках бумаги мы говорим? Насколько большим должен быть свод правил и как быстро вам нужно свериться с ним, чтобы провести интеллектуальную беседу на китайском языке в чем-то, напоминающем реальное время? Если бы каждая страница свода правил соответствовала одному нейрону (скажем) мозга Дебби, то, вероятно, мы бы говорили о «своде правил» размером не меньше Земли, страницы которого доступны для поиска рою роботов, путешествующих на близком расстоянии. до скорости света. Если так выразиться, может быть, не так уж сложно представить, что это огромное говорящее по-китайски существо — этот дянь нао — которое мы породили, может обладать чем-то, что мы готовы назвать пониманием или проницательностью.
Я очень хорошо знаком с аргументом, который приводит Джон в своем аргументе о китайской комнате, и он чрезвычайно последователен в отношении того, что он имеет в виду, чтобы изобразить: что наше представление о том, что значит понимать язык, ошибочно, когда мы пытаемся применить этот термин к любой машине. который работает только синтаксически. В первую очередь это опровержение представления о том, что теста Тьюринга достаточно, чтобы заявить о наличии сознательного понимания.
Будучи системным администратором днем и начинающим студентом-философом ночью, я могу с полной уверенностью сказать вам, что да, Джон Сирл прав, когда утверждает, что компьютеры работают чисто синтаксически. Все, что они делают, — это манипулируют символами, и нам по-прежнему требуется человек, чтобы наполнить эти символы смыслом. Тем не менее осознание того, что один только синтаксис может обладать такой невероятной силой, является великим уроком нашего века.
Проблема с примером, который вы привели выше, заключается в том, что он обходит саму суть редукции, которую делает Китайская комната.
В исходном примере Май отправляет свой ответ в большой ящик и получает понятные ответы от этого ящика (от которого она не зависит) за достаточно короткое время. Таким образом, с точки зрения Май, коробка прошла тест Тьюринга. Май считает, что ее поняло сознательное существо. Со стороны Джона у него есть набор ящиков, которые содержат всевозможные ответы и фразы для разных вопросов, а путеводитель, который он носит с собой, просто направляет его к соответствующему ящику на основе китайского сообщения, которое он получает.
Интуиция, на которую опирается Серл, заключается в том, что Джон не понимает по-китайски , поэтому убеждение Май в том, что ее слова понимает разумное существо, должно быть ошибочным. Попытка воспроизвести мысленный эксперимент с Лао, играющим роль сознательного, понимающего отвечающего, таким образом, просто обходит весь аргумент, не обращаясь к проблеме, которую он представляет.
На данный момент существует множество глубоких разногласий: мы могли бы защитить Mai, утверждая, что John + Box + путеводитель вместе составляют систему, которая , например, понимает китайский язык. Сам Серл отрицает, что эта позиция является последовательной, но не все верят его мнению. Дэниел Деннет также поднимает вопрос о том, что Сирл допускает ошибку категории, когда использует слово «понимание». По мнению Деннета, семантика не нужна для понимания языка, а синтаксические операции — это все, что нужно для объяснения сознания.
Вы также можете попытаться выровнять обвинение в том, что ошибка Серла состоит в том, что он думает, что может существовать даже набор правил, к которым может быть сведен живой язык, такой как китайский. Однако следствием этого аргумента является то, что он отрицает любую возможность успешного прохождения теста Тьюринга. В результате, нивелирование этого обвинения требует, чтобы вы уже согласились с результатами мысленного эксперимента: одно только следование правилам не может объяснить наше нормативное понимание того, что представляет собой «понимание».
Хотя я считаю, что Сирл ошибается, я не думаю, что вы нашли проблему. Вы постулируете, что ввод содержит содержание, а не просто знание китайского языка в дистиллированной форме , особенно в примере с ходьбой по комнате. Но многие алгоритмы машинного обучения просто берут множество примеров и затем могут генерировать соответствующее поведение (конечно, в определенных пределах). Так что они, раз дрессированные, не имеют ни содержания, ни даже перегонки, обеспечиваемой человеком. Это правда, что соответствующие свойства, скажем, китайского языка, имплицитно присутствуют во входных данных; но, тем не менее, это совсем не похоже на то, о чем мы интуитивно думаем, и это не та очевидная уловка с сообщениями-я-иду-по-комнате, которую вы предлагаете.
(Сёрл предложил мысленный эксперимент в то время, когда считалось, что ИИ, основанный на логике, будет очень успешным, чего не произошло. Мысленный эксперимент не совсем соответствует нынешней практике.)
Разве это не то, чем является электронная почта? Транспортировка непереведенной информации из точки А в точку Б точно так же, как информация была введена? Но именно на это указывает Сирл в своей аналогии — человек, который не говорит по-китайски, но на самом деле действует (учитывая только результаты своих действий) так, как если бы он это делал, потому что у него есть свод правил, который говорит ему, как поступать. Если я ничего не упускаю, то в вашей аналогии отсутствуют очень важные предпосылки/допущения.
Должен добавить, что я практически ничего не знаю о том, как работают компьютеры, но я потратил некоторое время на эту главу (имея в виду, что я говорю только об аргументе Серла, а не о компьютерах вообще).
гипотеза
Перед официальным открытием Большой китайской комнаты у Джона была другая книга и большая стопка вопросов и ответов из реальной жизни на китайском языке — Полный китайский корпус . Эта другая книга научила Джона, как, используя стопку вопросов в качестве тренировочного набора, написать книгу, которую он сейчас использует, чтобы создать впечатление, что Комната разговаривает с Май. Человек, написавший первую книгу, также не знал китайского языка, знание китайского языка в комнате появилось в результате всестороннего анализа использования языка в реальной жизни.
вариация с лаосским
Аналогичная уловка, но с участием вашего скрытого говорящего по-китайски - лаоса. Как и раньше, у Джона есть метаинструкция о том, как заставить комнату понимать китайский язык, но некоторые правила в инструкции заставляют Джона взаимодействовать с лаосцем. Эти взаимодействия не так просты, как передача табличек от и к Мэй, нет, Джон должен вести тщательный учет всего, что приходит, и любые ответы, которые Лао делает и выполняет какие-то тайные манипуляции с записями (фактически - создание Неполного китайского корпуса) .пока он идет). Среди этих манипуляций — предсказание того, что скажет Лао, вычисление уверенности Рума в том, что предсказание является точным, и оценка предсказаний на основе фактического ответа. В конце концов, когда уверенность Room выше некоторого порога, Лао отключается от цикла на одну-две транзакции, и постепенно его участие в проекте сводится к минимуму, просто чтобы время от времени контролировать качество.
Однажды я встретил физика, который занимал сильную позицию в области ИИ. Мне было 16, я раньше не сталкивался с этой позицией, и она показалась мне совершенно абсурдной. Даже несмотря на то, что я больше не убежден в полной абсурдности этой позиции, я все еще не понимаю, почему все пытаются опровергнуть Джона Серла. Мне кажется, что установку мысленного эксперимента Джона Сирла можно с пользой перенести в контекст современных компьютеров:
Современный компьютер предлагает определенный объем памяти, точнее иерархию памяти с увеличением размера, но уменьшением скорости доступа. Он также предлагает определенную вычислительную мощность, точнее кластер параллельных процессоров с увеличивающимся количеством, но уменьшающейся скоростью соединения. Эта базовая архитектура обычно не зависит от программ и входных данных, которые будут использоваться для получения полезных результатов с помощью ресурсов, предоставляемых этим компьютером.
В мысленном эксперименте Серла «Китайская комната» предполагается, что Джон берет на себя роль этого компьютера и обеспечивает память и вычислительную мощность для вычислений. На самом деле предполагается, что он обеспечивает самую быструю память, в то время как действительно огромная, но медленная память является внешней по отношению к Джону в форме бумаги, карандаша и «волшебной» книги. Но даже если Джон возьмет на себя роль «всей» ленты машины Тьюринга, почему мы должны ожидать, что он (или лента) поймет экземпляр задачи, над которой в данный момент работает машина Тьюринга? Ну, одна из причин заключается в том, что для универсальной машины Тьюринга сама программа также была записана на ленту, поэтому лента имела доступ ко всей соответствующей информации с течением времени (кроме значения и интерпретации ее конечного вывода, но я сомневаюсь, что это здесь важно).
У меня вопрос: откуда взялась эта инструкция? Мы все знаем, что люди пишут код, который управляет компьютером, или пишут код, который пишет дополнительный код для управления компьютером (например, компилятор) и т. д.
В приведенном выше переводе в контексте современных компьютеров книга инструкций является частью ввода. Это может быть важным моментом, потому что на первый взгляд кажется, что единственный вклад исходит от Май, которая задает вопросы на китайском языке.
Так откуда берется вход? Я предполагаю, что вход исходит из текущей и прошлой среды. Однако мы не можем заглянуть достаточно далеко в прошлое, чтобы узнать, откуда взялось «первоначальное семя». И вдобавок у нас есть теория эволюции, которая предполагает, что «первоначальное семя» могло быть менее важным, чем кажется. Что приводит меня к другой позиции, которая показалась мне совершенно абсурдной, когда я впервые столкнулся с ней. Кто-то предположил мне, что этот мир мог быть создан инопланетянами. Я нашел это смешным, потому что это вызывает вопросы, кто вообще создал инопланетян. Однако после того, как я посмотрел клип , в котором Ричард Докинз серьезно рассматривал такую возможность, я должен признать, что это действительно может быть последовательной позицией.
Даже если это не имеет прямого отношения к вопросу, каково мое собственное предположение о том, как понимание и смысл могут возникнуть во время сложных вычислений? Это может быть связано со структурой пространства и времени, когда во время вычислений необходима передача информации между различными точками (поскольку объем информации, хранящейся вблизи любой данной точки, конечен) и занимает определенное конечное время. Следствием этого является то, что сжатые сообщения с более или менее ясным значением в контексте вычислений обмениваются и понимаются (и иногда запоминаются для дальнейшего использования) в ходе вычислений. (И поскольку вычисления, которые, по-видимому, производит наша Вселенная с ее структурой пространства и времени, вряд ли закончатся в ближайшее время, нет необходимости беспокоиться о значении и интерпретации их окончательных результатов.)
Если мы посмотрим на животных, люди разумны, обезьяны, свиньи, собаки, лошади разумны, вполне возможно, куры. Вопрос о том, разумны ли мухи или муравьи, очень спорный, а бактерия или вирус — нет (по моему скромному мнению).
Аргумент Серла предполагает, что «компьютер», управляемый человеческими мышцами, может имитировать интеллектуальный разговор на китайском языке, и мы, безусловно, все согласны с тем, что комната Сирла никак не может быть разумной. Мы, конечно же, все согласны с тем, что комната Сирла никак не может имитировать интеллектуальный разговор на китайском языке! Это просто недостаточно продвинутое устройство для каких-либо возможностей.
Из этого мы должны заключить, что высокоразвитый компьютер не может «понимать» китайский текст. Это все равно, что сказать, что раз бактерия не понимает по-китайски, то и человек не может. Это не разумный вывод.
Современный компьютер мог бы делать то, что делает комната Сирла, примерно в 10 миллиардов раз быстрее, игнорируя тот факт, что человек в комнате Сирла не захочет работать более 1/3 времени, а это означает, что ответ, который может дать современный компьютер, дать в секунду, комната Серла заняла бы тысячу лет. Сейчас мы не в состоянии создать книгу правил, которая сделала бы возможным разговор на китайском языке. К тому времени, когда мы сможем его создать, компьютеры будут работать в тысячу раз быстрее.
Будет ли кто-нибудь убежден, что комната Серла, которая является не просто комнатой, а внутренностью огромного небоскреба, работающего миллион лет, не может сделать что-то эквивалентное человеческому «пониманию»?
Давид Титаренко
Мозибур Улла
МммХм
Мозибур Улла
Мозибур Улла
МммХм
МммХм