Правильно ли моделирует компьютеры Китайская комната Серла?

Сирл изобрел мысленный эксперимент « Китайская комната» , который, как он предлагает, является аргументом против сильного ИИ (который мыслит машинами), но не против слабого ИИ (который машины имитируют мышление). У него есть человек в комнате, манипулирующий китайскими символами с помощью инструкции. написано на английском языке.

У меня вопрос: откуда взялась эта инструкция? Мы все знаем, что люди пишут код, который управляет компьютером, или пишут код, который пишет дополнительный код для управления компьютером (например, компилятор) и т. д.

Мое уточнение (то есть, если это так) мысленного эксперимента Серла «Китайская комната» состоит в том, чтобы иметь человека (Джона), который не понимает по-китайски, в комнате с двумя окнами. У одного окна кто-то (Май) задает вопросы по-китайски, у другого окна стоит мужчина (Лаос), который понимает по-китайски; когда задан вопрос, Джон берет вопрос, проходит через комнату, передает его через окно и отдает Лао, который читает его, отвечает на него, а затем Джон возвращается к первому окну и возвращает ответ. к май.

Май кажется, что Джон понимает по-китайски (даже если он довольно странно отказывается говорить на нем). Она не знает, что у него есть тайный сотрудник, Лао.

Я думаю, что это моделирует то, что на самом деле происходит в компьютере, гораздо более четко. Но точная ли это аналогия?

Я собирался опубликовать ответ, но я думаю, что это лучше подходит в качестве комментария. Всем нравится нападать на Китайскую комнату Серла, потому что это особенно простой мысленный эксперимент. Даже Серл признал, что это не так уж и здорово. Тем не менее, его позиция сильного/слабого ИИ имеет несколько очень хороших аргументов (изложенных в его книге — я не уверен, сколько ответивших на самом деле прочитали ее). Китайская комната — лишь второстепенный мысленный эксперимент, а не центральный принцип.
@Titarenco: Какова на самом деле его позиция в отношении сильного/слабого ИИ?
@MoziburUllah re: Позиция Серла в отношении различия сильных и слабых сторон: оригинальная статья Сирла 1983 года « Разум, мозг и программы »? Кроме того, глава 2 книги «Разумы, мозги и наука» « Могут ли компьютеры думать? »
@Mr.Kennedy: это было, когда на этом сайте почти не было вопросов или ответов; сделайте себе одолжение и научитесь воспринимать критику конструктивно, а не недобросовестно; спасибо, что нашли эти ссылки.
Нет, не знаю; но и не притворяться, что я не знаю разницы между слабым ИИ и сильным ИИ - это форма «позерства»? Или вы просто "быстро прочитали" этот очень короткий текст? А учитывая это, как мне расценивать вашу "интеллектуальную искренность"? Вы просматриваете мой архив вопросов и ответов в поисках уязвимого места для начала атаки? И если да, то как это отражается на вашей "интеллектуальной искренности"?
@MoziburUllah Короче говоря, вы просто неправильно прочитали аргумент Серла. Китайская комната — это опровержение вычислительной теории разума, а не аргумент против того, что машины могут мыслить. Различие сильного и слабого ИИ показывает, что синтаксические механизмы (например, машины Тьюринга) недостаточны для достижения семантического содержания.
Кроме того, и Ричард Фейнман, и Сирл делают один и тот же вывод о синтаксической манипуляции, проводя аналогию с участием кого-то в коробке, следуя своду правил.

Ответы (7)

Вы указываете, что фолиант, который позволяет Джону моделировать общение на китайском языке, представляет собой довольно колоссальный вычислительный ресурс: тот, который очень близок по сложности — при условии, что его правила достаточно сложны, чтобы успешно вести многолетние разговоры так же, как китайский эссеист мог бы — к простому общению с китайцем. И я думаю, что вы в основном правы. Несмотря на то, что книга сама по себе является статическим объектом, она кодирует правила для имитации интерактивного процесса (самой своей конструкцией!) и поэтому не очень отличима с точки зрения ценности разговорного ресурса от китайца.

Очевидно, что книга — это не сознательный китаец. Я думаю, мы можем с некоторой уверенностью сказать, что книга сама по себе не является какой-либо сознательной сущностью. Но книга, подобная той, которую видит Серл, станет информационным ресурсом огромной силы; абсурдно огромной силы, на самом деле. (И тот, кто имел достаточно терпения, чтобы успешно использовать его, был бы не промах в вычислениях или, по крайней мере, в надежном выполнении сложных систем правил.) как эта книга (или ее пользователь) должна выглядеть, чтобы достичь цели, которую он для нее запланировал. По сути, он должен быть таким же сложным, как довольно значительная часть человеческого мозга, еще однавещь, которую мы не понимаем ни на каком уровне, кроме сущностно синтаксического.

Есть причина , по которой сознание является такой загадкой. У нас нет ни малейшего представления о том, как понимать мир таким образом, чтобы мы могли обладать как предсказательной силой, так и способностью использовать эту предсказательную силу для описания того, из чего вообще состоит сознание, помимо того, что мы переживаем его сами и описываем . симптомы явного сознания у других. Говоря, что компьютеры не могут быть сознательными, потому что мы не знаем механизма, который позволил бы ему возникнуть в результате механической эволюции, мы также обобщаем проблему, с которой мы сталкиваемся в понимании нашего собственного сознания.

Скотт Ааронсон, профессор компьютерных наук Массачусетского технологического института, говорит очень похожие вещи. Ниже приводится отрывок из набора заметок из его лекции об искусственном интеллекте , из превосходного и гораздо более обширного набора лекций.

Были ли за последние пятьдесят лет какие-либо новые идеи о самом тесте Тьюринга? На мой взгляд, нет. С другой стороны, имело место непонимание, которое называется Китайской комнатой Серла. Предполагается, что это аргумент в пользу того, что даже компьютер, прошедший тест Тьюринга, не будет разумным. Как это происходит, скажем, вы не говорите по-китайски. (Дебби [китайско-американская коллега Скотта] сегодня здесь нет, поэтому я думаю, что это безопасное предположение.) Вы сидите в комнате, и кто-то передает вам листки бумаги через дыру в стене с вопросами, написанными на китайском языке, и вы можете ответить на вопросы (опять же на китайском языке), просто сверившись со сводом правил. В этом случае вы можете вести интеллектуальную беседу по-китайски, хотя, по предположению, вы не понимаете ни слова по-китайски!

[...] Как и многие другие мысленные эксперименты, Китайская комната выигрывает от обманчивого выбора образов - и, что более важно, от игнорирования вычислительной сложности. Нам предлагается представить кого-то, кто толкает листки бумаги с нулевым пониманием или проницательностью — очень похоже на тупых первокурсников, которые пишут (a+b) 2 =a 2 +b 2на своих математических тестах. Но о скольких листках бумаги мы говорим? Насколько большим должен быть свод правил и как быстро вам нужно свериться с ним, чтобы провести интеллектуальную беседу на китайском языке в чем-то, напоминающем реальное время? Если бы каждая страница свода правил соответствовала одному нейрону (скажем) мозга Дебби, то, вероятно, мы бы говорили о «своде правил» размером не меньше Земли, страницы которого доступны для поиска рою роботов, путешествующих на близком расстоянии. до скорости света. Если так выразиться, может быть, не так уж сложно представить, что это огромное говорящее по-китайски существо — этот дянь нао — которое мы породили, может обладать чем-то, что мы готовы назвать пониманием или проницательностью.

Есть причина, по которой литературоведы так много извлекли из того, что по сравнению с ними может показаться таким малым. Сравните корпус критических замечаний по пьесам Шекспира с корпусом самих пьес и почему они говорят о диалоге между текстом и читателем. Хорошая цитата Скотта; Я полностью согласен; хотя я думаю, что он немного суров к Сирлу: мысленный эксперимент может взять собственную жизнь в руки других.
Я видел этот вызов раньше, и он настолько плох, что я даже не могу назвать его неправильным. Утверждение, которое вы цитируете Ааронсоном, заключается в том, что анализируемая модель не может быть правильной, потому что она не демонстрирует той сложности, которую мы ожидаем от нее ?! Это вызывает вопрос, не утруждает себя решением проблемы синтаксического понимания и просто предполагает, что семантика не может существовать , если у нас нет некоего магического предела сложных отношений, под которым можно спрятать ее.
@RyderDain: Все дело в том, что если вы метафизический натуралист, то любое утверждение о том, что компьютеры ограничены синтаксическими манипуляциями, в равной степени применимо и к нам. (Если некоторые из участников обсуждения являются метафизиками-натуралистами, а другие нет, то можно спокойно идти домой, потому что они будут спорить только друг с другом; поскольку я натуралист, я поэтому рассуждаю, исходя из этой предпосылки.) Исходя из этого, единственным ограничением системы книжного переводчика является сложность; карикатурное представление его просто как бюрократа с простым сводом правил в основном маскирует сложность системы.
@NeilDeBeaudrap: Давайте дойдем до абсурда : я мог бы выдвинуть точно такое же обвинение против сторонников гелиоцентризма. Она никак не может объяснить сложные орбиты, которые мы видим с Земли, и она не будет похожа на то, что, как мы думаем, мы уже знаем, если только вы не попытаетесь включить в модель галактическую прецессию! Можно привести множество веских аргументов, объясняющих неудачу эксперимента Серла, но отсутствие предположительно достаточной сложности не является одним из них.
@RyderDain: ясно, что вы меня неправильно поняли. Я говорю, что если вы создадите такой фолиант, он будет очень сложным. Я не делаю вывод, что это абсурдно (хотя Серл не делает никаких предложений о том, как мы будем делать такую ​​книгу; это, конечно, не его точка зрения). Серл считает абсурдным, что система книжных переводчиков может быть агентом, говорящим по-китайски; Я говорю, что это не очевидно абсурдно, поскольку и книга, и интерпретатор не будут похожи ни на одну книгу или интерпретатор, с которыми мы когда-либо сталкивались.
@RyderDain: В любом случае, я не уверен, что мы сможем чего-то добиться в этом обсуждении, если только вы не объясните мне, почему абсурдно, что компьютер может иметь сознание, но не абсурдно, что (учитывая, что мы сделаны из атомов и ионов которые взаимодействуют в соответствии с физическими принципами, как это делают компьютеры) мы можем.
@NieldeBeaudrap: Вероятно, мы не можем. Я не понимаю, как можно прийти к такому положению, не отрицая существования семантики, что я нахожу абсурдным, или, по крайней мере, не указав на некое качество, которое определенный вид сложности может обеспечить как место для поиска сознания.
@RyderDain: я не отрицаю, что семантика существует; Но моя философия математики состоит в том, что значение (если использовать менее нагруженный термин) систем обозначений возникает из функциональных отношений в них, и что семантика есть не что иное, как процесс установления ассоциаций между символами и функциональным значением в них. предикативный способ. Это, я думаю, примерно то, что человеческий мозг делает с символами, звуками, выражениями лица и т. д., где некоторые из них могут быть встроены. Я не вижу причин, по которым программа не могла бы воплощать семантические ассоциации подобно нашему мозгу.
Ааронсон неверно истолковал аргумент Серла, поскольку вопрос о том, можно ли описать компьютерную программу как «интеллектуальную», совершенно не имеет значения. Как указано в его оригинальной статье, программа Шранка, возможно, является «разумной» и является примером «слабого ИИ», но она не является (читай: не может быть) сознательной. Синтаксис != семантика.
@Mr.Kennedy: синтаксис - это просто механизм кодирования. Если вы думаете, что то, как компьютер обрабатывает этот синтаксис для создания функции разговора (из которой человек может извлечь смысл), не воплощает семантику, вы должны будете сказать мне, из чего, по вашему мнению, состоит семантика и как она может проявляться. чтобы получить семантику, фактически не имея семантики. Кроме того, в идеале вы сможете сделать это таким образом, который, по крайней мере, согласуется с метафизическим натурализмом.
@NieldeBeaudrap Дело не в моей позиции. Серл много писал и комментировал этот вопрос, например, обработка информации, зависящая от наблюдателя, и обработка информации, независимая от наблюдателя. См. «Разумы, мозги, программы» , « Разумы, мозги и компьютеры », « Умы, мозги и наука » и так далее. В другом месте Сирл прямо говорит о своих взглядах на «биологический натурализм», а также о своей описательной метафизике.

Я очень хорошо знаком с аргументом, который приводит Джон в своем аргументе о китайской комнате, и он чрезвычайно последователен в отношении того, что он имеет в виду, чтобы изобразить: что наше представление о том, что значит понимать язык, ошибочно, когда мы пытаемся применить этот термин к любой машине. который работает только синтаксически. В первую очередь это опровержение представления о том, что теста Тьюринга достаточно, чтобы заявить о наличии сознательного понимания.

Будучи системным администратором днем ​​и начинающим студентом-философом ночью, я могу с полной уверенностью сказать вам, что да, Джон Сирл прав, когда утверждает, что компьютеры работают чисто синтаксически. Все, что они делают, — это манипулируют символами, и нам по-прежнему требуется человек, чтобы наполнить эти символы смыслом. Тем не менее осознание того, что один только синтаксис может обладать такой невероятной силой, является великим уроком нашего века.

Проблема с примером, который вы привели выше, заключается в том, что он обходит саму суть редукции, которую делает Китайская комната.

В исходном примере Май отправляет свой ответ в большой ящик и получает понятные ответы от этого ящика (от которого она не зависит) за достаточно короткое время. Таким образом, с точки зрения Май, коробка прошла тест Тьюринга. Май считает, что ее поняло сознательное существо. Со стороны Джона у него есть набор ящиков, которые содержат всевозможные ответы и фразы для разных вопросов, а путеводитель, который он носит с собой, просто направляет его к соответствующему ящику на основе китайского сообщения, которое он получает.

Интуиция, на которую опирается Серл, заключается в том, что Джон не понимает по-китайски , поэтому убеждение Май в том, что ее слова понимает разумное существо, должно быть ошибочным. Попытка воспроизвести мысленный эксперимент с Лао, играющим роль сознательного, понимающего отвечающего, таким образом, просто обходит весь аргумент, не обращаясь к проблеме, которую он представляет.

На данный момент существует множество глубоких разногласий: мы могли бы защитить Mai, утверждая, что John + Box + путеводитель вместе составляют систему, которая , например, понимает китайский язык. Сам Серл отрицает, что эта позиция является последовательной, но не все верят его мнению. Дэниел Деннет также поднимает вопрос о том, что Сирл допускает ошибку категории, когда использует слово «понимание». По мнению Деннета, семантика не нужна для понимания языка, а синтаксические операции — это все, что нужно для объяснения сознания.

Вы также можете попытаться выровнять обвинение в том, что ошибка Серла состоит в том, что он думает, что может существовать даже набор правил, к которым может быть сведен живой язык, такой как китайский. Однако следствием этого аргумента является то, что он отрицает любую возможность успешного прохождения теста Тьюринга. В результате, нивелирование этого обвинения требует, чтобы вы уже согласились с результатами мысленного эксперимента: одно только следование правилам не может объяснить наше нормативное понимание того, что представляет собой «понимание».

Определенно самый четкий ответ! Я бы добавил, что я не видел последовательного ответа на критику в стиле Деннета, а именно, что интуиция просто обманывает нас относительно того, что такое «понимание». То есть, когда мы манипулируем символами различными сложными способами (не осознавая шагов, но, возможно, с помощью какой-то метрики прогнозирования качества, которая позволяет нам сказать, что мы, вероятно, делаем хорошую работу), мы называем это пониманием. Если машина делает то же самое, мы говорим, что это механистический процесс без понимания. (С этой точки зрения мы на данный момент намного лучше компьютеров, но это просто количественная разница.)
@RexKerr Я должен не согласиться: стандартный ответ о том, что критика Деннета верна только в том случае, если понимание не имеет фактического отношения к семантике, совершенно логичен. Бессвязно только в том случае, если вы уже отрицаете, как это делают Деннет и другие, что опыт, нагруженный квалиа, является действительным объяснением любого ментального состояния, которое мы идентифицируем, когда говорим: «x понимает p » . Я не собираюсь ступить в тот. Если вы предпочитаете обсудить это в чате, давайте вынесем это на улицу.
Действительно, чат был бы уместным. Я хотел бы только заранее отметить, что перегруженные квалиа переживания почти безнадежно вводят в заблуждение в понимании основы восприятия, и нет оснований ожидать, что они лучше дадут нам представление о «понимании» и «мышлении».
@Dain: я действительно принимаю утверждение Сирлза: компьютеры не могут изучать/понимать язык в существенном значении этого термина; Я хотел развернуть Searles reductio, чтобы показать, что происходит - связь между двумя сознательными разумами - потому что для меня (и как программиста на С++, и программиста на ассемблере в моей беспутной юности - они не несут для меня никакого волшебства) это именно в чем дело. Но вы также правы и в том, что это вызывает только путаницу; Searles reductio является лучшей иллюстрацией, так как физически выглядит ближе к тому, что делает компьютер: у него есть буклет с инструкциями.
@Dain: В автобиографии Брайана Магиза он написал, что как только он начал понимать Шопенгауэра (или был Хайдеггером), он как будто стоял прямо рядом с ним и разговаривал с ним. Именно это я и хотел проиллюстрировать.
Существует очень глубокая проблема с утверждением, что нам нужен сознательный разум, чтобы придать значения символам: оно предполагает, что у вас есть какие-то знания о том, как мы это делаем, и что это не похоже ни на что, что мог бы сделать компьютер.
@Beaudrap: Я не понимаю вас: я думаю, что требуется сознательный ум, чтобы придать символам значение, хотя у меня нет доказательств, чтобы предложить. Я не думаю, что из этого следует, что мы должны знать, как это происходит.
@MoziburUllah: вы задаете вопрос: вы предполагаете, что ни одна компьютерная система не может иметь сознательный разум, и вы не можете обоснованно утверждать, что компьютер не может иметь сознательный разум, не предложив модель того, как мы можем иметь сознательный разум .
@Beaudrap: Это скорее убеждение, чем предположение. Я вижу вашу точку зрения.
+1 за «Джон + Коробка + путеводитель вместе составляют систему, которая понимает китайский язык». Я всегда думал, что ошибка в аргументе Китайской комнаты очевидна, и рад видеть ее повторение здесь. И вообще отличный ответ.

Хотя я считаю, что Сирл ошибается, я не думаю, что вы нашли проблему. Вы постулируете, что ввод содержит содержание, а не просто знание китайского языка в дистиллированной форме , особенно в примере с ходьбой по комнате. Но многие алгоритмы машинного обучения просто берут множество примеров и затем могут генерировать соответствующее поведение (конечно, в определенных пределах). Так что они, раз дрессированные, не имеют ни содержания, ни даже перегонки, обеспечиваемой человеком. Это правда, что соответствующие свойства, скажем, китайского языка, имплицитно присутствуют во входных данных; но, тем не менее, это совсем не похоже на то, о чем мы интуитивно думаем, и это не та очевидная уловка с сообщениями-я-иду-по-комнате, которую вы предлагаете.

(Сёрл предложил мысленный эксперимент в то время, когда считалось, что ИИ, основанный на логике, будет очень успешным, чего не произошло. Мысленный эксперимент не совсем соответствует нынешней практике.)

Я думаю, вы меня неправильно поняли. Я принимаю утверждение Серлза. Я просто разворачиваю его reductio. Я не ищу его ошибки, как вы выразились. Я постулирую, что понимание происходит в сознании, и я хотел показать это более прямым образом. И я не думаю, что компьютеры, как бы изощренно они ни симулировали это, будут сознательны в значимом смысле этого слова. Природа более тонкая, чем это. Вы говорите, что нынешняя практика вышла за рамки модели Тьюринга, которую иллюстрирует эксперимент Сирлза?
@MoziburUllah - Утверждение Серла состоит из двух частей: (1) компьютеры просто вычисляют и (2) мы сознательны, что отличается. Вы изменили (1), сделав так, чтобы компьютер даже не вычислял , а просто действовал как проводник для полностью сформированной информации между сознательными сущностями. Но вопрос в наши дни заключается в том, что вычисления и сознание различны по своей сути. Чтобы быть поучительным, вам нужно подтолкнуть вычисления как можно ближе к сознанию и показать, что они все еще неадекватны. Наблюдение за одной птицей заставит вас усомниться в том, что стая состоит из птиц.
@Kerr: но я не уверен, что можно скрыть вещи, пододвигая их ближе в одном измерении; но они все еще так же далеко друг от друга.
@MoziburUllah - Действительно, но тогда вы хотите спорить исключительно об этом другом измерении . Аргумент Сирла примерно такой: я могу смотреть на YouTube видеоролики о кошках на своем компьютере. У меня есть ЖК-часы 1990-х годов, на которых я не могу смотреть видео на YouTube. Между моим компьютером и моими часами есть существенная разница ; чтобы убедиться в этом, рассмотрите возможность уменьшения часов до одного ЖК-элемента, управляемого одним транзистором, который компьютер колеблется взад и вперед и включает и выключает для создания изображения. Ясно, что компьютер делает всю работу, доказывая, что компьютеры различны по своей сути.

Разве это не то, чем является электронная почта? Транспортировка непереведенной информации из точки А в точку Б точно так же, как информация была введена? Но именно на это указывает Сирл в своей аналогии — человек, который не говорит по-китайски, но на самом деле действует (учитывая только результаты своих действий) так, как если бы он это делал, потому что у него есть свод правил, который говорит ему, как поступать. Если я ничего не упускаю, то в вашей аналогии отсутствуют очень важные предпосылки/допущения.

Должен добавить, что я практически ничего не знаю о том, как работают компьютеры, но я потратил некоторое время на эту главу (имея в виду, что я говорю только об аргументе Серла, а не о компьютерах вообще).

Мне интересно, как он получил эту книгу инструкций. Это написал кто-то , кто знал китайский.
Я не читал Серла, я знаю о его аргументах только понаслышке (википедия); Я не критикую вывод Сирлза, а делаю его более экспансивным в надежде сделать вывод более очевидным; но на самом деле, возможно, это делает его более запутанным...
@MoziburUllah Да, кто-то говорил, но это только позволяет нам сказать, что есть кто-то , кто действительно говорит по-китайски, это ничего не говорит нам о способности компьютера на самом деле изучать китайский язык. Люди, написавшие эту книгу, написали программу, выполняющую команды.
@Iphegenie: на самом деле все, что я делаю, это заменяю этот буклет с инструкциями человеком, который его написал. Лично я согласен с выводом Серлза. Но смоделированное обучение/понимание может быть достаточно хорошим.
@MoziburUllah Вы слишком упрощаете акцент на имитации знаний, отыгрывая команды. Да, пройти от А до Б — это то, на что способен компьютер. Научиться говорить по-китайски он не может, потому что изучение языка — это больше, чем действие по сценарию, и это все, что говорит Сирл.

Откуда взялась эта инструкция?

гипотеза

Перед официальным открытием Большой китайской комнаты у Джона была другая книга и большая стопка вопросов и ответов из реальной жизни на китайском языке — Полный китайский корпус . Эта другая книга научила Джона, как, используя стопку вопросов в качестве тренировочного набора, написать книгу, которую он сейчас использует, чтобы создать впечатление, что Комната разговаривает с Май. Человек, написавший первую книгу, также не знал китайского языка, знание китайского языка в комнате появилось в результате всестороннего анализа использования языка в реальной жизни.

вариация с лаосским

Аналогичная уловка, но с участием вашего скрытого говорящего по-китайски - лаоса. Как и раньше, у Джона есть метаинструкция о том, как заставить комнату понимать китайский язык, но некоторые правила в инструкции заставляют Джона взаимодействовать с лаосцем. Эти взаимодействия не так просты, как передача табличек от и к Мэй, нет, Джон должен вести тщательный учет всего, что приходит, и любые ответы, которые Лао делает и выполняет какие-то тайные манипуляции с записями (фактически - создание Неполного китайского корпуса) .пока он идет). Среди этих манипуляций — предсказание того, что скажет Лао, вычисление уверенности Рума в том, что предсказание является точным, и оценка предсказаний на основе фактического ответа. В конце концов, когда уверенность Room выше некоторого порога, Лао отключается от цикла на одну-две транзакции, и постепенно его участие в проекте сводится к минимуму, просто чтобы время от времени контролировать качество.

У меня складывается впечатление, что этот ответ возвращает вас к Платону, который предполагает, что идеальная «реальная вещь» отбрасывает свою «тень» в «мир» (т.е. в инструкцию). Но тогда «реальная вещь» каким-то образом также отвечает за смысл и понимание, возникающие при использовании инструкции. Как ни странно, для всех примеров в исходной статье об обучении PAC существовала (неявно) такая идеальная «реальная вещь». Однако я думаю, что автор сделал это для того, чтобы доказать какие-то красивые теоремы, а не потому, что это было бы необходимо.
Единственная часть схемы, которая хотя бы отдаленно «идеальна», — это «знание китайского языка». Остальное реально (не в платоническом, а в физическом, материальном смысле): комната, Джон, сидящий в комнате, книга инструкций, которую написал Джон, книга инструкций, которым следовал Джон, чтобы написать книгу инструкций, стопка примеров и т.д. "Знание китайского" кажется менее осязаемым, но в конечном итоге это просто та самая книга инструкций + состояние шкафов с китайскими табличками.
@artm: «Человек, написавший первую книгу, не знал китайского языка », все еще дает Джону буклет с инструкциями, но на этот раз для изучения языка: он понял и изучил достаточно человеческих языков, чтобы вывести (предполагаемую) общую теорию языка. приобретение и манипуляция. Это только сдвигает аргумент Сирлза на шаг ниже. Я не вижу существенной разницы. Вы аргументируете позицию Серлза или против (Понимание не является синтаксисом/механизмом)? Я не говорю о его иллюстрации.
Я не пытаюсь спорить ни за, ни против позиции Сирла, просто пытаюсь представить, откуда могла появиться книга, исходя из того, как подобные проблемы с программным обеспечением часто решаются в наши дни (относительно ответа Рекса Керра). Первоначальная формулировка основана на современном состоянии CS, мои варианты больше похожи на то, чему учат сегодня в машинном обучении. Вопрос о том, «понимает ли комната по-китайски» в том или ином смысле, все еще открыт для споров, и моя китайская комната должна быть подвергнута всей традиционной критике классического варианта.

Однажды я встретил физика, который занимал сильную позицию в области ИИ. Мне было 16, я раньше не сталкивался с этой позицией, и она показалась мне совершенно абсурдной. Даже несмотря на то, что я больше не убежден в полной абсурдности этой позиции, я все еще не понимаю, почему все пытаются опровергнуть Джона Серла. Мне кажется, что установку мысленного эксперимента Джона Сирла можно с пользой перенести в контекст современных компьютеров:

Современный компьютер предлагает определенный объем памяти, точнее иерархию памяти с увеличением размера, но уменьшением скорости доступа. Он также предлагает определенную вычислительную мощность, точнее кластер параллельных процессоров с увеличивающимся количеством, но уменьшающейся скоростью соединения. Эта базовая архитектура обычно не зависит от программ и входных данных, которые будут использоваться для получения полезных результатов с помощью ресурсов, предоставляемых этим компьютером.

В мысленном эксперименте Серла «Китайская комната» предполагается, что Джон берет на себя роль этого компьютера и обеспечивает память и вычислительную мощность для вычислений. На самом деле предполагается, что он обеспечивает самую быструю память, в то время как действительно огромная, но медленная память является внешней по отношению к Джону в форме бумаги, карандаша и «волшебной» книги. Но даже если Джон возьмет на себя роль «всей» ленты машины Тьюринга, почему мы должны ожидать, что он (или лента) поймет экземпляр задачи, над которой в данный момент работает машина Тьюринга? Ну, одна из причин заключается в том, что для универсальной машины Тьюринга сама программа также была записана на ленту, поэтому лента имела доступ ко всей соответствующей информации с течением времени (кроме значения и интерпретации ее конечного вывода, но я сомневаюсь, что это здесь важно).

У меня вопрос: откуда взялась эта инструкция? Мы все знаем, что люди пишут код, который управляет компьютером, или пишут код, который пишет дополнительный код для управления компьютером (например, компилятор) и т. д.

В приведенном выше переводе в контексте современных компьютеров книга инструкций является частью ввода. Это может быть важным моментом, потому что на первый взгляд кажется, что единственный вклад исходит от Май, которая задает вопросы на китайском языке.

Так откуда берется вход? Я предполагаю, что вход исходит из текущей и прошлой среды. Однако мы не можем заглянуть достаточно далеко в прошлое, чтобы узнать, откуда взялось «первоначальное семя». И вдобавок у нас есть теория эволюции, которая предполагает, что «первоначальное семя» могло быть менее важным, чем кажется. Что приводит меня к другой позиции, которая показалась мне совершенно абсурдной, когда я впервые столкнулся с ней. Кто-то предположил мне, что этот мир мог быть создан инопланетянами. Я нашел это смешным, потому что это вызывает вопросы, кто вообще создал инопланетян. Однако после того, как я посмотрел клип , в котором Ричард Докинз серьезно рассматривал такую ​​возможность, я должен признать, что это действительно может быть последовательной позицией.


Даже если это не имеет прямого отношения к вопросу, каково мое собственное предположение о том, как понимание и смысл могут возникнуть во время сложных вычислений? Это может быть связано со структурой пространства и времени, когда во время вычислений необходима передача информации между различными точками (поскольку объем информации, хранящейся вблизи любой данной точки, конечен) и занимает определенное конечное время. Следствием этого является то, что сжатые сообщения с более или менее ясным значением в контексте вычислений обмениваются и понимаются (и иногда запоминаются для дальнейшего использования) в ходе вычислений. (И поскольку вычисления, которые, по-видимому, производит наша Вселенная с ее структурой пространства и времени, вряд ли закончатся в ближайшее время, нет необходимости беспокоиться о значении и интерпретации их окончательных результатов.)

Я не пытаюсь опровергнуть Серла. Возможно, из-за того, что все так делают, считается само собой разумеющимся, что это то, что я пытаюсь сделать! Я рад, что вы заметили, что вопрос «откуда буклет с инструкциями» является важным. В контексте компьютеров мы всегда можем это проследить; и в этом контексте мы можем сказать, что в важном смысле это часть входных данных. В контексте людей я не уверен. Конечно, эволюция является частью ответа. Это приводит нас к загадке о Вселенной: что «создало» законы Вселенной, которые позволили произойти эволюции.
Я читал о предположениях Ли Смолина по этому поводу, но, на мой взгляд, это отодвигает проблему только на один этап назад. Сказать, что они даны или просто таковы, для меня все равно, что первые люди, глядя на движение солнца и звезд по небу, сказали, что это так. И никакие более глубокие принципы не применялись, а если бы и применялись, мы не могли бы их знать. Этот принцип был найден более чем через четыре тысячелетия (датируя его шумерской астрономией).

Если мы посмотрим на животных, люди разумны, обезьяны, свиньи, собаки, лошади разумны, вполне возможно, куры. Вопрос о том, разумны ли мухи или муравьи, очень спорный, а бактерия или вирус — нет (по моему скромному мнению).

Аргумент Серла предполагает, что «компьютер», управляемый человеческими мышцами, может имитировать интеллектуальный разговор на китайском языке, и мы, безусловно, все согласны с тем, что комната Сирла никак не может быть разумной. Мы, конечно же, все согласны с тем, что комната Сирла никак не может имитировать интеллектуальный разговор на китайском языке! Это просто недостаточно продвинутое устройство для каких-либо возможностей.

Из этого мы должны заключить, что высокоразвитый компьютер не может «понимать» китайский текст. Это все равно, что сказать, что раз бактерия не понимает по-китайски, то и человек не может. Это не разумный вывод.

Современный компьютер мог бы делать то, что делает комната Сирла, примерно в 10 миллиардов раз быстрее, игнорируя тот факт, что человек в комнате Сирла не захочет работать более 1/3 времени, а это означает, что ответ, который может дать современный компьютер, дать в секунду, комната Серла заняла бы тысячу лет. Сейчас мы не в состоянии создать книгу правил, которая сделала бы возможным разговор на китайском языке. К тому времени, когда мы сможем его создать, компьютеры будут работать в тысячу раз быстрее.

Будет ли кто-нибудь убежден, что комната Серла, которая является не просто комнатой, а внутренностью огромного небоскреба, работающего миллион лет, не может сделать что-то эквивалентное человеческому «пониманию»?

*Может ли кто-нибудь быть убежден, что комната Серла, которая является не просто комнатой, а внутренней частью огромного небоскреба, функционирующего миллион лет, не может сделать что-то эквивалентное человеческому «пониманию»?» -- Говоря, что программа работает долгое время на большом мощном компьютере не помогает. Независимость от субстрата или множественная реализуемость не имеет значения, насколько быстро выполняется вычисление. Машина Тьюринга, работающая на суперкомпьютере или на длинном рулоне бумаги, вообще не имеет значения. с точки зрения того, что он может сделать.
Я не считаю это очень убедительным взглядом на Серла, потому что он, кажется, полностью упускает из виду точку зрения Серла. Основная аналогия заключается в том, что выплевывание ответа на основе таблицы поиска совсем не похоже на то, что такое «понимание», даже если оно дает правильный ответ. Пока это основная (или, как минимум, единственная) операция, с помощью которой компьютер говорит по-китайски, на самом деле он на нем не говорит. Кажется, ваш ответ звучит так: «А что, если бы компьютер был просто более мощным в поиске вещей, чем те, к которым мы привыкли?»