Почему комната Серла получает в качестве входных данных три партии китайских иероглифов и две инструкции по эксплуатации на английском языке?

Китайская комната Серла получает входные данные в виде набора китайских иероглифов, а затем дважды получает набор китайских иероглифов. Вторая партия китайского языка поставляется с английскими инструкциями для «сопоставления второй партии с первой партией». Третья партия китайского языка поставляется с дополнительными инструкциями на английском языке, «которые позволяют [Searle] сопоставлять элементы этой третьей партии с первыми двумя партиями».

Я бы ожидал, что одна партия инструкций на английском языке, которая никогда не удаляется, будет обозначать саму программу, а затем одна партия инструкций на китайском языке будет представлять «алфавит» китайских иероглифов. После того, как они были предоставлены, Searle может использовать их для манипулирования произвольной группой китайских иероглифов (ввод) для создания соответствующей партии китайских иероглифов (вывод). В целом, я ожидаю, что программа будет снабжена двумя пакетами китайского языка и одним пакетом английского языка, и что первый пакет китайского языка, а также английский язык не может быть изменен.

Но Серл использует три группы китайского языка и две партии английского языка и проводит множественные корреляции. Почему это?

В частности, какова цель каждой соответствующей партии китайского или английского языка, предоставленной Searle через дверь? Являются ли какие-либо пакеты постоянными, представляющими, скажем, код или сегмент данных для программы?

Ответы (2)

Я бы посоветовал вам прочитать оригинальную статью ( вот копия)... Если вы прочитаете ее с самого начала, вы обнаружите, что использование Сёрлом трех разных наборов символов на самом деле представляет собой конкретный ответ на компьютер Роджера Шэнка. программа, отвечающая на вопросы об историях, заданных ей .

Серл пишет:

Очень кратко, опустив различные детали, можно описать программу Шэнка следующим образом: цель программы — имитировать человеческую способность понимать истории. Характерной чертой способности людей понимать рассказ является то, что они могут отвечать на вопросы о рассказе, даже если информация, которую они сообщают, никогда прямо не излагалась в рассказе.

Так, например, предположим, что вам дана следующая история: Мужчина зашел в ресторан и заказал гамбургер. Когда принесли гамбургер, он сгорел дотла, и мужчина в гневе выбежал из ресторана, не заплатив за гамбургер и не оставив чаевые. вы, вероятно, ответите: «Нет, не говорил».

Точно так же, если вам дается следующая история: «Человек зашел в ресторан и заказал гамбургер; когда принесли гамбургер, он был им очень доволен; а выходя из ресторана, он дал официантке большие чаевые, прежде чем расплатиться по счету», и вам задают вопрос: «Человек ел гамбургер?», — вы, вероятно, ответите: «Да, он ел гамбургер». "

Теперь машины Шанка могут аналогичным образом отвечать на вопросы о ресторанах. Для этого у них есть «представление» того рода информации, которой люди располагают о ресторанах, что позволяет им отвечать на такие вопросы, как приведенные выше, с учетом такого рода историй. Когда машине дается история, а затем задается вопрос вопрос, машина распечатает ответы, которые, как мы ожидаем, дадут люди, если им расскажут подобные истории.

«Представление той информации, которой обладают люди о ресторанах», которую Сирл упоминает в последнем абзаце, Роджер Шенк назвал «сценарием». К сожалению, Сирл в этом самом месте статьи не указал на это... хотя в своем более позднем описании сценария Китайской комнаты он ссылается на эти "сценарии"... так что без предыстории работы Шанка понятно, почему вы будете путать!

Так или иначе, «сценарий» — это некая репрезентация, которая представляет собой «типичное» посещение ресторана: вы входите, официант сажает вас, вы смотрите меню, заказываете, ждете еду. , поесть, получить счет, оплатить и уйти. Итак, для второй истории такой базовый сценарий предполагает, что мужчина, скорее всего, съел свой гамбургер, хотя в истории об этом прямо не говорится. И дальнейшие сценарии или более совершенные сценарии могли бы справиться с первым сценарием: своего рода сценарием неудачного опыта в ресторане.

Итак, программа Шэнка использовала эти три набора символов: «рассказ», «сценарий» и «вопросы». Это то, что Серл воспроизводит в своем сценарии «Китайская комната».

Тем не менее ясно, что Серл намеревается заставить свой аргумент работать для любой компьютерной программы. И, с этой точки зрения, на самом деле не имеет значения тот факт, что есть три набора символов, а не, скажем, один, четыре или шестнадцать. И то же самое касается английских руководств, которые предоставляют правила для работы с этими символами: их может быть только один или двадцать семь, в зависимости от того, как вы хотите это разобрать.

Что важно, так это то, что наборы символов подобны представлениям, с которыми работает компьютер, и английские руководства для программ, сообщающих компьютеру, как манипулировать этими представлениями. Действительно, именно поэтому типичные описания сценария Китайской комнаты просто говорят об одном своде правил для манипулирования строками символов без какой-либо дальнейшей дифференциации на какие-либо виды пакетов.

Как получилось, что вы можете попытаться описать 280 страниц Шэнка и Абельсона, ни разу не употребив слова «синтаксис» или «семантика», когда цель их работы состояла в том, чтобы связать синтаксис с семантикой?
Я собираюсь проголосовать за ваш ответ, потому что я думаю, что он гораздо лучше работает с исторической точки зрения и, безусловно, прямолинеен и, вероятно, его легче понять.
Я ответил на ваше утверждение, что три — это произвольный выбор партий во втором редактировании.
@JD Хорошо, спасибо! Я думаю, что мы интерпретировали вопрос немного по-другому или, по крайней мере, сосредоточились на разных аспектах этого вопроса. Я рассматривал CRA как атаку на сильный ИИ и вычислительную технику в целом и чувствовал, что с этой точки зрения цифра 3 не имеет никакого значения.
Вы, однако, похоже, больше сосредоточились на CRA как на аргументе против понимания компьютером того, о чем он говорит, когда он помещается в разговорный сценарий, типа игры-имитации Тьюринга. И с этой точки зрения, да, различия, которые предлагает Шенк, имеют явное значение: вы, конечно, это объясняете. Так что голосуйте за это тоже!
Да, кажется. Я много думал о вашей критике, и вы убедили меня задуматься над ней, и теперь я понимаю, почему в контексте понимания сильного ИИ партии произвольны, независимо от того, что может рассматриваться как исторический стимул для выбора три. Спасибо!

Сирл вскоре упростил свой CRA. Китайские иероглифы — это компьютерный ввод (например, с цифровых датчиков), а английские символы — это программа. Суть в том, что значение символа не приходит вместе с символом, и все, что когда-либо получает компьютер, — это символ (являющийся чисто формальным или синтаксическим приемом). Он навечно пленник во вселенной простой формы, навсегда лишенный доступа к значениям форм. Следовательно, компьютеры никогда не поймут, что происходит в окружающем их мире (в том числе никогда не поймут язык). ИИ обречен. Компьютеры никогда не будут думать.