Имеет ли смысл определять компьютер как устройство, манипулирующее символами?

Серл (Джон Сирл (1997), Тайна сознания, стр. 9) говорит: «Компьютер по определению является устройством, которое манипулирует формальными символами». Что он имеет в виду? Как вы определяете часть электронного оборудования (а не, скажем, описываете его)? Или он определяет термин «компьютер» как устройство, манипулирующее формальными символами? Делает ли он эмпирическое утверждение (что компьютеры по своей фундаментальной природе обязательно манипулируют формальными символами и только формальными символами) — которое может быть истинным или ложным — или он просто говорит, что отныне, когда он использует слово «компьютер», он имеет в виду к устройствам манипулирования формальными символами? Или он имеет в виду что-то другое?

Разве Тьюринг не говорил о том же? Все вычисления сводятся к манипулированию символами в соответствии с правилами.
Машина Тьюринга — это абстрактное представление компьютера; по существу он манипулирует битами; если вы знакомы с проектированием микропроцессоров, то увидите, что аналогия очень верна.
Это слово использовалось с 17 века до 1950-х годов для людей, чья работа заключалась в выполнении вычислений, а не в аппаратном обеспечении. В этом качестве они также были «устройствами для манипулирования формальными символами». Первоначально символы обычно были цифрами, но после Черча и Тьюринга не было особых причин выделять их. Серл делает то же, что и лексикографы: делает предположения о существующей практике использования слова и уточняет ее для будущего использования. В нем есть как эмпирический, так и дефиниционный аспекты.
Спасибо за помощь. Китайская комната обрабатывает (манипулирует) экземплярами форм, которым наблюдатель дал внешнюю интерпретацию. Моя проблема: совершенно очевидно, что компьютеры не обрабатывают токенизированные интерпретируемые формы. Таким образом, китайская комната, которая обрабатывает токенизированные интерпретируемые формы (китайские идеограммы), не может уловить сущность компьютера. Итак, если «символ» означает интерпретируемую форму, то неверно говорить, что компьютер — это устройство, манипулирующее символами. И определение компьютера как устройства, манипулирующего символами, только добавляет тумана в ландшафт ИИ.
@Roddus: Даже если «токенизированные интерпретируемые формы» - это уровни напряжения на всех транзисторах, составляющих компьютер?
Но уровни напряжения не имеют интерпретаций. Мы можем воспринимать форму и придавать ей смысл (интерпретацию). Тогда форма имеет (внешнюю) интерпретацию. Но мы не можем воспринять тактовый уровень напряжения и придать ему смысл - у нас нет сенсорного аппарата. У нас нет чувства определения уровня напряжения. Таким образом, уровни напряжения не имеют интерпретаций — если только их не дают компьютеры. Но если это произойдет, как если бы мы придали форме значение, то уровень напряжения будет снаружи компьютера, а не внутри. Компьютер воспринимает напряжение так же, как мы воспринимаем форму.
Если вы видели его прекрасную речь о том, как построить язык, ответ таков: вы определяете его, используя односложные слова!
Серл мог проводить это различие, чтобы сравнить его с «биологическими машинами», которые не манипулируют символами, насколько я помню, он связывал сознание с биологией.
«Формальный символ» обычно означает «не интерпретируемый», и даже человеческие компьютеры, чтобы быть эффективными, должны полностью игнорировать «значение» цифр, которыми они манипулируют, они следуют механическим правилам, мало чем отличающимся от машин. Но даже если мы настаиваем на интерпретируемых символах, отождествление интерпретации с чувственным восприятием выглядит странно. С этой точки зрения абстрактные понятия, такие как равенство, не имели бы «значения».
Я вижу вашу точку зрения. Язык Серла здесь неясен, и он может описывать, запрещать или определять компьютер. Ваше замечание о символах также кажется правильным. Если символ рассматривается как токен, то это токен. Компьютеры не «понимают» символы, и их входные данные никогда не обрабатываются как символы. Раньше я не замечал этой языковой аномалии.

Ответы (6)

Да, он (правильно) имеет в виду "формально-символическое манипулирующее устройство". Но «манипуляция» нуждается в небольшом пояснении. Обычный формализм учебника дается лямбда-исчислением, например, https://en.wikipedia.org/wiki/Lambda_calculus#Formal_definition (погуглите «лямбда-исчисление», чтобы узнать больше).

Но электронные устройства изначально реализуют только гораздо более простой (зависящий от архитектуры) машинный язык, что-то обычно более или менее похожее на MIX Кнута, например, https://en.wikipedia.org/wiki/MIX (погуглите "Knuth MIX"). .

Однако интерпретатор лямбда-исчисления всегда можно написать на любом таком машинном языке. Действительно, «Тезис Черча» и «Полнота Тьюринга» (дополнительные термины для вас в Google) гарантируют, что почти любая разумная формальная идея «манипуляции» в конечном итоге эквивалентна всем остальным.

То есть существует класс так называемых «вычислимых функций» (погуглите), что означает, что последовательность символов, представляющая ввод (аргумент функции), может быть преобразована в другую последовательность, представляющую вывод (значение функции). Если таких манипуляций не существует, функция не вычислима (гуглите «функция остановки» для невычислимого примера). И все компьютерные языки, т. е. все формальные идеи «манипулирования», в конечном счете могут вычислять точно такой же класс вычислимых функций.

Таким образом, Серл в конечном счете и эквивалентно говорит, что сознание не является (не может быть смоделировано) вычислимыми функциями. Но ваш комментарий «...определение компьютера как устройства, манипулирующего символами, просто добавляет тумана в ландшафт ИИ», похоже, смешивает ИИ с сознанием. ИИ, также известный как «экспертные системы», безусловно, поддается вычислению, но точно не является сознанием. И никто никогда не утверждает ничего подобного. Я думаю, может быть, ваш вопрос возникает из-за неправильного понимания этого.

Редактировать... Хм, теперь взгляните на ваш профиль, я не думаю, что у вас возникнет какое-то замешательство/непонимание по этому поводу. Но тогда я не понимаю, как у вас вообще могут возникнуть вопросы по поводу замечания Сирла. Так какой у вас вопрос, точнее?

Редактировать (ответить на комментарий Роддуса ниже)... Во-первых, для конкретности давайте, пожалуйста, покончим с этой излишне расплывчатой ​​терминологией «уровня напряжения», которую вы использовали здесь и в предыдущих комментариях выше. См., например, https://en.wikipedia.org/wiki/Bit#Physical_representation для соответствия между битами и уровнями напряжения. Мы говорим о «символах» Серла (последовательности битов), независимо от их физического представления, которые просто являются уровнями напряжения в электронных цифровых компьютерах.

Что касается «значения» в отношении компьютеров, я предполагаю, что вы, возможно, захотите изучить «денотационную семантику» (например, https://en.wikipedia.org/wiki/Denotational_semantics и многие другие поиски в Google) и « теория предметной области» (например, https://en.wikipedia.org/wiki/Domain_theory ). Тогда это так называемая «семантическая функция», которая отображает синтаксис (обозначение, представленное строками символов) в семантику (значение синтаксиса, представленное в так называемой области Скотта), которая фиксирует математическую идею «значения» в том виде, в каком она относится к вычислимости. Краткая статья https://www.cs.colorado.edu/~bec/courses/csci5535/reading/densem.pdfкажется мне довольно хорошим введением (я не гуглю какие-либо материалы типа википедии, которые подходят хоть сколько-нибудь адекватно). Более длинное, но более полное введение (мне кажется) http://homepage.divms.uiowa.edu/~slonnegr/plf/Book/Chapter9.pdf И/или попробуйте погуглить "семантическая функция" денотативная (поставьте " семантическая функция» в кавычках, как показано, за которыми следует денотационная) для дополнительных учебных материалов.

Что касается Серла и его выводов о Китайской комнате, вам нужно сравнить и противопоставить «значение» по отношению к компьютерам «значению» по отношению к сознанию. Но только первое достаточно четко определено для любого строгого сравнения. И если вы действительно заинтересованы, я думаю, вам, возможно, потребуется дополнительно изучить предметные области, может быть, в частности, идею аппроксимации, представленную их порядком упорядоченных множеств, посредством чего «значение» может начинаться с расплывчатого и становиться все более и более определенным с более... и-больше синтаксиса. Но это потребовало бы довольно значительных усилий, далеких от какого-либо прямого отношения к «сознанию». Так что я бы не рекомендовал это, если вы действительно, действительно заинтересованы.

Теоретические аспекты информатики могут (опять же, судя по вашему профилю) быть достаточно интересными, но, возможно, не аспекты, связанные с сознанием... Являются ли компьютеры (т.е. могут ли компьютеры моделировать) "сознательными"? Или они могут демонстрировать поведение, неотличимое от сознания? Серл, по-видимому, говорит «нет». Можно спорить о том, убедительны ли его аргументы, но его определение «компьютера» вполне адекватно. Любые дальнейшие аргументы должны были бы касаться предельных возможностей «манипулирования символами» — насколько далеко это может вас завести? И это действительно несколько открытый вопрос. Он закрыт относительно теории вычислимых функций, но значение/семантика/и т. д. не столь хорошо закрыты.

Для меня основная проблема с китайской комнатой заключается в том, что вещи, которыми манипулируют электронные компьютеры (например, синхронизируемые уровни напряжения), не имеют значения, в то время как вещи, которыми манипулирует китайская комната (символы), имеют значения, поэтому существует фундаментальная семантическая разница между компьютерами. и Китайская комната. Серл считает, что нет никакой разницы. Я не говорю, что исправление его ошибки показывает, как компьютер может иметь семантическое содержание, но это должно быть хорошо, чтобы лучше понять машину. (И это делает мысленный эксперимент с китайской комнатой нерелевантным для поиска машинной семантики.)
@Roddus, пожалуйста, смотрите второе редактирование выше, чтобы ответить на ваш комментарий.

Я считаю, что Серл, как и почти все, кто занимается вычислительной техникой, полностью согласен с тьюринговским определением механических вычислений. Под «компьютером» Сирл имеет в виду любое механическое вычислительное устройство (вспомните машину «Энигма» и другие «компьютеры», которые уничтожили бы ту дурацкую рекламу яблока, если бы увидели ее), которое имеет очень простую функцию. Хотя «манипулирует формальными символами» — не лучшая формулировка, она определенно не является неправильной; как инженер-программист, сдавший CIS в университете, я не могу не согласиться с упрощением; на самом деле на тонком уровне распознавание символов базового уровня довольно проницательно со стороны Серла (например, языки программирования низкого уровня и высокого уровня, lex против синтаксического анализа и т. д.)

Я считаю, что в целом идея Серла о «компьютере» более свободна и включает в себя все вещи, которые можно было бы считать машинами Тьюринга. С точки зрения школы имен, использование термина «компьютер» в качестве инклюзивного термина было бы намного проще, но в конце 90-х годов это потребовало бы пояснительного заявления.

Я согласен с тем, что машины Тьюринга (ТМ) манипулируют формальными символами и что Серл говорит, что электронные цифровые компьютеры — это универсальные машины Тьюринга. Как и ТМ, китайская комната манипулирует символами, а Серл (ЦП) не знает, что они означают, поэтому у комнаты нет семантики (это аргумент). Символы имеют значения (семантику); Серл просто не знает, что это такое. Но то, что обрабатывают электронные компьютеры (например, синхронизируемые уровни напряжения), не имеет значения, поэтому китайская комната в этом смысле не отражает электронный компьютер. Компьютеры не обрабатывают то, что имеет значение.

Чтобы получить ответ, нужно сначала провести различие между «компьютером» и лежащей в его основе «реализацией». Позвольте мне использовать два примера, чтобы прояснить это.

"Computer"     "Implementation"  

IBM 370 ------------ транзисторы
Человеческий мозг -------- нейроны

И IBM 370, и человеческий мозг способны манипулировать символами, поэтому ясно, что «компьютер» способен манипулировать символами, а «реализация» — нет. Следовательно, разумно определить компьютер как устройство, манипулирующее символами. Что же касается того, с какой целью Серл это сделал, то я предполагаю, что это дает читателю понять, что, когда он использует термин «компьютер», он имеет в виду его возможности, а не его реализацию.

Не могли бы вы указать мне на какие-либо проверенные доказательства того, что нейроны действуют как транзисторы в цифровом компьютере?
Вопрос о том, обрабатывает ли человеческий мозг внутренне сенсорные символы (символы, полученные от биологического сенсорного аппарата), вызывает довольно много споров, не так ли? Кажется, что с понятиями действительно проблемы — символ, вычисление, информация. Существует ли общее мнение о том, как символ (в смысле Тьюринга 1936 г. того, что человеческие компьютеры (клерки) записывают на листах бумаги) реализуется внутри мозга животного?

Спасибо, Джон. Когда ты говоришь:

1. СИМВОЛЫ . «…для конкретности давайте, пожалуйста, покончим с этой излишне расплывчатой ​​терминологией «уровня напряжения», которую вы использовали здесь и в предыдущих комментариях выше. См., например, https://en.wikipedia.org/wiki/Bit . #Physical_representation для соответствия между битами и уровнями напряжения. Мы говорим о «символах» Серла (последовательности битов), независимо от их физического представления, которые просто являются уровнями напряжения в электронных цифровых компьютерах».

Насчет битов не согласен. Говорить о последовательности битов — значит использовать вычислительную абстракцию. Я рассматриваю само физическое представление как ключ к пониманию семантики машины (в смысле семантики Серла, т. е. интенциональности). Можно пойти дальше и сказать, что вычисления предполагают внешнюю семантику (и что от концепции вычислений нужно отказаться, прежде чем пытаться понять внутреннюю семантику).

Кажется важным взять то, что делает Джон Сирл в качестве процессора в китайской комнате, а затем спросить: хорошо, что является точным эквивалентом в реальном электронном цифровом компьютере? Не в абстрактной машине, не в машине Тьюринга, а в реальном железе на столе.

В китайской комнате через прорезь в двери падают карточки с китайскими иероглифами. Серл не знает, что это разумные китайские вопросы (он не знает китайского). Он воспринимает формы, начертанные на картах, и манипулирует картами на основе фигур (предположительно, книга правил — программа — содержит примеры фигур, но Серл также говорит, что правила описывают фигуры). Серл реагирует на форму. Но Серл не знал, что люди за пределами комнаты придали этой форме значение. Серл не имеет доступа к смыслу, а только к форме.

Способ, которым внешние люди приписывают значение форме, состоит в том, чтобы сначала воспринимать форму, а затем проходить мысленный процесс присвоения значения (изучение значения, и есть несколько способов сделать это). Это обучение можно рассматривать как создание экземпляров двучленного отношения. Один термин — форма, другой — значение.

Так какой же точный эквивалент в электронном цифровом компьютере, если китайская комната точно отражает основы компьютера? ЦП получает синхронизированные уровни напряжения. ЦП не знал, что уровни тактового напряжения были присвоены значениями людьми за пределами компьютера.

Ну, конечно, это смешно. Таких значений не было и быть не могло. Внешние люди могут воспринимать формы и придавать им значения (таким образом создавая экземпляры двухчленного отношения), но люди биологически неспособны воспринимать синхронизированные уровни напряжения, поэтому не могут придавать им значения. Невозможно создать экземпляры двухчленного отношения, первым членом которого будет уровень синхронизированного напряжения.

Следовательно, китайская комната — с точки зрения семантики — не совсем точно отражает то, что происходит с компьютерами. Семантика — это весь смысл CRA. Сирл не смог правильно понять компьютерную обработку с семантической точки зрения.

Это всего лишь отправная точка для детального сравнительного изучения китайской комнаты и электронных компьютеров. (Я думаю, что с китайской комнатой тоже не все в порядке.)

2. ЗНАЧЕНИЕ . Вы говорите: «Что касается выводов Серла и его Китайской комнаты, вам нужно сравнить и противопоставить «значение» в отношении компьютеров и «значение» в отношении сознания. Но только первое достаточно четко определено для любого строгого сравнения».

История ИИ также была историей переопределения ментальных терминов, чтобы казалось, что компьютеры обладают ментальными свойствами (когда на самом деле их нет, по крайней мере, при запуске предлагаемых программ). Минский был одним из мастеров изящного искусства академического переопределения, чтобы получить студентов и финансирование. В его невероятно влиятельной ранней книге «Обработка семантической информации» (он и его аспиранты были соавторами) программы, которые он представил, не имеют семантического содержания. Он даже (с замечательным подтекстом) указывает на это: «…невольно удивляешься тому, как далеко они [программы в книге] продвинулись со своим слабым семантическим даром». На самом деле они имели нулевую смысловую нагрузку.

Я согласен, что серьезная проблема заключается в том, что разум не понят, функции мозга более высокого уровня не поняты. Возможно, переопределение ментальных терминов с использованием терминологии информатики (чтобы переопределенные понятия могли быть реализованы в компьютере) кажется единственным вариантом. Но чтобы опровергнуть CRA (что является целью действительно тщательного изучения китайской комнаты), попытка опровержения должна использовать концепции, которые Серл использует в своих аргументах и ​​в своих описаниях комнаты. Апелляции к определению значения, которое Сирл не использует, уместны. Меньше всего требуется убедительный перевод его смысла в информационный смысл (что было бы сведением смысла в смысле Серла к смыслу в смысле компьютерных наук).

3. ОПРЕДЕЛЕНИЕ КОМПЬЮТЕРА . Вы говорите: «Возможно, можно спорить о том, убедительны ли его аргументы, но его определение «компьютера» вполне адекватно».

Серл определяет компьютер как универсальную машину Тьюринга. Однако машина Тьюринга обрабатывает вещи, имеющие внешнее значение (0,1, различные формы, на которые реагирует универсальная машина, как описано в статье Тьюринга 1936 года), а электронные компьютеры этого не делают. Вещи, которые обрабатывают электронные компьютеры, не имеют никакой семантики. Это ключевой момент. Говорят, что машины Тьюринга являются чисто вычислительными объектами. Вычисление предполагает внешнюю семантику. Электронные компьютеры в смысле обработки вещей, лишенных внешней семантики, следовательно, не являются вычислительными. Если эта (действительно радикальная) точка зрения будет принята, то она, вероятно, будет иметь отношение к обоснованности или обоснованности аргумента о китайской комнате.

4. МАНИПУЛЯЦИЯ С СИМВОЛАМИ . Вы говорите: «Любые дальнейшие аргументы должны касаться конечных возможностей «манипуляции с символами» — насколько далеко это может вас завести? И это действительно несколько открытый вопрос».

Я утверждаю, что электронные компьютеры не обрабатывают символы в сёрловском смысле слова «символ». Если это верно, то идея манипулирования символами (в сёрловском смысле манипулирования символами, который является смыслом машины Тьюринга) неадекватна для полного понимания того, что делают и могут делать компьютеры.

С самого начала компьютерной эры электронные компьютеры понимались с использованием концепций вычислений (отсюда и название устройства). Но что, если этих концепций недостаточно, когда дело доходит до попытки понять, как может мыслить электронный компьютер (названный так)? Что, если мышление принципиально не связано с вычислениями? А что если, когда электронный компьютер понимается с разных концепций, становится ясно, как компьютер может выполнять необходимые невычислительные операции интеллекта?

Задавая вопрос «Имеет ли смысл определять компьютер как устройство, манипулирующее символами?», я спрашивал, не пытается ли Серл навязать нам (ложную) идею о том, что электронные компьютеры обрабатывают объекты, обладающие внешней семантикой. Эти объекты, являющиеся символами, - это смысл «символа» Серла. То, что компьютеры манипулируют символами и только символами (в смысле Серла «символ»), является предпосылкой различных версий CRA. Определяя компьютеры как устройства, манипулирующие символами, он, кажется, пытается предотвратить любое обсуждение вопроса: хорошо, обрабатывают ли компьютеры символы (в сёрловском смысле слова «символ») ? Если они этого не делают, то посылка CRA ложна и аргумент несостоятелен.

Я не совсем уверен, что это за ваше "тезисное заявление". Когда вы говорите: «Я не согласен насчет битов. Говорить о последовательности битов — значит использовать вычислительную абстракцию. Я рассматриваю само физическое представление как ключ к пониманию семантики машины», это звучит для меня так, как будто вы приписывание своего рода «квалиа» электронному физическому представлению. В таком случае ваше последующее обсуждение совершенно не входит в мою рубку. Намерение моего ответа (если вы простите выражение:) было полностью общепринятым по учебнику, т. Е. Теорией вычислений по отношению к битам.
Кстати, ваш ответ выше не касается моего предложения о доменах Скотта. Создание домена может не сказать, что вам нужно значение >>is<< , как таковое. Но он очень строго и очень формально говорит вам, как связаны значения. Так что, если отношения — это то, что элементарно и фундаментально, то вы, возможно, захотите изучить этот материал. Кроме того, я предложил теорию предметной области и денотационную семантику в отношении лямбда-исчисления, которые я упомянул в отношении синтаксиса, потому что мы говорим о «манипулировании символами». Смотрите следующий комментарий...
...продолжение предыдущего комментария. Но если «манипулирование символами» на самом деле не является вашей основной синтаксической задачей, то вы также можете взглянуть на «аксиоматическую семантику» и/или «операционную семантику». Это может быть более актуально, чем «денотационная семантика», если лямбда-исчисление не является хорошей моделью синтаксиса для ваших целей. Для этих двух других видов семантики синтаксическая модель может быть более близка к «примитивным рекурсивным функциям», которые чем-то похожи на вычислимую версию «арифметики Пеано». (погуглите все "цитируемые" материалы для получения дополнительной информации)
Спасибо, я рассмотрю семантику денотатов, аксиоматическую семантику и т. д. Прошло некоторое время с тех пор, как я в последний раз смотрел на них, но по памяти я думаю, что термин «семантика» использовался особым образом, который отличался от ментального смысла Серла. смыслового содержания, интенциональность, предметность. Но я пересмотрю темы.
Да, это «... используется особым образом, который отличается от ментального понимания семантического содержания Серла». Но это почти лучшее, что было сделано (по крайней мере, насколько мне известно) в отношении компьютерной семантики. Но помните, я упомянул отношения . В этом смысле, если вы сможете найти способ наложить отношения на смысл семантических элементов Серла, вы сможете построить домен, удовлетворяющий этим отношениям. И тогда соответствующий компьютерный синтаксис «означает» что-то изоморфное (с точки зрения отношений, т. е. теоретико-категориальный функтор) тому, что имел в виду Серл.
Серл говорит, что семантика символа — это значение формы, придаваемое внешними наблюдателями. Что касается разума, он говорит об интенциональности. Он говорит, что, поскольку компьютеры никогда не могут вводить значение входного символа (только его форму), он никогда не может обладать интенциональностью. Что ж! Значит, интенциональность проистекает из значений входных символов (которые упорно остаются вне машины и внутри мозгов наблюдателей)? Почему? Почему интенциональность должна приобретаться путем коагуляции символического значения? Получает ли человеческий мозг интенциональность, внутренне коагулируя внешнее символическое значение?

Как вы сказали, разница между внешней (основанной на наблюдателе) и внутренней (субъективной) семантикой манипулирования символами является ключом к аргументу китайской комнаты (CRA) (ср. проблему заземления символа ). Однако я не вижу, чтобы абстрактное и физическое различие между теорией вычислений и физическими вычислительными устройствами напрямую касалось этой проблемы.

Теория вычислений — это просто еще одна математическая модель, такая же, как исчисление или геометрия. Поиск логических символов «0, 1» в физическом компьютере ничем не отличается от поиска прямых линий и углов в 90 градусов в зданиях. Если мы верим, что абстрактные, математически обоснованные инженерные теории действительно удерживают небоскребы от падения и самолеты в воздухе, то пляшущие напряжения в компьютере моего банка также действительно представляют собой логический «баланс» моего логического «чекового счета». Физические компьютеры «манипулируют символами» в той же степени, в какой здания «подчиняются статике» и плоскости «аэродинамике».

К счастью, различие между идеализированной математикой и реальным миром не требуется для полного понимания CRA. Поскольку он основан на теории машины Тьюринга (ТМ), анализ CRA может быть гораздо менее эзотерическим и гораздо более точным и объективным.

CRA умело обращает всеобщее внимание на неправильные символы: китайские входы и выходы. Как волшебник, Серл заставляет вас игнорировать слона в Китайской комнате: программа. Это тоже символический ввод в компьютер Серла. (Он также надеется, что вы будете скучать по тому, что он на английском языке!)

Программа (также известная как свод правил) является ключевым символьным вводом, потому что только она диктует, как обрабатываются китайские символы. Единственная причина, по которой компьютер Серла может (и должен) обрабатывать китайские символы чисто формально , заключается в том, что он также имеет символы правил программы, которые он может (и должен) интерпретировать неформально . Как универсальная ТМ , основная ответственность Searle-компьютера сосредоточена на самой программе. Серл обращает всеобщее внимание исключительно на себя и на китайские символы, но он совершенно лишний для их вычисления!

Компьютер Серла и его программный ввод можно — и нужно — полностью исключить из рассмотрения. Замените его прямой, непрограммируемой реализацией программы, и комната будет функционировать точно так же. Следовательно, утверждение Серла о том, что комната обрабатывает китайские символы чисто формально (в отличие от только своего процессора Серла), совершенно необоснованно, поскольку он не учитывает собственные вычисления программы (существование которых неопровержимо объясняется теорией машин Тьюринга).

Степень, в которой вычисления программы интерпретируют китайский язык семантически (или нет), остается неопределенной. Следовательно, CRA абсолютно ничего не устанавливает о семантике в комнате относительно китайских символов.

Ссылки: Синтаксис против семантики , chineseroom.info

Хорошо для Фила-132, я не уверен, что понял все пункты, но я думаю, что это то, что происходит в Китайской комнате. Существуют две отдельные системы обработки символов: (1) система, которая обрабатывает китайские символы, поступающие в комнату извне, и (2) система, которая обрабатывает символы, составляющие программу. В комнате также есть набор основных операций (например, сканирование машины Тьюринга, печать, стирание, влево и вправо). В реальном компьютере они встроены в аппаратное обеспечение. В китайской комнате они приходят от Серла, понимающего, что означают программные символы.

Программные символы определяют последовательность этих простых операций, когда программа начинает выполняться. Затем простые операции манипулируют китайскими символами (и делают другие вещи). Программу можно заменить проводкой. В этом случае последовательность простых операций определяется не символами программы, а проводкой. Но «программа-как-проводка» по-прежнему должна иметь возможность по-разному обрабатывать различные китайские символы ввода. Так как же это сделать? Каким-то образом формы всех возможных китайских символов должны быть встроены в проводку. Но единственный способ сделать это — чтобы проводка содержала примеры китайских символов (какие примеры затем можно сопоставить проводкой с теми, что приходят в помещение снаружи).

Поэтому проводка должна содержать символы. Несмотря на то, что простые операции могут выполняться путем подключения вместо программных символов, все же должны быть литералы, должны быть примеры всех возможных китайских символов, которые простые операции могут использовать для сопоставления с реальными китайскими символами, поступающими в качестве входных данных.

Этот процесс сопоставления, проводимый проводкой, является чисто формальным, потому что все, что он делает, — это сравнивает формы ранее существовавших примеров китайских символов с формами тех, которые входят в комнату в качестве входных данных. «Избавление от программы» позволяет избавиться только от программных символов, запускающих простые операции. Он не избавляется от литералов, содержащихся в программе. Итак, для строки программы: IF INPUT = "A" THEN GO DO избавление от программы избавляется от: IF INPUT = "" THEN GO DO , но не избавляется от A.

В основном согласен, но поменяйте местами системы: [1-й Searle-UTM, программа, китайский (только формальный)] экземпляры -> [2-й TM, китайский (формальный и т. д.)]. Удаление 1-го удаляет отвлекающую чисто формальную связь «UTM против китайцев». Да, на 2-ю ТМ тоже нужно официальное удостоверение личности китайца. Но тогда можно пойти дальше. ТМ с символом «лошадь» может ассоциироваться с «большим млекопитающим...». ТМ также может учиться, меняя поведение с течением времени. UTM не могут делать такие вещи, потому что они специализируются исключительно на «универсальной программируемости» (выполнении правил). Следовательно, UTM должны обрабатывать свои номинальные входные данные (китайские) только формально.