Делает ли добавление структуры китайскую комнату семантической?

Китайская комната реагирует только на синтаксис или форму символов (чисто синтаксическая). Но мозги полны структуры. В комнате китайские символы разбросаны «кучами» на полу или перемещаются «партиями» или «связками» или хранятся в беспорядке в «корзинах» без каких-либо структурных связей между символами.

Вещи, которые обрабатывают компьютеры, называются «символами». Компьютеры могут создавать структуру между символами и реагировать на нее или следовать ей, и часто так и делают. Виртуальные соединения между ячейками памяти могут быть установлены с помощью указателей, а алгоритмы могут отслеживать соединения с помощью методов прямой адресации памяти и косвенного обращения.

Эту структурную или реляционную способность компьютерной программы можно отразить в китайской комнате, добавив к онтологии комнаты новый тип объекта: строку. Затем экземпляры строки в комнате могут соединять токенизированные китайские символы. Каждый кусок струны имеет одинаковые характеристики, включая длину. Они являются воплощением структуры, являются реляционными элементами структуры.

В комнате, если связи, установленные между символами, являются каузальным следствием временной смежности на сенсорной поверхности, что приводит к тому, что смежные сенсорные символы выходят из сенсора, а затем входят в комнату, связи между сенсорными символами фиксируют как внутреннюю структуру внешние экземпляры временной смежности. на сенсорной поверхности. Является ли такая внутренняя структура элементом смыслового содержания?

В компьютере, если структуры внутренней памяти, построенные с помощью указателей, представляют собой деревья, программа может проходить по деревьям и выдавать в качестве выходных копий листьев (символов), не реагируя (идентифицируя) на формы символов. Программа просто копирует и выдает все, что приходит к ней, но не имеет потомков. Программа не содержит условных операторов, индексируемых по форме символа.

Предположим, что у Серла завязаны глаза, а затем он идет по дереву, держась за веревку руками. Когда он достигает листа (карточка с китайской идеограммой, к которой не прикреплены нисходящие строки), он выбрасывает карточку, а затем продолжает свою тактильную прогулку по дереву. Поскольку правила, которым он следует, не предписывают реакции на форму какого-либо китайского символа (и, следовательно, не содержат примеров или описаний формы какого-либо китайского символа), означает ли это, что программа в книге правил не является синтаксической в ​​отношении к китайским символам, а Серл манипулирует символами несинтаксически?

В 2014 году Сирл говорит (выделено им): « …цифровой компьютер — это синтаксическая машина . Он манипулирует символами и не делает ничего другого» («Чего не может знать ваш компьютер», в The New York Review of Books , октябрь 9, 2014, раздел 2, пункт 7). Строка не является символом. Является ли его тщательное избегание структуры его фундаментальной ошибкой?

В «Разуме, мозге и программах» Сирлу даются «инструкции» и «правила», чтобы он мог давать ответы. Он не уточняет, что это такое, чтобы они были общими. В конце концов, он не понимает по-китайски, и поэтому программа, которую он имитирует, тоже не понимает по-китайски. Я не думаю, что он чего-то избегает. Если бы он понимал китайский язык, то сильный дуализм разума и тела ИИ был бы оправдан, и разум можно было бы отделить от тела. Однако он не понимал китайский язык.
Строки чего? Строки — это строки символов. Они имеют не больше семантического содержания, чем отдельные символы. Строка «кошка» имеет не больше семантического содержания, чем отдельные строки «с», «а» и «т». Именно люди придают значение этой строке. И если на то пошло, разве отдельный символ не является просто строкой длины один? Я не понимаю, что вы пытаетесь сделать. Символы или цепочки символов — это одно и то же. Обход структуры данных вслепую — не что иное, как синтаксическая обработка символов.
@user4894. В случае с текстом, конечно, отношения между символами, например, c, a, t (временной смежности (ТС), когда они проходят через поверхность, или пространственной смежности при сохранении), не имеют семантических свойств. Но для сенсорных символов тот факт, что один следует за другим в компьютер, отражает (не обозначает, не означает) TC на сенсорной поверхности между тем, что заставило сенсор создавать символы. Это то же самое отношение: ТС в среде, ТС между сенсорными символами. Внутри то же самое, что и снаружи. Разве это не смысловой элемент? (Это может быть даже компонентом представлений)
@Frank Hubeny Для меня программа не понимает китайские ответы, потому что все, что она содержит, - это условные формы китайских символов. Если Серл понимал китайский только благодаря идентификации форм китайских символов, я не совсем понимаю, как это может подразумевать дуализм. Ум по-прежнему будет обитателем физического, а не духовного плана. Разум (программа) может быть отделен от тела (компьютера), но программа все равно останется физическим объектом. Я правильно понимаю, что вы комментируете?
@Roddus Я не уверен, что ты имеешь в виду под «сенсорными символами». Если вы имеете в виду последовательность символов, генерируемых датчиком, подключенным к внешней стороне, то откуда компьютеру знать об этом? Если процессор видит поток битов, человек может знать, что это выходные данные физического датчика, но у компьютера нет таких знаний. Это просто еще одна битовая строка, которой нужно манипулировать в соответствии с правилами. Это прекрасный пример человека, предоставляющего семантику. Люди знают, что битовая строка представляет собой температуру в реальном мире. Процессор видит только битовую строку и понятия не имеет, что она означает.
@ user4894 Компьютер не знает. Но тогда я не знаю, что импульсы в определенных волокнах исходят от моих глаз или ушей. Я не знаю, где находятся эти волокна, я не знаю, пульсирует ли что-нибудь по ним, мой разум совершенно не знает о физике связей между моими глазами и моим мозгом. Но в раннем обучении структуры создаются из битового потока каждого сенсора в их собственных областях мозга. Дальнейшее наклонение соединяет односмысловые структуры вместе посредством «связывания». Связанные структуры могут сойти за представления внешних объектов. Это совсем другая картина по сравнению с китайской комнатой.
@Роддус. Но структуры не могут сойти за представление внешних объектов, как вы утверждаете, потому что как таковые они никак не доступны компьютеру. Итак, хоть это и другая картина из китайской комнаты, она не реалистична.
@Pé de Leão Под « никоим образом не доступны как таковые » вы имеете в виду, что компьютер не может получить доступ к структуре? Или вы имеете в виду, что компьютер может получить доступ к структуре, но не может распознать ее как представление внешнего объекта? Т.е. компьютер не может понять, что означает структура?
@Роддус. Структура — это абстрактное понятие, существующее в нашем сознании, поэтому компьютер не может ни понять его, ни получить к нему доступ. Как я уже говорил, каждый бит в компьютере эпистемически изолирован, поэтому понятие отношения для компьютера бессмысленно. Он не может воспринимать ни единого бита, а тем более никакой связи между битами.
@Pé de Leão Но компьютер может реализовать абстрактную концепцию структуры. Мозг реализует абстрактную концепцию структуры, содержа структуры. Компьютеры также могут реализовать абстрактную концепцию. Я согласен с тем, что каждый бит (импульс напряжения, магнитный домен, состояние переключателя) в компьютере эпистемически изолирован, и мы не можем воспринимать биты или отношения между ними. Но тогда я не могу воспринимать нервные импульсы и в биологическом мозгу. Я могу воспринимать дендриты, нейронные связи, но не связи компьютерной памяти. Но это потому, что соединения с памятью являются "виртуальными" и создаются указателями...
@Pé de Leão Cont ... Алгоритмы могут следовать виртуальным соединениям компьютера с помощью указателей, которые позволяют алгоритмам перемещаться из одной области памяти непосредственно в другую в линейной памяти компьютера. Мне кажется, что это то же самое, что и процесс, перемещающийся по реальной физической трубе из одного местоположения в трехмерной координате xyz в другое. В компьютере приходится использовать указатели, потому что компьютерная память линейна, одномерна, а структура мозга трехмерна. Но я думаю, что указатели позволяют «имитировать» трехмерные структуры (если это правильное слово) в одномерной линейной памяти в необходимых отношениях.
@Роддус. Состояния мозга каким-то образом сопоставляются с сознанием, которое служит «устройством вывода», которое характеризуется неким объединяющим принципом, делающим возможным мышление и абстракцию. Однако то же самое нельзя сказать о компьютерах, потому что нет ничего лучше сознания, на которое можно было бы сопоставить данные, поэтому их невозможно расшифровать, и поэтому они навсегда остаются недоступными — вроде символов в китайской комнате. Вы можете утверждать , что компьютеры могут реализовывать абстрактные понятия, но вы даже не можете предложить какой-либо механизм, как это возможно.

Ответы (2)

Я знаю, что этот ответ немного не по теме, однако я надеюсь, что он все еще помогает.

Я думаю, что рассматривать комнату Searls Chinas как «насос интуиции» — концепция, представленная Дэниелом Денеттом, — полезный подход. Где мысленные эксперименты — это сущности, которые дают нам лучшее или худшее интуитивное представление об определенных явлениях. Немного изменив части рассматриваемого мысленного эксперимента, можно увидеть, хороший это насос интуиции или нет. Анализируя, подтверждает ли измененный мысленный эксперимент ту же интуицию.

Мой вывод состоит в том, что CRA сильно зависит от своей начальной формы для создания требуемой интуиции. Значение добавления новых сущностей, как вы предлагаете, например, «строк», показывает ограниченную достоверность CRA для аналоговых явлений, которые он пытается описать.

Я не согласен с вашим утверждением, что есть:

нет структурных связей между символами в CRA.

Поскольку их упорядочивание в соответствии со сводом правил создает структуру, содержащую смысл для получателя. Ключевым моментом, по-видимому, является неосведомленность/незаинтересованность в структуре со стороны человека в комнате. Это создает четкую грань между синтаксисом и семантикой. Этот четкий разрез также вызван сводом правил, содержащим 2 языка, которые накладываются кем-то, кто не является человеком в комнате, который просто понимает один и перемешивает выражения на другом языке.

Эта незаинтересованность ставит вопрос, что, учитывая временную структуру сенсорного ввода, есть ли у человека в CRA желание получить семантическое свойство? Казалось бы, он не просто делает свою работу.

Обратите внимание, что в той части, где вы обсуждаете программное обеспечение, вы, кажется, дистанцируетесь от того, что, по-видимому, имеет в виду Серл, поскольку вы спорите о структурах, используемых в своде правил для передачи желаемых семантических свойств. Не сам КРА.

Мне кажется, что CRA в основном сосредоточится на аналогии с одним ядром ЦП. Так что требовать интресед для механизма переворачивания бит кажется проблематичным.

Из-за упомянутого выше насоса интуиции ваш подход кажется уместным, но и неуместным. Подходит, поскольку вы реструктурируете первоначальный CRA, чтобы сделать его более понятным для, возможно, более сложных компьютеров. Однако первоначальный CRA по-прежнему действителен для более простых систем, таких как обычные калькуляторы.

Другие выбрали аналогичные подходы, например, пытаясь идентифицировать всю систему как релевантную, придавая большее значение структуре свода правил (программного обеспечения). Я сам попробовал это, переформулировав CRA, чтобы он больше походил на нервную клетку, и добавив его вместе с другими модифицированными CRA, чтобы получить структуру, подобную трехмерному мозгу.

Мой вывод состоит в том, что CRA иллюстрирует неправильный уровень анализа сложных систем. Поэтому я считаю ваш подход неуместным, поскольку выбор CRA в качестве модели кажется ненужным для общих вопросов, которые вы, кажется, высказываете. Например, как возникает семантика в системе. Или что такое семантика, как сложность влияет на семантику и т.д.

Спасибо. Да, входные вопросы и выходные ответы содержат непрерывные во времени символы, когда строки входят/выходят из комнаты (следовательно, символы, когда они входят/выходят, являются терминами экземпляров отношения временной смежности). Но оказавшись внутри и до того, как они уйдут, запасные части в «коробках» или «корзинах» не кажутся частями какой-либо структуры и рассматриваются как отдельные жетоны. Например, здесь нет древовидных структур, но мозги полны ими (а комната должна быть компьютером, пытающимся быть мозгом, а программы могут легко создавать древовидные структуры).
Продолжение... Что такое семантика, конечно, огромная проблема. Лингвистам и философам это достаточно ясно — в соответствии с концепциями лингвистики и философии языка, но не информатики. Одна идея, которую я хотел обсудить, состоит в том, что семантика — это лес деревьев, в котором одного синтаксиса (символов или эквивалентов) недостаточно для семантики, но когда добавляются структурные элементы древовидных связей («дуги»), два типа компонентов, символы и связи, объединяясь, дают семантические свойства. Хотя сопротивление такой простой идее довольно велико.
@Roddus Почему вы фокусируете свое внимание на древовидных структурах. Только потому, что у них "мозги полны"? Почему не списки, массивы и т. д.? Разве не понятно, что свод правил создает экземпляр программы, которая создает работу человека в комнате, напоминающую древовидную структуру. Разве это не увеличивает скорость генерации вывода за счет более эффективного структурирования действий и токенов, а не приписывает семантические свойства на этом уровне анализа? Даже если кто-то симпатизирует вашей идее, непонятно, почему механизм, объединяющий компоненты, должен знать об этой семантике.
Деревья кажутся интересными по нескольким причинам, но также можно построить связанные списки и т. д. Предположительно книга правил могла бы проинструктировать Серла создавать древовидные структуры, если бы существовал способ связать символы (и созданные узлы) вместе. Когда вы говорите о механизме добавления компонентов , вы имеете в виду программу и/или процессор? Я не думал, что у них могут быть семантические свойства, а скорее о том, что построенная структура сама по себе является семантикой. Осведомленность — это функция высокого уровня. Я больше смотрел на низкоуровневую проблему создания внутренних представлений внешних объектов.
@Роддус. Называя осведомленность «высокоуровневой характеристикой», вы предполагаете, что это нечто, что может произойти само по себе, без намерения программиста иметь какое-либо представление о том, как это осуществить?
@ Pé de Leão Я думаю, что осознание — это алгоритм, который будет преднамеренно разработан как алгоритм осознания (т. е. не эмерджентное свойство, «генетически развитый» алгоритм или случайность). Учитывая, что так мало известно о действительно основных психических явлениях, кажется правильным начать почти с самого начала с таких вопросов, как: что такое внутреннее представление внешнего объекта? какая структура памяти компьютера будет реализовывать представление? и Как эти структуры развиваются благодаря обучению на собственном опыте? Чтобы иметь осознанность, по-видимому, должно уже существовать множество внутренних представлений.
@Roddus Да, знаю. Я понимаю, что CRA = блок обработки одного ядра с блоком управления (свод правил), ALU (человек в CRA) и регистрами (кучей). Если вы думаете, что сама структура сборки (весь CRA или результирующий вывод, как для нас понятное программное обеспечение) является семантикой, почему вы добавляете новые типы данных в CRA? С осознанием я не был необходим, что означает осознание. Я хочу спросить, где семантическое значение становится актуальным и для кого. В случае ЦП мы можем сказать, что это программисты, но не является ли используемая ими интерпретация произвольной?

Единственный способ, которым добавление структуры может сделать семантический Аргумент Китайской Комнаты Сирла (CRA), состоит в том, чтобы представить, что Сирл понимает китайский язык, проходя программный процесс с включенной этой дополнительной структурой, чем бы она ни была. Сирл не уточняет, что программа может попросить его сделать. Он может быть настолько продвинутым, что сегодня это выходит за рамки нашего воображения. Это может быть очень успешным и убедить всех, что он понимает китайский язык. Даже при всем этом, утверждает Сирл, и я соглашусь, он не понял бы китайский язык после имитации процесса. Итак, я делаю вывод, что «добавление структуры» не помогает. Серл уже неявно добавил это.

Рассмотрим последний вопрос: «Является ли его [Сёрлом] тщательное избегание структуры его фундаментальной ошибкой?» Я не думаю, что Серл ошибается с CRA. Однако он может ошибаться со своим физикализмом, но это не зависит от КРА. Идеалист или традиционный дуалист разум-тело мог бы использовать CRA, чтобы получить те же два результата, которые Серл делает в своем «Разуме, мозге и программах», а именно, что машины не могут понять, а машина и ее программы не объясняют наши человеческие способности. чтобы понять. Может быть много способов объяснить нашу способность к пониманию помимо предпочитаемых Серлом «определенных мозговых процессов», но программы ИИ не являются одним из них.

Он может быть настолько продвинутым, что сегодня это выходит за рамки нашего воображения. -- На самом деле у нас есть работающая реализация китайской комнаты в Google Translate. Кто-нибудь думает, что Google Translate понимает китайский язык?
@ user4894 Поскольку мы знаем, что в основе Google Translate лежит программа, у нас не возникнет соблазна антропоморфизировать ее. То же самое можно сказать и о том, когда наша программа для чтения электронных книг открывает файл. Думаем ли мы, что эта программа читает с пониманием того, что находится в книге, которую она открывает для нас, чтобы мы действительно могли ее прочитать? Или рассмотрите физическую книгу. Думаем ли мы, что физическая книга понимает текст, который она представляет нам, когда мы ее читаем?
«* Даже со всем этим [добавленной программной сложностью и структурой], утверждает Серл, и я соглашусь, он не понял бы китайский язык после имитации процесса *». Я не видел, чтобы он говорил о структурах в комнате. Кажется, он сосредотачивается исключительно на внешнем значении и внутреннем синтаксисе символов. Он использует термин «база данных» и «база данных» (без пробела), но он говорит о «корзинах» и «ящиках», внутри которых нет структуры символов (и на самом деле они не являются базами данных). Так же, как он говорит о «связках» и «партиях», здесь нет никакой структуры.
Продолжение... Я думаю, что структура плюс синтаксис могут объяснить семантику, но только синтаксис не может. Что является интересным моментом. Если компьютерные программы могут создавать структуру (а они могут), то китайская комната не в состоянии принять во внимание все, на что способен компьютер. Аргумент китайской комнаты также не принимает во внимание все возможности компьютера. Мой аргумент заключается в том, что структура не является синтаксисом. Если это правда, то посылка Серла «компьютеры — это чисто синтаксические устройства» ложна, а CRA несостоятелен. Таким образом, хороший вопрос звучит так: является ли структура синтаксисом?
@Roddus "Синтаксис структуры?" предлагает «системный ответ», к которому Сирл обращается в «Разуме, мозге и программах». Чтобы устранить любое влияние извне на индивидуума (именно это, я полагаю, вы имеете в виду под «структурой»), он позволяет индивидууму интернализировать все элементы системы и даже выводит человека наружу. Независимо от того, является ли структура синтаксисом или нет, Серл принимает это во внимание. Он задает вопрос: как сильный ИИ отличит ментальное от не-ментального, если принять сильный ИИ? Например, понимает ли термостат температуру?
@Frank Hubeny Под структурой я подразумеваю способность программы создавать структуру (и следовать ей). Если синтаксис — это реакция на форму символа, то способность строить структуру (связывать символы друг с другом, не реагируя на их форму) — это дополнительная сверхспособность, которой обладают программы, и предположение Серла о том, что компьютеры — это чисто синтаксические устройства, ложно (и CRA необоснованно). . Интернализированная китайская комната по-прежнему является чисто синтаксической системой, согласно Серлу, но если она может создавать структуру, то интернализованная комната не является чисто синтаксической, и посылка Серла ложна. Вот идея, которую я хотел бы предложить.
@Roddus Я не понимаю, как Сирл не упомянул «структуру» в своем ответе на системный ответ CRA. С моей точки зрения, я считаю, что эта структура не добавляет ничего нового в синтаксис, а те, кто поддерживает сильный ИИ, считают, что семантика не добавляет ничего нового в синтаксис. Все, что могла сделать программа, Сирл мог имитировать и не достичь понимания китайского языка. Я полагаю, что для сильного ИИ один из способов обойти это — заявить, что семантики не существует, то есть что это своего рода иллюзия, однако я не думаю, что это правда.
@Frank Hubeny Насколько я понимаю Сирла (и Стевана Харнада и т. Д.), Синтаксис - это форма. Но в более общем смысле его можно рассматривать как свойство (разные формы — это разные значения свойства формы). Программа является чисто синтаксической, потому что ее условные операторы действуют только на формы китайских символов - внутреннее свойство - без ссылки на значения фигур - отношение с двумя терминами, один член которого является формой, а другой значением ( отношение на самом деле более сложное, чем это, поскольку форма является универсальной). Структура — это отношение , а не свойство.
@Frank Hubeny Cont ... Итак, мой аргумент заключается в том, что, поскольку синтаксис - это свойство, а структура - это отношение с двумя терминами, а поскольку свойства не являются отношениями с двумя терминами, структура - это не синтаксис. А поскольку компьютеры (их программы) могут создавать структуру и следовать ей, посылка Серла CRA «компьютеры чисто синтаксичны» ложна, а CRA несостоятельна. Это открывает возможность того, что, хотя синтаксиса недостаточно для семантики, может быть достаточно синтаксиса + структуры, и компьютеры смогут создавать внутренние семантические структуры.
@Roddus Что касается «форм», Сирл упоминает следующее: «эти правила инструктируют меня, как вернуть определенные китайские символы с определенными видами форм в ответ на определенные виды форм, данные мне в третьей партии» («Разумы, мозги и программы») Он использовал "форму", чтобы подчеркнуть, что он не знает, что означают китайские иероглифы и их синтаксис. Для него это всего лишь формы . Программа способна построить выходную строку. Неважно, как программа это делает. Когда Сирл имитирует программу, он ничего не понимает.
@Frank Hubeny (Стивен Харнад тоже много говорит о форме, когда говорит о том, что делают компьютеры.) Под «ни их синтаксисом» вы не подразумеваете их семантику? Насколько я понимаю, для Серла форма - это синтаксис, поэтому, увидев форму символа, он знал бы синтаксис. Может иметь значение, как программа строит вывод? Я думаю, что программа должна манипулировать символами только на основе их формы. Я согласен, что весь смысл китайской комнаты в том, что Сирл не понимает, что означают фигуры.
@Roddus Когда я это читал, Сирл знает только «форму». Он не знает ни семантики, ни синтаксиса китайского языка. Он знает ровно столько, чтобы различать отдельных персонажей по их форме. У программы есть способ генерировать правильный вывод, который Серл может имитировать. В чем я мог бы не согласиться с Серлом, так это в том, что программа на самом деле знает не больше синтаксиса, чем семантики, но у программы есть метод манипулирования символами для получения правильного ответа.
@ Фрэнк Хубени, да, я согласен, что программа не знает синтаксиса (потому что она ничего не знает). Но когда Сирл говорит о синтаксисе, что, по вашему мнению, он имеет в виду? он имеет в виду просто форму или синтаксис в китайской комнате (или компьютере) больше, чем просто форма?
@Roddus Я думаю, что Сирл связывает «синтаксис» человеческого языка с формальными правилами программы, но я не уверен. Идея «формы» применима только к человеку в Китайской комнате. Все, что человек знает, это форма персонажей, потому что он их видит, и ничего больше. Этот человек следует формальным правилам программы, а не синтаксису китайского языка, который может отличаться. Люди нарушают синтаксические правила в разговорной речи, что заставляет меня думать, что синтаксически-семантическое разделение для нас непонятно. Но язык программирования будет иметь только формальные правила, только его синтаксис.