Китайская комната реагирует только на синтаксис или форму символов (чисто синтаксическая). Но мозги полны структуры. В комнате китайские символы разбросаны «кучами» на полу или перемещаются «партиями» или «связками» или хранятся в беспорядке в «корзинах» без каких-либо структурных связей между символами.
Вещи, которые обрабатывают компьютеры, называются «символами». Компьютеры могут создавать структуру между символами и реагировать на нее или следовать ей, и часто так и делают. Виртуальные соединения между ячейками памяти могут быть установлены с помощью указателей, а алгоритмы могут отслеживать соединения с помощью методов прямой адресации памяти и косвенного обращения.
Эту структурную или реляционную способность компьютерной программы можно отразить в китайской комнате, добавив к онтологии комнаты новый тип объекта: строку. Затем экземпляры строки в комнате могут соединять токенизированные китайские символы. Каждый кусок струны имеет одинаковые характеристики, включая длину. Они являются воплощением структуры, являются реляционными элементами структуры.
В комнате, если связи, установленные между символами, являются каузальным следствием временной смежности на сенсорной поверхности, что приводит к тому, что смежные сенсорные символы выходят из сенсора, а затем входят в комнату, связи между сенсорными символами фиксируют как внутреннюю структуру внешние экземпляры временной смежности. на сенсорной поверхности. Является ли такая внутренняя структура элементом смыслового содержания?
В компьютере, если структуры внутренней памяти, построенные с помощью указателей, представляют собой деревья, программа может проходить по деревьям и выдавать в качестве выходных копий листьев (символов), не реагируя (идентифицируя) на формы символов. Программа просто копирует и выдает все, что приходит к ней, но не имеет потомков. Программа не содержит условных операторов, индексируемых по форме символа.
Предположим, что у Серла завязаны глаза, а затем он идет по дереву, держась за веревку руками. Когда он достигает листа (карточка с китайской идеограммой, к которой не прикреплены нисходящие строки), он выбрасывает карточку, а затем продолжает свою тактильную прогулку по дереву. Поскольку правила, которым он следует, не предписывают реакции на форму какого-либо китайского символа (и, следовательно, не содержат примеров или описаний формы какого-либо китайского символа), означает ли это, что программа в книге правил не является синтаксической в отношении к китайским символам, а Серл манипулирует символами несинтаксически?
В 2014 году Сирл говорит (выделено им): « …цифровой компьютер — это синтаксическая машина . Он манипулирует символами и не делает ничего другого» («Чего не может знать ваш компьютер», в The New York Review of Books , октябрь 9, 2014, раздел 2, пункт 7). Строка не является символом. Является ли его тщательное избегание структуры его фундаментальной ошибкой?
Я знаю, что этот ответ немного не по теме, однако я надеюсь, что он все еще помогает.
Я думаю, что рассматривать комнату Searls Chinas как «насос интуиции» — концепция, представленная Дэниелом Денеттом, — полезный подход. Где мысленные эксперименты — это сущности, которые дают нам лучшее или худшее интуитивное представление об определенных явлениях. Немного изменив части рассматриваемого мысленного эксперимента, можно увидеть, хороший это насос интуиции или нет. Анализируя, подтверждает ли измененный мысленный эксперимент ту же интуицию.
Мой вывод состоит в том, что CRA сильно зависит от своей начальной формы для создания требуемой интуиции. Значение добавления новых сущностей, как вы предлагаете, например, «строк», показывает ограниченную достоверность CRA для аналоговых явлений, которые он пытается описать.
Я не согласен с вашим утверждением, что есть:
нет структурных связей между символами в CRA.
Поскольку их упорядочивание в соответствии со сводом правил создает структуру, содержащую смысл для получателя. Ключевым моментом, по-видимому, является неосведомленность/незаинтересованность в структуре со стороны человека в комнате. Это создает четкую грань между синтаксисом и семантикой. Этот четкий разрез также вызван сводом правил, содержащим 2 языка, которые накладываются кем-то, кто не является человеком в комнате, который просто понимает один и перемешивает выражения на другом языке.
Эта незаинтересованность ставит вопрос, что, учитывая временную структуру сенсорного ввода, есть ли у человека в CRA желание получить семантическое свойство? Казалось бы, он не просто делает свою работу.
Обратите внимание, что в той части, где вы обсуждаете программное обеспечение, вы, кажется, дистанцируетесь от того, что, по-видимому, имеет в виду Серл, поскольку вы спорите о структурах, используемых в своде правил для передачи желаемых семантических свойств. Не сам КРА.
Мне кажется, что CRA в основном сосредоточится на аналогии с одним ядром ЦП. Так что требовать интресед для механизма переворачивания бит кажется проблематичным.
Из-за упомянутого выше насоса интуиции ваш подход кажется уместным, но и неуместным. Подходит, поскольку вы реструктурируете первоначальный CRA, чтобы сделать его более понятным для, возможно, более сложных компьютеров. Однако первоначальный CRA по-прежнему действителен для более простых систем, таких как обычные калькуляторы.
Другие выбрали аналогичные подходы, например, пытаясь идентифицировать всю систему как релевантную, придавая большее значение структуре свода правил (программного обеспечения). Я сам попробовал это, переформулировав CRA, чтобы он больше походил на нервную клетку, и добавив его вместе с другими модифицированными CRA, чтобы получить структуру, подобную трехмерному мозгу.
Мой вывод состоит в том, что CRA иллюстрирует неправильный уровень анализа сложных систем. Поэтому я считаю ваш подход неуместным, поскольку выбор CRA в качестве модели кажется ненужным для общих вопросов, которые вы, кажется, высказываете. Например, как возникает семантика в системе. Или что такое семантика, как сложность влияет на семантику и т.д.
Единственный способ, которым добавление структуры может сделать семантический Аргумент Китайской Комнаты Сирла (CRA), состоит в том, чтобы представить, что Сирл понимает китайский язык, проходя программный процесс с включенной этой дополнительной структурой, чем бы она ни была. Сирл не уточняет, что программа может попросить его сделать. Он может быть настолько продвинутым, что сегодня это выходит за рамки нашего воображения. Это может быть очень успешным и убедить всех, что он понимает китайский язык. Даже при всем этом, утверждает Сирл, и я соглашусь, он не понял бы китайский язык после имитации процесса. Итак, я делаю вывод, что «добавление структуры» не помогает. Серл уже неявно добавил это.
Рассмотрим последний вопрос: «Является ли его [Сёрлом] тщательное избегание структуры его фундаментальной ошибкой?» Я не думаю, что Серл ошибается с CRA. Однако он может ошибаться со своим физикализмом, но это не зависит от КРА. Идеалист или традиционный дуалист разум-тело мог бы использовать CRA, чтобы получить те же два результата, которые Серл делает в своем «Разуме, мозге и программах», а именно, что машины не могут понять, а машина и ее программы не объясняют наши человеческие способности. чтобы понять. Может быть много способов объяснить нашу способность к пониманию помимо предпочитаемых Серлом «определенных мозговых процессов», но программы ИИ не являются одним из них.
Фрэнк Хьюбени
пользователь4894
Роддус
Роддус
пользователь4894
Роддус
пользователь3017
Роддус
пользователь3017
Роддус
Роддус
пользователь3017