В китайской комнате нет компьютера, но какое это имеет значение? [дубликат]

Центральное место в аргументе Серла о китайской комнате занимает его заявление о том, что комната обладает семантическими свойствами электронного цифрового компьютера. В посте несколько дней назад при обсуждении семантики я утверждал, что существует фундаментальная семантическая разница. Но имеет ли это значение для завершения аргумента о китайской комнате?

Разница заключается во внешней семантике. Китайские символы попадают в комнату через щель в двери. Без ведома Сирла, ЦП, их формам были приданы значения или интерпретации («семантика») наблюдателями за пределами комнаты. Сирл, который не знает китайского, получает только форму. Ничто в форме не указывает на ее значение. Нет внутренней семантики, но есть внешняя , или внешняя, семантика.

Китайская комната должна быть компьютером, пытающимся быть разумом. Но что происходит в реальном электронном устройстве? Вход в компьютер представляет собой последовательность синхронизированных уровней напряжения, а не китайские иероглифы. Уровни тактового напряжения поступают в компьютер извне. Неизвестный Сирлу, ЦП, их уровням напряжения были присвоены значения наблюдателями за пределами комнаты.

В этом разница. Это невозможно. Наблюдатель может воспринимать форму и придавать ей значение, но никто не может воспринимать синхронизируемый уровень напряжения и придавать ему значение, потому что ни у одного человека нет сенсорного аппарата, чтобы воспринимать синхронизируемый уровень напряжения. Другими словами, вещи, которые обрабатывает китайская комната, имеют и внешнюю семантику, но вещи, которые не обрабатываются компьютерами. Это фундаментальное семантическое различие между китайской комнатой и компьютерами. Но имеет ли это какое-то значение для вывода аргумента о китайской комнате?

Вещи, которые обрабатывают компьютеры, вообще не имеют семантики (ни внутренней, ни внешней), так что насчет мозгов? Они обрабатывают в основном одинарные электрические импульсы. Людям также не хватает сенсорного аппарата для их восприятия. А как насчет дочеловеческих времен, когда не было никого, кто пытался бы приписать внешнюю семантику нервным импульсам? Нейронные импульсы также не имеют внешней или внутренней семантики. Но мозги понимают мир. Биологический мозг доказывает, что система, обрабатывающая семантически пустые объекты, может прийти к пониманию мира. Значит, семантика обрабатываемых объектов не имеет отношения к системе, понимающей мир? Разве CRA просто не имеет отношения к поиску ИИ мыслящей машины?

Центральное место в аргументе Серла о китайской комнате занимает его заявление о том, что комната обладает семантическими свойствами электронного цифрового компьютера. -- Перестал читать здесь. Компьютеры СИНТАКТИЧЕСКИ. Они не имеют семантических свойств. Семантика предоставляется людьми вне компьютера. Комната не имеет семантических свойств, в этом вся суть спора.
@ user4894, «компьютеры синтаксичны» верно только для особого (хотя и повсеместного) случая полностью программируемых UTM в отношении их номинальных (непрограммных) входных данных. UTM-обработка входных данных их программы выходит за рамки чистой формальности (формы) (например, «+» против «-», см. [1]). Общая обработка ТМ также может выходить за рамки чисто формальной обработки. Знакомство с программированием омрачает общее понимание ТМ. [1]: Философия.stackexchange.com /questions/34358/…
Фил-132: Машина Тьюринга по существу синтаксическая...
Вы, кажется, путаете представления с тем, что они представляют. Напряжения в компьютерах представляют собой цифры, которые имеют внешнюю семантику, так же как каракули на бумаге в китайской комнате представляют китайские иероглифы, принципиальной разницы нет. А сенсорный аппарат человека можно легко усилить с помощью вольтметра, чтобы он воспринимал уровни напряжения, так что обе части аргумента не работают.
Для пользователя 4894: Мой главный аргумент в том, что китайская комната — это не компьютер. Несмотря на то, что он реагирует только на синтаксис обрабатываемых вещей (на формы китайских идеограмм), эти идеограммы на самом деле имеют внешнюю семантику. Наблюдатель придавал им значение. Серл говорит, что компьютеры также обрабатывают объекты с внешней семантикой, но это неверно. Это семантическое различие между комнатой и компьютерами кажется действительно интересным, потому что кажется, что вещи, которые обрабатывает мозг, также лишены какой-либо семантики, так откуда мозг берет свою семантику?
Филу_132. Разве Ньюэлл и Саймон (гипотеза системы физических символов) не говорили что-то вроде того, что воздействие на аппаратное обеспечение программных символов является своего рода семантикой? Таким образом, когда символ P0 (означающий «Печать 0 в квадрате, находящемся под головой») фактически печатает 0, реакция машины на символ P0 является значением символа для машины? Но проблема в том, что все эти «значения» являются внутренними и не имеют отношения к внешнему миру.
Для Conifold вы говорите, что напряжения представляют собой цифры. Я согласен, что числительные обозначают числа (например, 3 и III представляют одно и то же число, являющееся понятием), а формы числительных 3 и III имеют внешнюю семантику (а именно одно и то же понятие, или значение). Но говоря, что напряжения представляют собой цифры, вы говорите, что значение одного свойства (напряжения) представляет значение другого свойства (формы). Но это не представление, это его назначение. На бумаге каракули разные. Каждая попадает в диапазон форм, диапазон которых представляет собой абстрактную сущность: китайский иероглиф.
Что касается второй части комментария Конифолда, я понимаю, что человек может посмотреть на вольтметр и увидеть уровень напряжения (на самом деле цифровой осциллограф может отображать логические уровни того, что происходит в проводе или шине). Но я прямо сравнивал китайскую комнату с ЭВМ. Люди могут видеть китайские символы и придавать значения их формам. Люди не могут «видеть» или каким-либо другим образом напрямую воспринимать то, что обрабатывают компьютеры. По крайней мере, с китайской комнатой снаружи находится куча семантики, которая, как можно предположить, может как-то проникнуть внутрь. А вот с компьютерами - нет такого.
Я, как человек, часто не имею ни малейшего представления о «семантическом значении, придаваемом другими людьми» изображениям, которые я вижу, и звукам, которые слышу.
Наблюдатель придавал им значение. Серл говорит, что компьютеры также обрабатывают объекты с внешней семантикой, но это неверно. -- Нет, это верно. Компьютер переворачивает биты в соответствии с заранее написанными правилами. Люди интерпретируют переворот битов как электронную коммерцию, кошачьи видео, электронные деньги, онлайн-дискуссионные форумы. Все, что делает компьютер, — это переворачивает биты.
Образцы 0-1 в магнитной памяти также образуют отдельные «формы», и я не понимаю, как тот факт, что мы можем видеть зубчатые колеса невооруженным глазом, делает механические арифмометры в принципе отличными от электронных компьютеров. Означает ли это, что слепые люди имеют «значения», отличные от всех нас? А людям с плохим зрением разрешены ли очки? Микроскопы, телескопы? Электронные микроскопы, радиотелескопы? Принтеры преобразовывают напряжение в каракули, они машины, дающие смысл? Я просто не вижу разумного способа провести различие, которое вы пытаетесь провести.
В ответ на первоначальный комментарий пользователя 4894 (компьютеры являются СИНТАКТИЧЕСКИМИ), возможно, вместо того, чтобы говорить ... семантические свойства электронного цифрового компьютера ... я должен был сказать ... семантические свойства того, что обрабатывают электронные компьютеры ... . Так было бы понятнее (но тогда я объясню, что я имею в виду). И все же действительно важный вопрос: являются ли компьютеры чисто синтаксическими? Серл говорит: Да , конечно. Но есть сильный аргумент (на мой взгляд), что они не являются чисто синтаксическими, потому что они могут делать больше, чем просто реагировать на синтаксис.
Комментарий пользователя 4894 о переворачивании битов. Я не очень хорошо это объясняю, но, насколько я понимаю, все, что есть в компьютере, это уровни напряжения. У него нет битов. Он не обрабатывает 0 и 1. Он обрабатывает тактовую разность потенциалов. Люди вне машины просто присваивают эти уровни электронного толчка вещам, которые люди могут видеть (0 и 1). Это сопоставление уровня с цифрой является внешним по отношению к машине. Сама машина переворачивает синхронизированные уровни напряжения. В китайской комнате ЦП переворачивает китайские символы. Но компьютер переключает уровни напряжения. Это решает проблему?
Последний комментарий Re Conifold, в котором говорится, что заявленная семантическая разница между китайской комнатой и электронными компьютерами не установлена. Предположим, что создание значения представляет собой трехчленное отношение: X дает Y к Z. X — это человек-наблюдатель, Z к Серлу — это форма, а Y — это значение. Процесс создания экземпляра отношения таков: (1) X воспринимает Z, (2) X устанавливает нейронную связь в мозгу X между представлением Z (RZ) и значением Y (в основном другими представлениями). Если Z = синхронизируемый уровень напряжения, (RZ) не может существовать, поскольку люди не могут воспринимать синхронизированные уровни напряжения. Шаг (1) не может произойти.
Чтобы пользователи были уведомлены о ваших комментариях, правильный формат — @username в начале комментария. К сожалению, переписывание вашей идеи по шагам не делает ее более правдоподобной. Зрение предполагает сложную обработку электромагнитных волн внутри тела, добавление к этому внешних устройств не имеет существенного значения. Так что либо вообще ничего не «воспринимается», либо ваше различение не работает. Вам нужно переосмыслить свои фоновые понятия, особенно значение и его отношение к восприятию, в настоящее время они неясны, и вы бесполезно повторяетесь, когда вас просят уточнить.
@Конифолд. Это довольно сложно объяснить. Под «значением» (в данном контексте) я подразумеваю нервную структуру внутри мозга. Под «восприятием» я подразумеваю ментальный процесс активизации внутреннего представления (также нейронной структуры) внешнего объекта или качества объекта (например, определенной формы). Биология зрения не имеет значения. Я изложу посылки и вывод в качестве формального аргумента.
Там действительно должен быть "китайский чат", куда можно в любой момент зайти и поспорить о китайской комнате.

Ответы (3)

Следующее утверждение и остальная часть того, что вы заявили, рассматривает компьютер только как электронный. Но компьютер может быть лентой с напечатанными на ней символами и механизмом, который считывает каждый символ, что вместе с таблицей поиска заставляет компьютер перемещать ленту и, возможно, читать или записывать другой символ. И ваш электронный компьютер с электронной сигнализацией, и магнитофон (машина Тьюринга) эквивалентны. Последнее можно наблюдать «непосредственно».

Я не могу ответить на остальную часть вашего вопроса, но ваша предпосылка неверна, если я правильно ее понимаю.

В этом разница. Это невозможно. Наблюдатель может воспринимать форму и придавать ей значение, но никто не может воспринимать синхронизируемый уровень напряжения и придавать ему значение, потому что ни у одного человека нет сенсорного аппарата, чтобы воспринимать синхронизируемый уровень напряжения. Другими словами, вещи, которые обрабатывает китайская комната, имеют и внешнюю семантику, но вещи, которые не обрабатываются компьютерами.

Если я понимаю ваш ответ, вы говорите, что, поскольку электронные компьютеры эквивалентны машинам Тьюринга, все, что верно для машины Тьюринга, также верно и для электронного компьютера. Могу ли я ответить, что эта эквивалентность , как я ее понимаю, является вычислительной, а не семантической концепцией эквивалентности, но мои аргументы касаются семантических свойств. Кроме того, удивительно, что ни одна из машин Тьюринга 1936 года после запуска не позволяет вводить данные. Но, скажем, поступает ввод, и в квадрате волшебным образом появляется символ. Что происходит тогда? Компьютеры могут справиться с этим, но могут ли машины Тьюринга?
@Roddus, как вы, возможно, знаете, TM, который запрещает ввод после запуска, эквивалентен формальной системе . Это было важно для программы Гильберта , модной в то время, и, в частности, это было нужно для решения Entscheidungsproblem . Добавление ввода в ТМ меняет ее формальную систему (равносильно добавлению новой аксиомы в ФС). Это превращает типичные компьютеры в управляемые вводом последовательности формальных систем, вот почему геделевские атаки на вычислительную технику не достигают цели .
@Фил_132. Спасибо. Я смотрел на ТМ с точки зрения ввода как восприятия. В своей статье 1950 года о машинном интеллекте Тьюринг не объясняет восприятие (он, что любопытно, пропагандирует экстрасенсорное восприятие). Почему? Есть ли какая-то фундаментальная причина, по которой вычисления не могут объяснить восприятие? (Я думал, что ответ был « Да » .) Скажем, символ волшебным образом появляется в квадрате. Что делать, если операция сканирования не может его идентифицировать? Это то, на что я смотрел.

Значит, семантика обрабатываемых объектов не имеет отношения к системе, понимающей мир?

Когда я прочитал это, я понял это. Как?

Для меня обрабатываемые объекты были фотонами с экрана моего компьютера, попадающими на клетки моей сетчатки. Эти фотоны не содержали никакой «семантики».

Однако их физические свойства и конфигурация были далеко не случайны. В первую очередь их определила семантика в вашей голове (основанная на человеческом и техническом фундаменте).

Этого физического сигнала было достаточно, чтобы вызвать в моей голове (1) символическое представление, за которым последовала (2) синтаксическая и семантическая интерпретация (все основанные на аналогичной основе), которая, надеюсь, достаточно близка к той, которую задумала ваша голова (хотя, конечно, не идентичны).

Семантика не заключается в передаваемых токенах (сигналах). Она заключается в (более или менее общей) структуре, функции и содержании (памяти) машин, выполняющих формулировку и интерпретацию.

Разве CRA просто не имеет отношения к поиску ИИ мыслящей машины?

Во многом да. Это научно бессодержательно. Это в первую очередь социальное явление (да!), К сожалению, оно генерирует гораздо больше тепла, чем света. Тем не менее, в соответствии с его первоначальной мотивацией как критика подходов символического ИИ 1970-х годов к обработке языка, он мог бы иметь некоторую ценность для привлечения внимания к необходимости лучшего понимания семантики и ее связи с вычислениями.


РЕДАКТИРОВАТЬ (доработка, на основе комментариев)

@Roddus, Ваш комментарий...

@Конифолд. Это довольно сложно объяснить. Под «значением» (в данном контексте) я подразумеваю нервную структуру внутри мозга. Под «восприятием» я подразумеваю ментальный процесс активизации внутреннего представления (также нейронной структуры) внешнего объекта или качества объекта (например, определенной формы). Биология зрения не имеет значения. Я изложу посылки и вывод в качестве формального аргумента.

... примерно таков мой ответ: смысл внутренне конструируется (или формулируется) из внешних физических конструкций или событий, которые сами по себе бессмысленны, но решительно не произвольны.

Однако то, что считается «значимыми стимулами», объективно определить невозможно . Скорее, в глазах смотрящего. Если мы согласны с тем, что снять очки означает купить , а почесать подбородок означает продать , то это значимые сигналы для нас, но ни для кого другого.

Таким образом, являются ли узоры чернил на бумаге, фотоны с дисплея или напряжения транзисторов «законными семантическими репрезентациями», это не является ни истинным, ни ложным. Это зависит от потенциальных переводчиков, их возможностей и контекста.

Вы говорите: «Семантика заключается не в передаваемых токенах (сигналах), [но] в структуре, функциях и содержании (памяти) машин ...». Это кажется правильным. Семантика — это структура, включающая в себя содержание и алгоритмы, которые бегают внутри нее. Интересно, что Серл называет корзины с китайскими иероглифами «базами данных», а символы, входящие в комнату, «связками» (Scientific American, 1990 и в других источниках). Но базы данных — это символы плюс отношения; вход - это поток временных отношений. Серл никогда не говорит об отношениях. Невероятно, но он никогда не обращается к структуре. (Может быть, структура = семантика.)

Экстерналистские взгляды на семантику означают, что значение есть то, чем оно является, независимо от нашего внутреннего восприятия вещей. Мы не можем «формировать» реальность с помощью нашего языка, скорее, наш язык должен соответствовать свидетельству того, что такое реальность. Я думаю, правдоподобно сказать, что наш язык создает модель реальности. Неизвестно, полностью ли он отражает свою внешнюю и внутреннюю природу. Неизвестно, подведут ли нас наши чувства и не сможем ли мы получить доступ к конечной природе реальности. Мы должны использовать самые рациональные аргументы, чтобы определить, так ли это, и использовать лучшие доказательства и инструменты под рукой, чтобы оправдать эти убеждения о реальности.

Если компьютер был запрограммирован на моделирование теории семантики, как и люди, какая разница? Если он был запрограммирован давать правильные ответы на эти вопросы и отвечать так, как вы ожидаете от человека, то что тогда? Китайская комната должна показать, насколько сильный ИИ невозможен. Сильный ИИ — это человекоподобный ИИ, который думает или реагирует, как настоящий человек, и на самом деле «знает», что это так (независимо от того, о чем может говорить компьютер: философия, наука, искусство и т. д.).

Поскольку участник (не понимающий по-китайски) в китайской комнате на самом деле не понимает по-китайски, можем ли мы сказать, что ИИ действительно «понимает», что он говорит? Или комната «знает» китайский, подобно тому, как вся компьютерная система «знает» значение того, что она говорит. Например, размышление о самой комнате так же важно для определения того, кто или что понимает по-китайски, как и при рассмотрении участника, который не понимает по-китайски. Кто-то должен был сделать эти карточки со всеми китайскими иероглифами и ответами на них в первую очередь. Таким образом, создатель комнаты является такой же частью комнаты, как и человек, который не понимает по-китайски. Однако именно поэтому утверждается, что человек, говорящий по-китайски, но не понимающий ни слова, не

ИИ, сильный ИИ, который может показать, что он действительно «знает», что говорит, не важен для прохождения теста Тьюринга. Пока он выглядит так и неотличим от человеческого аналога, это не имеет большого значения. Однако это приводит к размышлениям о том, может ли компьютер стать сознательным. Как мы знаем, это может происходить только в живых организмах. Сознание (если оно существует) является эмерджентным свойством законов физики, химии, эволюции и биологии. Можно ли смоделировать атом за атомом, нейрон за нейроном на компьютере — это другой вопрос.

Я думаю, что у нас много лет, чтобы узнать это, если мы когда-нибудь это сделаем. Но я не верю, что просто программное обеспечение может думать как человек, даже если оно делает чрезвычайно убедительную работу, что оно может думать как мы. Человек должен дать компьютеру его исходные аксиомы, правила, ограничения и программирование. Несмотря на то, что компьютер может переписать их, он все еще ограничен этим. Он не может «воссоздать» себя так, как это можем сделать мы. Воображая возможности, даже если сама вселенная подчиняется детерминистским законам. Преднамеренность в системе ИИ ограничена исходной архитектурой, с которой работает программное обеспечение. ИИ может быть «творческим» и оценивать эстетику с учетом предыдущих наборов данных, и он может задавать вопросы, основанные на каком-то алгоритме, но он никогда не будет делать это без подсказки или без просьбы, как думает человеческий мозг. Мы не У нас не должно быть какой-либо причины или логического импульса, подталкивающего нас к размышлению о чем-то (эмоции, интуиция, воображение или инстинкт могут подтолкнуть нас к размышлению). Кажется, что эти мысли возникают спонтанно, хотя законы природы могли предопределить это.

Кремниевые машины просто не сделаны из того же «вещества», что и мы. Возможно, однажды мы сможем смоделировать человеческий мозг на компьютере, но будет ли это означать, что он будет сознательным? Опять же, чтобы это произошло, из этой комбинации аппаратного и программного обеспечения должно появиться что-то похожее на человеческое или животное сознание. Сейчас это кажется эмпирически невозможным, поскольку мы не думаем, что это может произойти. Компьютеры не «живые», как биологические разумные существа (нет ДНК, клеток, нейронов), даже если они могут вести себя как они. Возможно, слияние живых синтетических клеток и компьютерного оборудования, использующего программное обеспечение для логической обработки, станет единственным способом достижения сингулярности ИИ. Но без биологического компонента мыслящая машина никогда не сможет думать, как человек. Кремниевые чипы, транзисторы, оборудование, схемы, электричество и магнетизм функционально отличаются от возникающих биологических свойств жизни, таких как клетки, ДНК, метаболизм, эволюция, эмоции и химия мозга. Из-за этого ИИ всегда будет отличаться от других. Оно будет думать по-своему. Вероятно, лучше людей во многих, если не во всех отношениях, но не во всех.

Инфоату. Я согласен с тем, что солипсизм должен объяснять ИИ. Я имею в виду, что настоящая разумная машина также не сможет «доказать» существование внешнего мира. Может быть, правильная теория интеллекта объяснит нам, почему разум не может доказать существование реальности. Для ТТ: конечно, классический вид ИИ — это что, пока машина проходит ТТ. Но что, если теория о том, как это сделать (вычислительный подход), ложна? Необходимые вычисления считаются неосуществимо огромными. Может быть, есть другой способ. Что касается биологии, мы не должны предполагать, что она немеханизируема.
@ Роддус правда. Когда-нибудь биология может быть механизирована (фактически создание синтетических клеток уже находится на ранних стадиях — синтез генома и искусственное деление клеток). Я также задаюсь вопросом, какие «другие» типы жизни это может когда-нибудь представлять (киборги). Но киборг по-прежнему будет иметь биологический компонент, а не чисто механический. Однако, если можно воссоздать из атома за атомом человеческий мозг, он должен быть сознательным, учитывая законы этой вселенной. Можем ли мы воспроизвести другие типы нечеловеческого или неживотного сознания (тот, который является общим продуктом человеческой инженерии), неизвестно.