Центральное место в аргументе Серла о китайской комнате занимает его заявление о том, что комната обладает семантическими свойствами электронного цифрового компьютера. В посте несколько дней назад при обсуждении семантики я утверждал, что существует фундаментальная семантическая разница. Но имеет ли это значение для завершения аргумента о китайской комнате?
Разница заключается во внешней семантике. Китайские символы попадают в комнату через щель в двери. Без ведома Сирла, ЦП, их формам были приданы значения или интерпретации («семантика») наблюдателями за пределами комнаты. Сирл, который не знает китайского, получает только форму. Ничто в форме не указывает на ее значение. Нет внутренней семантики, но есть внешняя , или внешняя, семантика.
Китайская комната должна быть компьютером, пытающимся быть разумом. Но что происходит в реальном электронном устройстве? Вход в компьютер представляет собой последовательность синхронизированных уровней напряжения, а не китайские иероглифы. Уровни тактового напряжения поступают в компьютер извне. Неизвестный Сирлу, ЦП, их уровням напряжения были присвоены значения наблюдателями за пределами комнаты.
В этом разница. Это невозможно. Наблюдатель может воспринимать форму и придавать ей значение, но никто не может воспринимать синхронизируемый уровень напряжения и придавать ему значение, потому что ни у одного человека нет сенсорного аппарата, чтобы воспринимать синхронизируемый уровень напряжения. Другими словами, вещи, которые обрабатывает китайская комната, имеют и внешнюю семантику, но вещи, которые не обрабатываются компьютерами. Это фундаментальное семантическое различие между китайской комнатой и компьютерами. Но имеет ли это какое-то значение для вывода аргумента о китайской комнате?
Вещи, которые обрабатывают компьютеры, вообще не имеют семантики (ни внутренней, ни внешней), так что насчет мозгов? Они обрабатывают в основном одинарные электрические импульсы. Людям также не хватает сенсорного аппарата для их восприятия. А как насчет дочеловеческих времен, когда не было никого, кто пытался бы приписать внешнюю семантику нервным импульсам? Нейронные импульсы также не имеют внешней или внутренней семантики. Но мозги понимают мир. Биологический мозг доказывает, что система, обрабатывающая семантически пустые объекты, может прийти к пониманию мира. Значит, семантика обрабатываемых объектов не имеет отношения к системе, понимающей мир? Разве CRA просто не имеет отношения к поиску ИИ мыслящей машины?
Следующее утверждение и остальная часть того, что вы заявили, рассматривает компьютер только как электронный. Но компьютер может быть лентой с напечатанными на ней символами и механизмом, который считывает каждый символ, что вместе с таблицей поиска заставляет компьютер перемещать ленту и, возможно, читать или записывать другой символ. И ваш электронный компьютер с электронной сигнализацией, и магнитофон (машина Тьюринга) эквивалентны. Последнее можно наблюдать «непосредственно».
Я не могу ответить на остальную часть вашего вопроса, но ваша предпосылка неверна, если я правильно ее понимаю.
В этом разница. Это невозможно. Наблюдатель может воспринимать форму и придавать ей значение, но никто не может воспринимать синхронизируемый уровень напряжения и придавать ему значение, потому что ни у одного человека нет сенсорного аппарата, чтобы воспринимать синхронизируемый уровень напряжения. Другими словами, вещи, которые обрабатывает китайская комната, имеют и внешнюю семантику, но вещи, которые не обрабатываются компьютерами.
Значит, семантика обрабатываемых объектов не имеет отношения к системе, понимающей мир?
Когда я прочитал это, я понял это. Как?
Для меня обрабатываемые объекты были фотонами с экрана моего компьютера, попадающими на клетки моей сетчатки. Эти фотоны не содержали никакой «семантики».
Однако их физические свойства и конфигурация были далеко не случайны. В первую очередь их определила семантика в вашей голове (основанная на человеческом и техническом фундаменте).
Этого физического сигнала было достаточно, чтобы вызвать в моей голове (1) символическое представление, за которым последовала (2) синтаксическая и семантическая интерпретация (все основанные на аналогичной основе), которая, надеюсь, достаточно близка к той, которую задумала ваша голова (хотя, конечно, не идентичны).
Семантика не заключается в передаваемых токенах (сигналах). Она заключается в (более или менее общей) структуре, функции и содержании (памяти) машин, выполняющих формулировку и интерпретацию.
Разве CRA просто не имеет отношения к поиску ИИ мыслящей машины?
Во многом да. Это научно бессодержательно. Это в первую очередь социальное явление (да!), К сожалению, оно генерирует гораздо больше тепла, чем света. Тем не менее, в соответствии с его первоначальной мотивацией как критика подходов символического ИИ 1970-х годов к обработке языка, он мог бы иметь некоторую ценность для привлечения внимания к необходимости лучшего понимания семантики и ее связи с вычислениями.
РЕДАКТИРОВАТЬ (доработка, на основе комментариев)
@Roddus, Ваш комментарий...
@Конифолд. Это довольно сложно объяснить. Под «значением» (в данном контексте) я подразумеваю нервную структуру внутри мозга. Под «восприятием» я подразумеваю ментальный процесс активизации внутреннего представления (также нейронной структуры) внешнего объекта или качества объекта (например, определенной формы). Биология зрения не имеет значения. Я изложу посылки и вывод в качестве формального аргумента.
... примерно таков мой ответ: смысл внутренне конструируется (или формулируется) из внешних физических конструкций или событий, которые сами по себе бессмысленны, но решительно не произвольны.
Однако то, что считается «значимыми стимулами», объективно определить невозможно . Скорее, в глазах смотрящего. Если мы согласны с тем, что снять очки означает купить , а почесать подбородок означает продать , то это значимые сигналы для нас, но ни для кого другого.
Таким образом, являются ли узоры чернил на бумаге, фотоны с дисплея или напряжения транзисторов «законными семантическими репрезентациями», это не является ни истинным, ни ложным. Это зависит от потенциальных переводчиков, их возможностей и контекста.
Экстерналистские взгляды на семантику означают, что значение есть то, чем оно является, независимо от нашего внутреннего восприятия вещей. Мы не можем «формировать» реальность с помощью нашего языка, скорее, наш язык должен соответствовать свидетельству того, что такое реальность. Я думаю, правдоподобно сказать, что наш язык создает модель реальности. Неизвестно, полностью ли он отражает свою внешнюю и внутреннюю природу. Неизвестно, подведут ли нас наши чувства и не сможем ли мы получить доступ к конечной природе реальности. Мы должны использовать самые рациональные аргументы, чтобы определить, так ли это, и использовать лучшие доказательства и инструменты под рукой, чтобы оправдать эти убеждения о реальности.
Если компьютер был запрограммирован на моделирование теории семантики, как и люди, какая разница? Если он был запрограммирован давать правильные ответы на эти вопросы и отвечать так, как вы ожидаете от человека, то что тогда? Китайская комната должна показать, насколько сильный ИИ невозможен. Сильный ИИ — это человекоподобный ИИ, который думает или реагирует, как настоящий человек, и на самом деле «знает», что это так (независимо от того, о чем может говорить компьютер: философия, наука, искусство и т. д.).
Поскольку участник (не понимающий по-китайски) в китайской комнате на самом деле не понимает по-китайски, можем ли мы сказать, что ИИ действительно «понимает», что он говорит? Или комната «знает» китайский, подобно тому, как вся компьютерная система «знает» значение того, что она говорит. Например, размышление о самой комнате так же важно для определения того, кто или что понимает по-китайски, как и при рассмотрении участника, который не понимает по-китайски. Кто-то должен был сделать эти карточки со всеми китайскими иероглифами и ответами на них в первую очередь. Таким образом, создатель комнаты является такой же частью комнаты, как и человек, который не понимает по-китайски. Однако именно поэтому утверждается, что человек, говорящий по-китайски, но не понимающий ни слова, не
ИИ, сильный ИИ, который может показать, что он действительно «знает», что говорит, не важен для прохождения теста Тьюринга. Пока он выглядит так и неотличим от человеческого аналога, это не имеет большого значения. Однако это приводит к размышлениям о том, может ли компьютер стать сознательным. Как мы знаем, это может происходить только в живых организмах. Сознание (если оно существует) является эмерджентным свойством законов физики, химии, эволюции и биологии. Можно ли смоделировать атом за атомом, нейрон за нейроном на компьютере — это другой вопрос.
Я думаю, что у нас много лет, чтобы узнать это, если мы когда-нибудь это сделаем. Но я не верю, что просто программное обеспечение может думать как человек, даже если оно делает чрезвычайно убедительную работу, что оно может думать как мы. Человек должен дать компьютеру его исходные аксиомы, правила, ограничения и программирование. Несмотря на то, что компьютер может переписать их, он все еще ограничен этим. Он не может «воссоздать» себя так, как это можем сделать мы. Воображая возможности, даже если сама вселенная подчиняется детерминистским законам. Преднамеренность в системе ИИ ограничена исходной архитектурой, с которой работает программное обеспечение. ИИ может быть «творческим» и оценивать эстетику с учетом предыдущих наборов данных, и он может задавать вопросы, основанные на каком-то алгоритме, но он никогда не будет делать это без подсказки или без просьбы, как думает человеческий мозг. Мы не У нас не должно быть какой-либо причины или логического импульса, подталкивающего нас к размышлению о чем-то (эмоции, интуиция, воображение или инстинкт могут подтолкнуть нас к размышлению). Кажется, что эти мысли возникают спонтанно, хотя законы природы могли предопределить это.
Кремниевые машины просто не сделаны из того же «вещества», что и мы. Возможно, однажды мы сможем смоделировать человеческий мозг на компьютере, но будет ли это означать, что он будет сознательным? Опять же, чтобы это произошло, из этой комбинации аппаратного и программного обеспечения должно появиться что-то похожее на человеческое или животное сознание. Сейчас это кажется эмпирически невозможным, поскольку мы не думаем, что это может произойти. Компьютеры не «живые», как биологические разумные существа (нет ДНК, клеток, нейронов), даже если они могут вести себя как они. Возможно, слияние живых синтетических клеток и компьютерного оборудования, использующего программное обеспечение для логической обработки, станет единственным способом достижения сингулярности ИИ. Но без биологического компонента мыслящая машина никогда не сможет думать, как человек. Кремниевые чипы, транзисторы, оборудование, схемы, электричество и магнетизм функционально отличаются от возникающих биологических свойств жизни, таких как клетки, ДНК, метаболизм, эволюция, эмоции и химия мозга. Из-за этого ИИ всегда будет отличаться от других. Оно будет думать по-своему. Вероятно, лучше людей во многих, если не во всех отношениях, но не во всех.
пользователь4894
Фил_132
Мозибур Улла
Конифолд
Роддус
Роддус
Роддус
Роддус
пользователь6559
пользователь4894
Конифолд
Роддус
Роддус
Роддус
Конифолд
Роддус
Тим Кинселла