Почему программа или ИИ не могут иметь семантическое понимание?

относительно новый для философии.

Этот вопрос основан на «Аргументе китайской комнаты» Джона Серла .

Я нахожу странным, что его главный аргумент в пользу того, почему программы не могут думать, заключался в том, что программы могли следовать только правилам синтаксиса, но не могли связывать какое-либо понимание или семантику со словами (или любым объектом/символом).

Этот момент кажется мне спорным (хотя я не могу его достаточно точно сформулировать). Почему Джон так уверен, что программа не может понять семантику? Действительно ли имитация семантического понимания отличается от подлинного семантического понимания?

Что говорит философия о том, действительно ли человечество однажды не сможет разработать программу, способную к семантическому пониманию? Согласно аргументу Тьюринга о том же доказательстве, если компьютер может пройти тест, мы должны предположить, что он способен понимать. Можем ли мы вообще провести различие между симулированным имитирующим пониманием и реальным пониманием?

Редактировать: вау, это действительно взорвалось. Спасибо за ответы!

Примечание:

Я задал этот вопрос отчасти потому, что представление Джона о том, как выглядит программа, кажется мне ошибочным. Он способен четко разбить и визуализировать программу (комнату) с «ядром» (человеком в комнате) посередине, которое обрабатывает входные данные и производит выходные данные.

Однако сложные алгоритмические программы не разрабатываются таким простым образом. Возьмем, к примеру, искусственные нейронные сети , которые называют «черными ящиками» из-за того, что мы не можем разбить нейронную сеть на компоненты, чтобы понять, как она решает выдавать определенные результаты. Аргумент Джона, похоже, основан на том факте, что мы можем «заглянуть» в то, как программы/алгоритмы принимают решения, когда это не обязательно верно.

Шахматные алгоритмы, такие как печально известные Deep Blue и Alpha Zero, иногда производят ходы, которые профессиональные шахматисты не учитывают. Будет ли Джон утверждать, что эти алгоритмы «не понимают шахматы?». Было бы ошибкой говорить, что программа не понимает семантики, когда она может демонстрировать творческие способности , которых может не хватать самим шахматистам-людям.

«Разве имитация семантического понимания на самом деле отличается от подлинного семантического понимания?» — вот что должен показать аргумент китайской комнаты. В чем вы не согласны с аргументом?
Вот связанный вопрос, который может вас заинтересовать Компьютеры, искусственный интеллект и эпистемология .
Добро пожаловать в философию SE! Спасибо за ваш вклад. Пожалуйста, найдите минутку, чтобы совершить экскурсию или найти помощь . Вы можете выполнить поиск здесь или получить дополнительные разъяснения на мета-сайте . Не забывайте, что когда кто-то ответил на ваш вопрос, вы можете щелкнуть стрелку, чтобы вознаградить автора, и галочку, чтобы выбрать лучший ответ.
"Что говорит философия" - слишком общий вопрос для этого сайта, энциклопедии лучше подходят для получения общего фона. См., например , SEP, «Китайская комната». Аргумент о том, что Сирл имеет в виду под «семантическим пониманием», и как это оспаривается философами, ориентированными на ИИ.
Это возможно. Семантика просто устанавливает соответствие между символом (работает как «яблоко» или «свобода» или знаками вроде «!» или красный треугольник) с другими символами (определение) или сенсорным входом (различными контекстами, в которых «яблоко " или "свобода" произносились вокруг вас). В этом нет никакой магии, и ИИ прекрасно это умеет. Текущие приложения остаются очень специализированными по сравнению с людьми, но разница заключается в степени, а не в качестве.
Эти аргументы были выдвинуты до современного понимания искусственных нейронных сетей, когда компьютеры всегда считались алгоритмическими. Любое количество взаимодействий с GPT-3 продемонстрирует изрядное семантическое понимание, а GPT-4 и т. Д. Только улучшится.
@Eugene Напротив, взаимодействие с GPT-3 демонстрирует способность имитировать семантическое понимание. Вывод Серла (весьма спорный) состоит в том, что даже совершенная имитация семантического понимания не подразумевает действительного семантического понимания.
@CharlesStaats Когда он писал, Сирл мог представить себе только заранее определенный набор входов/выходов, поэтому любое семантическое понимание было мимикрией. Нейронные сети продемонстрировали способность давать творческие результаты, выходящие за рамки их обучающих наборов данных и превосходящие человеческие возможности. Теперь мы знаем, что наш мозг — это нейронные сети, о субъективности которых мы знаем только потому, что можем описать их изнутри (в отличие от искусственных нейронных сетей, пока что), так как же можно утверждать, что один тип нейронных сетей обладает семантическим пониманием, в то время как другой другой только имитирует его?
@Eugene - Сирл не ограничивал свой аргумент программами с «заранее определенным набором входов/выходов», если вы читали раздел об «ответах» в его оригинальной статье 1980 года , под заголовком III он обсуждает «ответ симулятора мозга» включая детальное моделирование реального человеческого мозга. Он не выражает никакого скептицизма по поводу того, что такая симуляция может вести себя точно так же, как человеческий мозг, но все же считает, что его аргумент показывает, что у нее не будет понимания, поскольку сознательное существо может выполнить программу, не понимая китайского языка.
@Eugene В чем нейронные сети не алгоритмичны? Они работают на совершенно обычном оборудовании. Конечно, они алгоритмические. Вы можете создать нейронную сеть, используя бумагу и карандаш, хотя и медленно. Одна инструкция за раз. Взвешивание узлов — довольно старая техника, а нейрон МакКаллоха-Питтса появился в 1940-х годах.
@user4894 user4894 -- Не существует алгоритмов, определяющих, какой тип объединения будут выполнять нейронные сети, будь то в наших головах или на одном из наших компьютеров. Мы написали алгоритмы для обработки нейронной сети, но сама обработка нейронной сети не является алгоритмической. Обратите также внимание: если бы мы построили настоящую нейронную сеть, которая выполняла бы аналоговую обработку, как это делает наш мозг, а не моделировали нейронную сеть, как мы это делаем в настоящее время, то мы не смогли бы идентифицировать «одну инструкцию за раз», которую включает в себя реальная обработка нейронной сети. .
« Невозможно … засунуть Кадиллак себе в нос, это просто невозможно… » — Стив Мартин
@Dcleve В принципе вы можете выполнять нейронную сеть по одной инструкции за раз с помощью карандаша и бумаги. Конечно, это алгоритм. Он работает на обычном оборудовании. Нейронные сети — это не волшебство, это компьютерные программы, работающие на готовом обычном компьютерном оборудовании. Во-вторых, если бы у вас была «настоящая нейронная сеть», как вы ее называете, выполняющая аналоговую обработку, это была бы вовсе не цифровая нейронная сеть, так что вы говорите о чем-то совершенно другом. И у вас нет ни одного из них, кроме как между вашими ушами, и мы не знаем, как это работает.
@user4894 user4894 - Существуют явные различия между алгоритмическим подходом к вычислениям, когда функции идентифицируемы, характеризуемы и могут быть извлечены и проанализированы отдельно от реализации, и моделированием «нейронной сети», где выходные функции НЕ характеризуются и т. д. Эти различия хорошо понимаются в сообществе ИИ, и, поскольку ограничения глубокого обучения ИИ стали очевидными, последняя область исследований в области ИИ сосредоточена на том, как выполнить слияние обработки между этими двумя РАЗНЫМИ методами реализации ИИ. Объявление их одинаковыми — глупый догматизм.
@Dcleve Я уверен, что студенты бакалавриата CS, намеревающиеся специализироваться на ИИ, с облегчением узнают, что они не будут использовать алгоритмы. РЖУ НЕ МОГУ. Я не занимаюсь глупым догматизмом. Я выступаю против мистицизма ИИ, который утверждает, что нейронные сети не используют алгоритмы, не являются компьютерными программами, «делают то, чего мы не понимаем», что верно для 99% крупных коммерческих программ. Чтобы ясно думать об ИИ, вам нужно точно использовать слова. (продолжение...)
@Dcleve ... Нейронные сети действительно являются алгоритмами, как показывает их исходный код. Они чертовски сложны, как и глобальная цепочка поставок. Очередной набор локальных алгоритмов, глобальное поведение которых никто не понимает, но которые никто не наделяет мистикой и хайпизмом.
@ user4894 Существуют алгоритмы, описывающие уровень обучения и выполнения, но вовлеченная случайность делает результат совершенно непредсказуемым и недетерминированным, особенно если используется обычная техника двух состязательных сетей, работающих друг против друга. Первоначальный мысленный эксперимент в китайской комнате предполагал чрезвычайно большой, но все же детерминированный набор правил, т. е. алгоритмический алгоритм.
@Eugene Нейронные сети просто не случайны и не недетерминированы. Они работают на обычном оборудовании. На уровне ядра процессора они выполняют по одной машинной инструкции, одну за другой, в принципе ничем не отличаясь от «Hello world». Наверняка вы должны это знать. Непредсказуемость — это не то же самое, что недетерминированность. Подбрасывание монеты непредсказуемо, но совершенно детерминировано в зависимости от силы и угла подбрасывания, давления воздуха и т. д. Ничего общего с китайской комнатой. Просто опровергаю этот мистицизм о том, что нейронные сети не являются алгоритмами и не являются детерминированными.
@Eugene Случайный поиск дал это: phoenixite.com/are-neural-networks-stochastic-or-deterministic Являются ли нейронные сети детерминированными? Ответ на этот вопрос довольно прост; после обучения внутренняя работа нейронной сети становится детерминированной, а не стохастической. Нейронные сети являются стохастическими до того, как они обучены. Они становятся детерминированными после обучения. Обучение устанавливает в сеть правила, которые предписывают ее поведение, поэтому необученная модель демонстрирует противоречивое поведение. Обучение создает четкие шаблоны решений в сети.
@Eugene Нейронные сети представляют собой серию алгоритмов [выделено мной] с невероятной способностью извлекать смысл из неточных или сложных данных, а также находить закономерности и обнаруживать тенденции, запутанные для нескольких компьютерных технологий. Я уверен, что это подтвердят и другие источники, поскольку все компьютерные программы, работающие на обычном (не квантовом) оборудовании, детерминированы. Кто вообще может утверждать обратное? В наших машинах нет призраков.
@ user4894 хороший тест на то, является ли что-то детерминированным, - это если вы можете предсказать результат с учетом входных данных. Если вы когда-нибудь попробуете нейтральные сети генерации изображений или текста, вы увидите, что вы можете повторить один и тот же ввод буквально 1000+ раз (пробовали из любопытства) и получить связанные, но все же совершенно разные результаты. Если у вас есть копия нейтральной сети, за исключением принудительной неслучайной генерации, вы вообще не можете предсказать, какой результат она будет генерировать для данного входа. Это настолько стохастично, насколько вы понимаете.
@ user4894 Я нашел автора статьи, на которую вы ссылаетесь, в LinkedIn, linkedin.com/mwlite/in/zachary-gene-botkin-a05b341b2 , он аналитик изображений в стартапе, предоставляющем данные для классификации изображений ИИ, поэтому он пропустил лес. для деревьев. Нейронные сети классификации изображений ЯВЛЯЮТСЯ детерминированными, если вы подадите им один вход 1000 раз, он каждый раз скажет вам, что это кошка с уверенностью 97,86 ÷, но он обобщил это на все металлические сети, включая генеративные, что совершенно неверно.
@Eugene «хороший тест на то, является ли что-то детерминированным, - это если вы можете предсказать результат с учетом входных данных». Полностью ложный. Подбрасывание монеты детерминировано, но непредсказуемо. Вся теория хаоса посвящена детерминированным, но непредсказуемым вещам. Это неподходящее место, чтобы вдаваться во все остальное, но вы просто ошибаетесь. Нейронная сеть в конечном итоге выполняет машинные инструкции одну за другой детерминированным образом. Если вы считаете, что ядро ​​ЦП само решает сделать что-то отличное от того, на что оно запрограммировано, исходя из выполняемого им высокоуровневого кода, оно возвращается к CS 101 для вас.

Ответы (17)

Я нахожу странным, что его главный аргумент в пользу того, почему программы не могут думать, заключался в том, что программы могли следовать только правилам синтаксиса, но не могли связывать какое-либо понимание или семантику со словами (или любым объектом/символом).

Это был скорее его вывод, чем аргумент. Его фактический аргумент по поводу мысленного эксперимента в китайской комнате заключался в том, что если комната занята сознательным агентом, который вполне способен к семантическому пониманию, как человек, и он должен вручную выполнять синтаксические правила китайскоязычной программы ( или по памяти), тем не менее им не хватало семантического понимания китайского языка. Например, в статье SEP о Китайской комнате , на которую вы ссылаетесь, цитируется Сирл, дающий краткое изложение аргумента в 1999 году, где он говорит (выделено мной):

Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, представляют собой вопросы на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.

И он цитирует более позднее заявление 2010 года, в котором он сказал:

Система, я, например, не смогла бы понять китайский, просто выполняя шаги компьютерной программы, имитирующей поведение говорящего по-китайски.

Я также нашел его оригинальную статью 1980 года на эту тему в Интернете здесь , где он представил, что он был носителем английского языка в комнате, отвечая на вопросы на английском естественным образом, а отвечая на китайские вопросы на основе ручного моделирования сложной компьютерной программы, и его аргумент был основан на контрасте между его собственным пониманием в первом случае и его непониманием во втором:

Теперь утверждения сильного ИИ заключаются в том, что запрограммированный компьютер понимает истории и что программа в некотором смысле объясняет человеческое понимание. Но теперь мы можем изучить эти утверждения в свете нашего мысленного эксперимента.

  1. Что касается первого утверждения, то на примере мне кажется совершенно очевидным, что я не понимаю ни слова в китайских сказках. У меня есть входы и выходы, которые неотличимы от носителей китайского языка, и я могу иметь любую формальную программу, которую вы хотите, но я все равно ничего не понимаю. По тем же причинам компьютер Шэнка ничего не понимает ни в каких историях, будь то на китайском, английском или каком-либо другом языке, поскольку в китайском случае компьютер — это я, а в случаях, когда компьютер — это не я, компьютер не имеет ничего, кроме того, что есть у меня. в том случае, когда я ничего не понимаю.

  2. Что касается второго утверждения, что программа объясняет человеческое понимание, то мы видим, что компьютер и его программа не обеспечивают достаточных условий для понимания, поскольку компьютер и программа функционируют, а понимания нет. Но обеспечивает ли это хотя бы необходимое условие или существенный вклад в понимание? Одно из утверждений сторонников сильного ИИ заключается в том, что, когда я понимаю историю на английском языке, то, что я делаю, точно так же — или, возможно, в большей степени — как то, что я делал, манипулируя китайскими символами. Это просто более формальное манипулирование символами, которое отличает падеж в английском, где я понимаю, от падежа в китайском, где я не понимаю.

Философы по-разному отреагировали на этот аргумент, которые не находят его убедительным, см. Раздел 4 статьи SEP. Я думаю, что наиболее убедительным опровержением является «системный ответ», который в основном говорит о том, что границы «систем» несколько произвольны и что данная именованная физическая система может иметь несколько вычислительных подпроцессов, происходящих внутри нее, которые могут быть достаточно независимы, чтобы каждый из них мог иметь индивидуальное семантическое понимание определенных вещей и все же не иметь понимания вещей, которые понимает другой подпроцесс. Чтобы выбрать крайний случай, представьте себе некий инопланетный вид, который от природы двуглавый, с независимым мозгом, между которыми нет нейронных связей, хотя оба мозга можно считать частью единой биологической «системы». мы не удивимся, если один мозг сможет понять что-то (скажем, китайский язык), чего другой не знает. И даже если бы былинекоторые нейронные связи между ними, они могут иметь неправильную конфигурацию, чтобы гарантировать, что концептуальное понимание высокого уровня любой произвольной темы обязательно разделяется обоими мозгами.

Вот Дэвид Чалмерс, приводящий такой аргумент на с. 326 его книги «Сознательный разум» , где агентом внутри комнаты является «демон», который может обладать способностями к запоминанию, намного превосходящими возможности реального человека:

Серл также приводит версию аргумента, в которой демон запоминает правила вычислений и реализует программу внутри себя. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но мы можем представить, что демон с модулем суперпамяти мог бы запомнить все правила и состояния всех символов. В этом случае мы снова можем ожидать, что система порождает сознательные переживания, которые не являются переживаниями демона. Сирл утверждает, что у демона должен быть опыт, если у кого-то есть, поскольку вся обработка является внутренней для демона, но вместо этого это следует рассматривать как пример двух ментальных систем, реализованных в одном и том же физическом пространстве. Организация, порождающая китайские переживания, совершенно отлична от организации, порождающей переживания демона. Организация понимания китайского языка заключается в причинно-следственных связях между миллиардами мест в модуле суперпамяти; еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона. еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона. еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона.

на практике люди не могут запомнить даже сто .. символов - я, должно быть, неправильно понял это, потому что нам даже не нужно обсуждать достаточно хорошо образованного китайца, знающего тысячи символов; Я бы сказал, что средний двухлетний ребенок может идентифицировать более 100 различных изображений основных животных, предметов домашнего обихода и т. д.
на практике люди не могут запомнить и сотни правил и символов . Я не очень образованный китаец, и тем не менее я запомнил прописные и строчные латинские буквы, цифры, математические символы, большинство прописных и строчных греческих букв, несколько кириллических букв. буквы, некоторые дорожные знаки и другие абстрактные значки, вся хирагана и катакана, несколько сотен кандзи и десятки грамматических правил, правил дорожного движения, правил вежливости и правил на нескольких языках программирования. Наверняка несколько хорошо образованных китайцев знают все это плюс 5000+ идеограмм. :-)
@CaiusJard Re: средний двухлетний ребенок может идентифицировать более 100 различных значков [...] Хотя (удивительно) верно, ваши примеры - это не абстрактные значки, а изображения вещей. Для абстрактных символов, таких как буквы «запрещено», «биологическая опасность» и так далее, это сложнее.
Да, но действительно, какая разница между абстрактным и конкретным для двухлетнего ребенка? Покажите им ❤️ они говорят "сердце", хотя никогда на самом деле не видели сердца, и если вы подтолкнули их к прилавку с мясом в местном магазине, это выглядит совсем не так. Я не обязательно согласен с тем, что «запрещенное» или «биологическая опасность» (не говоря уже о сложностях произношения) ребенку будет значительно труднее запомнить, чем что-либо еще, с чем он никогда не сталкивался. Я не понимаю утверждение о 100 символах, потому что Pictionary была бы очень скучной игрой, если бы это было правдой.
Таким образом, аргумент Серла состоит в том, что прохождение теста Тьюринга не является доказательством понимания. Это не доказывает, что создание искусственного понимания невозможно. (Хотя у меня сложилось впечатление, что Серл действительно аргументировал второй пункт).
@Dave: Я никогда не слышал, чтобы кто-то всерьез утверждал, что прохождение теста Тьюринга в первую очередь является доказательством понимания, поэтому, если Серл имел в виду это, он опровергает соломенного человека.
@Kevin Мы могли бы отличить настоящий тест Тьюринга, проводимый человеком в течение некоторого ограниченного периода времени, от идеального теста Тьюринга, проведенного каким-то сверхразумным агентом, у которого есть бесконечное количество времени, чтобы проверить все поведенческие способности сущности, чтобы увидеть если у него действительно есть все типы поведения, которые у человека мы приняли бы за свидетельство таких вещей, как «понимание», «интеллект», «творчество», «сочувствие» и т. д. Существуют различные разновидности «функционализма» в философии философии. Я думаю, что идеальный вид теста — это демонстрация психических состояний.
И в качестве другого примера, хотя Чалмерс не отождествляет психические состояния с функциональными состояниями, он утверждает, что «психофизические законы», которые он постулирует, связывающие физические состояния с психическими состояниями, скорее всего, будут соблюдать принцип функциональной инвариантности (функционально идентичные системы будут иметь идентичные психические состояния). состояния), см. эту статью , где он приводит аргументы в пользу идеи о том, что «опыт является инвариантным в системах с одинаковой мелкозернистой функциональной организацией».
@Hypnosifl: ИМХО Сирл просто использовал тест Тьюринга как иллюстрацию поведения, которое мы ожидаем увидеть от понимающего агента, а не как реальный тест на понимание. Я все еще думаю, что Сирл совершенно неправ, конечно, но я предпочитаю интерпретировать его как можно снисходительнее, и согласно моей интерпретации, он пытался сделать гораздо более глубокий вывод о взаимосвязи между синтаксисом и семантикой, а не просто дискредитировать тест Тьюринга. .
Это отличный ответ, но я хотел бы сказать кое-что о утверждении Серла: «У компьютера есть синтаксис, но нет семантики». Он делает это заявление дважды в «Разуме, мозге и программах»: во-первых, как вывод, когда он заявляет, что Китайская комната пытается показать, во-вторых, как предпосылка, когда он пытается оправдать свое увольнение, — отвечает система. Это, конечно, напрашивается вопрос, и когда вы устраните все круговые рассуждения, все, что у вас останется, — это бездоказательное утверждение, что «у компьютера есть синтаксис, но нет семантики».
В момент, когда вы представляете себе двухголового инопланетянина, я думаю, вы могли бы заменить феномен слепого зрения, когда человек будет отрицать, что он что-то знает, но будет действовать так, чтобы показать, что он знает что-то.

В аргументации Сёрла есть вопиющая проблема, и довольно трудно понять, почему на это не было указано раньше: ни одна из клеток мозга мистера Сёрла не понимает по-английски, а он утверждает, что понимает ? Какой аргумент он может привести, что ИИ не может развернуться и бросить прямо ему в лицо?

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Да, недоумение, почему мы позволили мистеру Сирлу избежать наказания за это. Я видел, как он лично приводил этот аргумент около 40 лет назад.

Насколько я понимаю, Серл подходит к тому, что синтаксис алгоритмичен система, управляемая предопределенными правилами и процедурами, — а семантика (насколько мы можем судить) таковой не является. Другими словами, достаточно легко создать и распознать синтаксически правильно построенное предложение на чисто процедурных основаниях, но оценка осмысленности предложения требует чего-то большего. Я имею в виду, сравните следующие высказывания:

  • Джарод любит картофельные чипсы
  • Любит картофельные чипсы Джарод
  • Картофельные чипсы Джарод любит

Первый синтаксически правильный и ясно значимый. Второй синтаксически некорректен (не соответствует правилам построения предложения в английском языке). Третий вариант синтаксически правильный (обработка чипа как глагола), но имеет сомнительное значение. Что значит «картофельные чипсы любят»? Теперь, если вы представите, что эти три фразы переданы в обратную сторону китайской комнаты (комнаты, в которой говорящий только на мандаринском диалекте обрабатывает алгоритмические правила для английского языка), этот человек распознает °2 как структурный бессмыслица, но он не будет делать различия. между °1 и °3. Как он мог?

Обратите внимание, что это похоже на различие в логике между достоверностью и истинностным значением ряда предложений. Первое ничего не говорит нам о втором, и наоборот.

Чего не хватает синтаксическому анализу, так это способности извлекать смысл из двусмысленности (с помощью непроцедурных процессов, таких как расширение, аналогия, метафора, упрощение, корреляция...). Мы с вами можем сидеть и размышлять о том, что значит «картофельные чипсы любят», и рано или поздно мы придадим этому смысл. Но для того, чтобы иметь возможность определить значение, мы должны оценить значение отдельных слов и найти в них некоторое соответствие. Это больше зависит от практического использования слов, чем от их синтаксической структуры или явных словарных определений.

Это может быть яснее, если мы думаем с точки зрения юмора. Например, если мы возьмем пару (явно глупых) шуток:

  • Почему нельзя драться с динозавром? «Потому что вы получите jurasskicked!
  • Тот, кто придумал шутки о тук-тук, должен получить приз без звонка.

... мы можем видеть, что они оба синтаксически правильны, но шутка заключается в их странных соответствиях: связь между драками и надиранием задницы, а также связь динозавров с юрским периодом; сходство слов «без звонка» (что означает отсутствие звонка в дверь, отсюда необходимость стучать) и «Нобелевская премия» (архетипическая премия для умных людей). Разумеется, мы можем запрограммировать компьютер на повторение этих шуток, но если мы загрузим их в нашу комнату с инверсным китайским языком, человек внутри не будет смеяться и не выдаст «ха-ха», если только ему явно не прикажут сделать это для этих наборов шуток. символы. Чтобы компьютер понял юмор этих шуток (или хотя бы глупостьиз них), мы должны были бы сделать компьютер способным к широкомасштабным нечетким ассоциациям между понятиями, не связанными друг с другом, и никто еще не разработал алгоритм для этого. Если они это сделают, то потребуется нечто большее, чем просто синтаксический анализ, так что проблема китайской комнаты Серла останется актуальной.

Кажется, вы предполагаете какое-то представление о символическом ИИ , когда мы программируем ИИ с помощью «понятий» высокого уровня и различных видов ассоциаций между ними, но этот подход в значительной степени потерял популярность у исследователей ИИ. Основное внимание уделяется восходящим подходам, таким как нейронные сети, где классификация сенсорных входных данных в группы высокого уровня, напоминающие «понятия», возникает из опыта, а не запрограммирована с самого начала. Серл утверждал бы, что этот аргумент работает и в этом случае, но многие философы с этим не согласны.
Что ж, я не собирался туда с критикой, как Гипнозиф, но грамматика не обещает смысла, как показывает «Бесцветные зеленые идеи яростно спят». Даже когда учитываются синтаксис и части речи, язык по-прежнему обладает интенсионалом и в совокупности пониманием, которые позволяют делать актуальные выводы. Хотя понимание может быть обеспечено эпистемическими алгоритмами машинного обучения и символическими методами, такими как онтологии, непонятно, как они обнажаются, чтобы сформировать основу того, что примерно эквивалентно интуиции. Значимое языковое производство — вещь в высшей степени нормативная.
Да, и компьютеры также могут быть запрограммированы на эвристический учет непредвиденных обстоятельств.
Хороший ответ, я думаю, что шутки хороши, потому что они представляют собой творческое неалгоритмическое использование языка. Интересно посмотреть на примеры того, как Уотсон потерпел неудачу с подсказками Джипорди: thenewatlantis.com/futurisms/…
@Hypnosifl: Для целей моего аргумента на самом деле не имеет значения, использует ли машина алгоритм «сверху вниз» или «снизу вверх». Синтаксическое/семантическое различие сохраняется. Например, если мы возьмем, скажем, нейронную сеть, предназначенную для распознавания лиц, программное обеспечение разрабатывает набор алгоритмов (синтаксис ) для сравнения трехмерных данных о поверхности. Он не знает, что это «лицо», и уж тем более не знает, что это «лицо» является чертой определенного объекта.
@Hypnosifl: В качестве примера рассмотрим, что произойдет, если мы соединим лица собак или кошек с человеческими лицами в данных обучения нейронной сети. Я сомневаюсь, что сеть могла бы сама определить наличие двух разных типов лиц или что сеть могла бы настолько обобщить понятие «лицо», что оно стало бы предметом парейдолии . Тем не менее, люди делают это естественно и даже удерживают сокращения (т. е. знают, что что-то похоже на лицо, но не является лицом). Это понимание концепта лица.
Если вы просто говорите, что современные нейронные сети слишком просты, чтобы их можно было квалифицировать как понимание семантики, я бы согласился, но аргумент Серла является принципиальным аргументом — вы также утверждаете, что даже смоделированная нейронная сеть, такая сложная, как мозг ребенка, не могла бы не развивать семантическое понимание через опыт, как это делают люди?
У нас есть китайская комната, она называется Google-переводчик, и если мы напишем ей «Джарод чипсы картошка любит», она вполне способна вывести осмысленное предложение (по крайней мере, на французском, испанском, немецком и японском), назначив «чипсы» как фамилия Джарод (как в «этот парень по имени Джарод Чипс, любит картошку»). Таким образом, алгоритм вполне способен придать смысл неоднозначному предложению. Теперь, это правильное значение? Может и нет, но люди не лучше. Никто из тех, кто приписывает смысл предложению «Джарод любит картошку с чипсами», не может претендовать на действительно правильную его интерпретацию.
@Hypnosifl: Я говорю о том, что смоделированные нейронные сети в том виде, в каком они представляются в настоящее время, имеют как логические, так и технологические ограничения (в зависимости от того, как кто-то хочет интерполировать Серла). Проще говоря, современные компьютеры и программное обеспечение не способны концептуализировать так, как это делает человеческий мозг. Любое утверждение сверх этого — научная фантастика; осознание этого будет зависеть от создания совершенно новой и спекулятивной формы вычислений. Я мог бы привести аргументы в пользу квантовых компьютеров, если хотите...
@armand: интерпретация «чипов» как фамилии Джерода - плохой синтаксис; это сделало бы «картофель» глаголом, а картошка определенно им не является. Вы можете возразить, что фамилия Джарода "картошка", а его прозвище - "чипсы" (например, Джарод "Чипс" Картошка). Это было бы грамматически правильно, но очень глупо. Но точка зрения Серла остается в силе: Google Translate не «понимает» смысл предложения. Он просто следует алгоритму перевода, и если мы вставляем мусор, мы получаем мусор. Мы можем сделать смысл из мусора; Гугл не может.
Нет, он просто предполагает, что глагол стоит в конце, чтобы придать смысл предложению, а это именно то, на что, как вы утверждаете, он не способен. Ну, это просто так, очевидно. Что вообще означает фраза "чипить картошку любит"? Что такое "любит"? Вы утверждаете, что ваша интерпретация ошибочного предложения лучше, чем у Google, но это такой же синтаксический мусор. Что позволяет вам такую ​​интерпретацию, как не предположение, что ИИ всегда будет ошибаться, потому что вы человек? т.е. вы просто умоляете вопрос.
Что касается ИИ и шуток, они старались , и они не так плохи, как некоторые люди .
Вы утверждаете разницу между алгоритмическими и семантическими системами, основанную на поведении этих систем. Это упускает суть. Сирл утверждает, что даже если бы был создан алгоритм, который мог бы идеально имитировать человеческое поведение (в рамках теста Тьюринга), он все равно не имел бы семантического понимания языка, который он создавал. Если ИИ не может объяснить тип ваших шуток, этот пробел можно использовать, чтобы заставить его не пройти тест Тьюринга.
Но когда вы говорите, что смоделированные нейронные сети в том виде, в каком они представляются в настоящее время, имеют «логические» ограничения, какими они будут? Вышеприведенный аргумент о том, что нейронная сеть, чудовищно обученная на человеческих лицах и сбивающаяся с толку, если мы добавим кошачьи морды, может быть расценена просто как отсутствие достаточного обширного опыта, чтобы выработать хорошее распознавание границ категорий (не так уж отличающееся от ребенка, видящего тюленя впервые и назвал его «собачкой»), а также отсутствием достаточных размеров, чтобы вместить такой широкий спектр впечатлений.
В качестве аналогии, если бы инопланетянин посетил Землю в кембрийскую эру, когда самые большие мозги, вероятно, были сравнимы, скажем, с лобстерами, они могли бы сделать эмпирические наблюдения о том, как эти мозги легко сбивались с толку некоторыми новыми типами сенсорных стимулов, но они бы этого не сделали. Было бы справедливо сказать, что существует какое-то фундаментальное «логическое» ограничение истинного семантического понимания мозга, образованного биологическими нейронами земного типа.
@CharlesStaats: Интересный момент. Это приводит нас к выводу, что либо (1) никто из нас не «понимает» ничего, что мы делаем или говорим, поскольку все мы сводимы к машинам Тьюринга, либо (2) что машина Тернинга не может идеально моделировать человеческое поведение. мы должны опасаться потенциально ложных предпосылок.
@TedWrigley Я верю, что, по мнению Сирла, биологический мозг может «понимать», но идеальная компьютерная симуляция того же биологического мозга не может. См. также философский зомби . Обратите внимание, что мое понимание взглядов Серла, вероятно, несовершенно. В частности, я не знаю наверняка, считает ли он, что симулированные существа могут вести те же философские дебаты, что и мы, о «понимании», не осознавая, что у них самих нет «понимания».
« синтаксис является алгоритмической системой, управляемой предопределенными правилами ». Это ИМО довольно сомнительно для естественных языков, особенно для английского. Насколько я понимаю, никто еще не разработал набор правил или алгоритм, который мог бы надежно отличать действительный синтаксис английского языка от недопустимого, охватывающий весь диапазон языка. Посмотрите на попытки сформулировать «правила» на ELL.SE, которые часто сводится к «нет общего правила, это просто то, как носители языка используют это слово или конструкцию». Высказывание «синтаксис алгоритмичен» означает очень сложную проблему, которая может быть вообще неразрешимой.
@CharlesStaats разум - это (огромный набор) симуляций, работающих в мозгу. Так что нет, мозги не понимают благословенной вещи. Так же, как моя машина не ездит на работу. Даже если бы он мог довести себя до моего рабочего места, он бы там не работал. " Правда ли, что каннибалы не едят клоунов, потому что они забавные на вкус? "

Короткий ответ

В вашей ссылке SEP на Searle's Room изложен ряд позиций, которые ясно показывают, что философия так или иначе не решила на основе консенсуса вопрос человеческого и семантического понимания. История ИИ — это непрекращающиеся дебаты, по сути, по этому вопросу. Отличным введением в эту историю является книга Нильса Нильссона « В поисках искусственного интеллекта» . Я предупрежу вас, что любой, кто ответит вам категорически отрицательно или утвердительно, даже не взял и не прочитал эту книгу. Философия не определилась в значительной степени потому, что философия не достигла прочного консенсуса относительно того, что представляет собой понимание. Наука не пришла к единому мнению о семантике мозга.При этом за последние пару десятилетий компьютеры добились успехов, возможно, не демонстрирующих интеллект человеческого уровня, но, безусловно, достаточных, чтобы слушать вас и удовлетворять некоторые из ваших потребностей. По сути, однако, помимо агностиков, есть два лагеря: те, кто верит в картезианское понятие понимания, которое отвергает все, кроме людей, как способное к человеческому интеллекту, и толпа выскочек, которая интересуется общим искусственным интеллектом и верит в него . возможно в теории. (Предупреждаю, что я предвзято отношусь ко второму варианту.) В любом случае, вы твердо придерживаетесь философии искусственного интеллекта , относительно новой ветви философских исследований, которой менее 100 лет, учитывая появление цифровых вычислений в конце 1930-х и начале 1940-х годов.

Длинный ответ

Намочите ноги

Мечта оживить неодушевленное, чтобы вести себя как человек, уходит корнями на тысячи лет прямо в мифологию протоиндоевропейцев . Его сокращенный отчет также, кажется, является введением в каждой книге, которая пытается представить ИИ. Очевидно, у вас есть два вопроса: один о Серле и Китайской комнате, а другой — о том, что философия говорит о разработке мыслящих машин.

Вы процитировали «Аргумент китайской комнаты», о котором есть несколько сообщений на этом сайте. Начните с обзора тех:

Понимание аргумента Серла и аргументов, которые на него отвечают, особенно реакции системы, необходимо для того, чтобы сориентироваться. Как только вы это сделаете, я на вашем месте протяну руку и куплю « Философию искусственного интеллекта» Маргарет Боден и «Чего компьютер не может» Хьюберта Дрейфуса. Если вы хотите узнать, что готовит лагерь ОИИ, то в хорошей недавней публикации Бена Герцеля и Кассио Пенначина (ред.) под названием «Общий искусственный интеллект» предлагаются некоторые из (IMNSHO) безуспешных попыток создания архитектур для наполнения программного обеспечения человеческим интеллектом. черты интеллекта уровня.

Что касается вопроса о том, как Серл может быть так уверен? Что ж, Джон Сирл известен своей философией, и эта уверенность может быть следствием его успеха как философа и отсутствия у него технических знаний как ученого-компьютерщика. Продолжение Джоном Серлом успехов лингвистического поворотав философии трудно оспорить. Он много писал о том, как язык отражает реальность, как личную, так и социальную, но я хотел бы отметить, что у Серла есть инструмент, который он использует для работы со сложностью разума, который называется Фон. Он часто сбрасывает детали прямо в туманную, расплывчатую вещь, чтобы упростить и донести свою точку зрения. В целом, это отличная стратегия для того, чтобы сузить его аргументацию до того, что заслуживает внимания, но обратная сторона этого заключается в том, что существует опасность слишком легкого отбрасывания относительных утверждений, поскольку неформальный аргумент управляется немонотонной логикой и опровергаемыми утверждениями .

Интеллект человеческого уровня и природа мышления

Другая часть вашего вопроса вращается вокруг того, чтобы понять, что значит имитировать понимание, особенно языка. Как вы, вероятно, знаете, Алан Тьюринг известен многими вещами, но среди них — его тест Тьюринга , который является попыткой операционализировать семантический интеллект человека. По мере того, как мы приближаемся к 100 годам, никто не смог этого сделать, что в истории искусственного интеллекта часто рекламировалось как не за горами, так же как до термоядерных реакторов постоянно оставалось 30 лет (журнал Discovery) . На самом деле, когда Хьюберт Дрейфус начал критиковать программу ИИ в кампусе и вместе с RAND, он почти сразу же заметил откровенную враждебность своих единомышленников.

Почему обещания ИИ так медленно воплощаются в жизнь (хотя достижения в области машинного интеллекта в последнее время достигли некоторых фантастических целей)? Ну, это сводится к тому, что лингвистика открыла о семантике. Самый простой способ объяснить это - сказать, что значение коренится в физическом воплощении , и что обработка строк в последовательном АЛУ не соответствует некоторым коннектистским свойствам человеческого мозга . Это вычислительные детали, где вопрос о человеческом интеллекте становится суровым и где невежество в материаловедении и математических структурах вычислений начинает оказывать влияние на философию разума .

На самом деле вопрос о том, что представляет собой человеческий интеллект, является открытым вопросом не только в философии сознания, но и в самой психологии, где есть две, грубо говоря, соперничающие за одобрение модели, модель Кеттелла-Хорна, которая связана с G-фактор и используется с помощью тестирования коэффициента интеллекта и того, что можно назвать плюралистическим понятием интеллекта, наиболее известным благодаря теории MI Говарда Гарднера , которая популярна среди гуманитариев и педагогов. Как есть приверженцы более твердых и более мягких «наук о разуме», так и это предубеждение отражается в понятии интеллекта.

Семантика и понимание

В конечном счете, вопрос, который вы задаете, уходит своими корнями больше в философию языка, чем в что-либо еще, потому что обсуждение дихотомии синтаксиса и семантики остается за философами и учеными языка. Существует ряд конкурирующих моделей того, как именно происходит эта вещь, вещь, опыт, называемый «значением», и если вы действительно хотите понять, что связано с тем, как семантика работает с людьми, я бы порекомендовал две книги, чтобы начать свой путь. , хотя они не легко читаются. Во-первых, у Рэя Джекендоффа есть свои «Основы языка».который является высокотехнологичным, но содержит специфический архитектурный аргумент о том, как воплощенные системы мозга порождают то, что мы признаем как значение. Вторую книгу также сложно прочитать, но она того стоит, если вы действительно хотите понять, почему обещание искусственного интеллекта на уровне человека и использования языка не материализовалось, « Когнитивная лингвистика » Эванса и Грина, которая предлагает исчерпывающую картину того, как язык и смысл основаны. в телесном опыте.

Суммирование

То, что я предложил здесь, — это не столько простой ответ, сколько план для понимания того, почему большинство философов не в своей тарелке при обсуждении того, как реализовать аспект фактического человеческого познания, основанный на нейронных вычислениях, в системах , предназначенных для реализации фон Неймановская архитектура машины Тьюринга . Вклад Серла в язык, семантику и интенциональность бесспорен, однако в некоторых отношениях вопрос инженерного семантического понимания начал перемещаться из философии в научные области машинного обучения, разработки программного обеспечения и неврологии. Таким образом, вы увидите сопротивление отказу от классических понятий в философии, таких как семантика, обусловленная истинностью.и платоническая математика , которые приводятся в пользу трансцендентальных форм метафизики . На самом деле, сам Серл признает, что мозг — это биологический компьютер, но остается скептически относиться к тому, что наши современные компьютерные технологии могут имитировать их, что является умеренным консерватизмом.

Как философ-любитель: Почему нет упоминания о (возможности) души? Если такая вещь существует, неудивительно, что мозг не может быть продублирован физическим компьютером. Конечно, есть много философов, которые сказали бы, что у людей есть душа. Просто ваш ответ уже достаточно длинный, или есть какая-то причина, чтобы исключить душу из этого обсуждения?
@Spritemaster Душа - это в значительной степени теологическая концепция из-за рациональной эмпирической философии. Другими словами, душа отвергается большинством людей, серьезно воспринимающих современную научную философию, потому что это сверхъестественная идея. И многие философы отвергают сверхъестественное. Я думаю, вы обнаружите, что последние 100 лет в континентальных и англо-американских традициях доминируют атеисты. Душа не только лишена какого-либо эмпирического статуса, но, подобно богам, не нуждается в объяснении вещей. Натурализм в подавляющем большинстве защищается современными профессиональными философами...
philpapers.org/surveys/… Есть опрос об атеизме.
Я бы не сказал, что 50% в пользу натурализма по сравнению с 25% в пользу нон-натурализма — это «подавляюще». При этом я не собираюсь вступать здесь в спор, так что спасибо за разъяснение.
@Spritemaster Этот опрос едва ли больше, чем соломенный опрос, и он предлагается из-за его статистики относительно атеистов, так что не обижайтесь. Вы не обязаны мне верить, но философы гораздо более склонны к атеизму, чем широкая публика, особенно в США, где в модернизированном мире проживает исключительно религиозное население. Я поковырялся и вот кое-что, что может навести вас на след данных. психология сегодня.com/us/blog/logical-take/201402/…
@Spitemaster, современная философия может не иметь большого отношения к концепции души, но она имеет дело с концепцией разума. Всю дискуссию вокруг Китайской комнаты и связанные с ней проблемы можно описать как вопрос о том, можно ли свести разум к мозгу или есть что-то большее.
Вы действительно воображаете, что если наука получит полное представление о том, как мозг «делает» семантику, кто-то вроде Джона Серла изменит свои взгляды? Весь аргумент в пользу Китайской комнаты — это гигантская тавтология, наводящая на размышления, не имеющая абсолютно никакой предсказательной силы. Он просто подтверждает убеждения Серла. Что могло убедить его изменить их? Это, конечно, не будет наукой или разговором с настоящим ИИ (если нам когда-нибудь удастся его создать; и, по-видимому, если это не настоящий сверхразум :D).
@Luaan: я могу дать лучший ответ. Операция «Китайская комната» не может понять, что она ошибочна. Но это все еще соломенный человек. Реальность все же остается, мы не знаем, как узнать, разумна машина или нет.
@Joshua Это была бы интересная задача - изменить правила в середине эксперимента, а затем посмотреть, сколько времени потребуется, чтобы ИИ исправился. Но это также звучит немного несправедливо, учитывая, как люди , как известно, плохо адаптируются к таким вызовам :D
Зачем нам консенсус? Нам нужен только один человек, чтобы разобраться. Затем нам нужно принять ответ. « Верблюд — это лошадь, спроектированная комитетом » .
@ScottRowe Вообще говоря, для достоверности требуется консенсус. Этот сайт в меру своих возможностей выполняет функцию предоставления фактов о философии.
Не путайте меня с фактичностью :-). Первый человек, который делает что-то правильно, прав, даже если 7 миллиардов других говорят, что это неправильно.
@ScottRowe Верно, пока это не так.
Хороший ответ, но было бы неплохо, если бы ссылки на AGI отражали недавний сдвиг парадигмы от логических «экспертных» систем к восходящим коннекционистским системам, которым на самом деле всего около десяти лет. Аргументы и критика AGI, следовательно, также изменились в ответ, но я думаю, будет справедливо сказать, что недавние попытки восходящего ИИ (например, GPT-3) возобновили дебаты о синтаксическом и семантическом понимании в ИИ.

TL:ДР;

Если мы рассматриваем мозг как вычислительную машину (которой, насколько нам известно, он и является), утверждение Серла не имеет под собой никаких оснований.

Согласно тезису Черча-Тьюринга, который является очень уважаемым результатом в компьютерных науках, не существует вычислений, которые не мог бы выполнить обычный компьютер.

Вы можете рассматривать это как вызов: покажите мне решаемую проблему, которую не может решить компьютерная программа. Пока это никому не удалось.

Значение этого результата состоит в том, что (если мы не учитываем скорость и пространство) любой компьютер, который может существовать во Вселенной, будь то электрический, квантовый или основанный на технологии, которую мы не можем себе представить, был бы так же способен решать проблему. как телефон в кармане.

Если мы считаем, что мозг попадает в эту категорию, то разница между мозгом и любым другим компьютером заключается только в программном обеспечении, которое он запускает.

Если мы согласны со всем этим, мы можем легко опровергнуть утверждение Серла о том, что, поскольку он может выполнять вычисления, которые выводят на китайский язык, не понимая китайского языка, компьютер его не понимает. Ответ заключается в том, что это программное обеспечение «понимает» что-либо, а не аппаратное обеспечение, например, силиконовые чипы не могут играть в шахматы, как и нейроны, но если мы расположим их правильно, то они оба могут играть в шахматы.

Эксперимент с китайской комнатой работает только в том случае, если мы не рассматриваем мозг как вычислительную машину, т. е. если мы думаем, что в нашем мозгу происходит что-то, чего не может произойти ни в какой другой системе. Тем не менее, никто не смог предоставить доказательства того, что это произошло.

Вот список проблем, которые не может решить компьютерная программа: en.wikipedia.org/wiki/List_of_undecidable_problems
Этот ответ показывает отсутствие знакомства с литературой и реального понимания проблемы. Я рекомендую удалить его.
Если у вас есть конкретная критика, озвучьте ее. Что касается неразрешимых проблем, то они не могут быть решены человеческим мозгом, поэтому их существование само по себе ничего не доказывает.
Обратите внимание, что я говорю: «Нет вычислений, которые нельзя было бы выполнить на обычном компьютере». а не "нет математической задачи, которую нельзя решить с помощью компьютерной программы"
@DavidGudeman Philosophy-of-mind не знаком с современной литературой по компьютерным наукам и неврологии и не понимает проблем, которые они решают. Я рекомендую удалить его. (Это сарказм; я хочу сказать, что я нахожу ценность как в этой области, так и в этом ответе в частности.)
Я не думаю, что Серл на самом деле утверждает, что компьютерная программа не может демонстрировать все то же функциональное поведение, что и человек (включая прохождение теста Тьюринга на китайском языке), его аргумент больше касается внутренних субъективных качеств, таких как сознание и понимание. В основном он, кажется, утверждает, что комната будет чем-то вроде философского зомби . И этот аргумент совместим с идеей, что функциональное поведение человеческого мозга можно полностью объяснить с точки зрения вычислений.
Я согласен с вами, и это то, что я пытаюсь сказать своим ответом: все сводится к вопросу о том, верите ли вы, что зомби/роботы/животные качественно отличаются от людей. Все остальное в аргументе Серла, например использование иностранного языка, кажется излишним.
В противном случае на этот вопрос нельзя ответить, поскольку одна сторона хочет доказать, что роботы — это люди (которых не может быть ни одного), а другая сторона хочет доказать, что роботы не похожи на людей (которых, опять же, нет).
Обратите внимание, что я говорю: «Нет вычислений, которые нельзя было бы выполнить на обычном компьютере». а не «нет математической задачи, которую нельзя решить с помощью компьютерной программы». Вы также сказали: «покажите мне задачу, которую нельзя решить с помощью компьютерной программы. До сих пор никто не смог этого сделать». Это неверно и свидетельствует о непонимании вопроса. Пространство вычислимости сложное, и, безусловно, есть проблемы, которые не может решить никакая мыслимая машина. Многие другие проблемы не могут быть решены (в масштабе) на обычных компьютерах — они называются NP-задачами.
Ваша дискуссия, кажется, предполагает, что аргумент Серла предполагает, что мозг не является компьютером. Это не так. Если бы это было так, это был бы круговой аргумент. Что он делает, так это излагает конкретный пример, где понимание симулируется без какого-либо понимания. Это не должно относиться ко всем случаям; это единственный экземпляр. Что касается вашего предположения, что «программа понимает», то это псевдорелигиозная спекуляция, основанная на вере. У вас нет никаких доказательств такого замечательного утверждения, кроме того, что вы считаете, что они нужны вам для опровержения аргумента Серла.
Добавил слово разрешимый в пост. Опять же, существование проблем, неразрешимых в принципе, является тривиальным фактом, не имеющим отношения к аргументации.
@DavidGudeman: «Вы можете рассматривать это как вызов: покажите мне решаемую проблему, которую нельзя решить с помощью компьютерной программы. Пока никто не смог этого сделать». Ваш список примеров в Википедии неразрешим .
@ gnasher729, текст ответа был изменен, чтобы добавить слово «разрешимый». Этого слова не было, когда я оставлял свой комментарий. Если бы это было так, я бы не был так уверен, что Маринов тут не в ладах. Однако на самом деле вы не знаете, без вопросов, что эти проблемы неразрешимы, только то, что они неразрешимы машиной. Мог ли математик с бесконечным временем и бесконечным вниманием к деталям решить проблему остановки для каждой машины Тьюринга? Я не знаю никаких доказательств того, что он не мог.
Вот доказательство: поскольку вы сказали «математик», я предполагаю, что этот человек будет использовать какой-то алгоритм для решения проблемы или кучу разных алгоритмов (одно и то же). Но любой алгоритм можно закодировать на машине Тьюринга (тезис Черча-Тьюринга). Если мы закодируем алгоритм этого математика, мы получим машину Тьюринга, способную решить проблему остановки. Но мы знаем, что не существует машины Тьюринга, которая решает проблему Остановки, поэтому и человек-математик не может этого сделать.
@DavidGudeman Нет математика с бесконечным временем и бесконечным вниманием к деталям.
@ gnasher729 Не существует машины с бесконечным временем или бесконечным хранилищем, но эта абстракция используется для определения того, что означает «вычислимый».
Неправда, машины Тьюринга должны выполнять вычисления за конечное время.
@BorisMarinov - неразрешимость проблем в нашем мире показывает, что наш мир невычислим. Проект ИИ предполагает, что мир поддается вычислению, а разум поддается вычислению, неразрешимость опровергает одно ключевое предположение проекта ИИ и ставит под сомнение другое.
«Проект ИИ предполагает, что мир вычислим». Такое утверждение я слышу впервые. Что является источником? «Проект ИИ» заключается в создании искусственного интеллекта, такого же мощного, как человеческий, а не того, который способен решать все проблемы в мире.

Я думаю, что самый простой способ объяснить это: синтаксис можно разобрать с помощью вычислений, но вычисления можно абстрагировать до нелепых или «забавных» экземпляров. Поскольку мы не знаем, как ментальные состояния (например, семантическое понимание, сознание, осознание и т. д.) возникают из физического — «непостижимый разрыв между физическим процессом и субъективным сознанием, который высмеивает наши поиски нитей, связывающих телесное и ментальное». вместе», должны ли мы вообще придавать какое-либо значение идее о том, что это порождает ментальные состояния (например, семантическое понимание)? «Нет более удивительного и загадочного факта, чем факт сознания». Мы заявляем о незнании того, какнейроны и мозг порождают сознание, но из всего, что мы твердо верим в сознание, вовлечен мозг: «нет никаких сомнений в том, что у людей есть умственная жизнь, потому что у нас есть мозг».

Мы не готовы сделать скачок к чему-то другому, кроме того, что мозг порождает сознание, даже если мы не знаем, как мозг это делает. Само по себе вычисление, конечно, не может быть таковым, просто подумайте обо всех «забавных примерах» вычислений, помимо человека в комнате, тасующего карты: поилки, движущиеся песчинки и т. д. Эксперимент в китайской комнате — это просто еще один «забавный пример». вычислений.

[1] все цитаты взяты из: Maudlin, T. (1989). Вычисление и сознание. Журнал философии, 86 (8), 407. doi: 10.2307/2026650

Машина могла бы иметь свою собственную семантику. Это потребовало бы только того, чтобы у него было свое собственное внутреннее представление о мире. Однако какая от этого польза? У каждого человека, очевидно, есть свое личное ментальное представление о мире. Однако, несмотря на это, мы разделяем большую часть этого, и это просто потому, что мы биологически очень похожи друг на друга, и мы общительны, так что мы разделяем большие куски нашей жизни. Мы все понимаем, что такое Солнце, потому что есть только одно Солнце, и у нас в целом одинаковое представление о нем. Таким образом, мы получаем в целом ту же семантику. Различия есть, но они представляют собой небольшую часть целого — вопреки тому, что могут предложить споры в Интернете или даже в реальной жизни.

Таким образом, проблема не столько в том, что у машины есть собственная семантика, сколько в том, чтобы иметь семантику, достаточно близкую к семантике человека, по крайней мере, если мы хотим, чтобы люди и машины понимали друг друга. Таким образом, трудность заключается в том, что производство человеческой семантики остается в значительной степени неизвестным процессом. Может быть, в принципе и не невозможно сделать что-то сопоставимое, но, вероятно, на данный момент это, по крайней мере, далеко за пределами наших технических возможностей, в частности, с точки зрения массивных данных, которые непрерывно обрабатывает человеческий мозг.

Re: массивные данные, точно так же, как цифровое изображение или звук становятся более убедительными с большей детализацией и вариациями, так и наш собственный опыт кажется более «не роботизированным» с большим количеством деталей, временем опыта, вариациями и так далее. Нас просто одурачили, думая, что мы не можем быть «машинами». Все, что движется, — это машина. Мы должны перевернуть утверждение Серла и внимательно посмотреть на самих себя. Конечно, мы настолько сложны, что будем упорно настаивать на своей божественности!
@ScottRowe (1) « одураченный » Нет. В будущем мы можем начать называть «компьютерные» машины больше похожими на наш мозг, чем на сегодняшние компьютеры, но на данный момент ни один компьютер не похож на человеческий мозг. Может это и имелось в виду. Дело в том, что ошибочно утверждать, что человеческий мозг — это машина, если вы не знаете, как он работает. Людей мало волнуют метафизические заявления. Мы прагматики, и превращать мозг в тупую машину кажется очень плохой идеей. Люди не хотят, чтобы компьютер говорил им, что им делать. (2) « Все, что движется, — это машина ». Частный язык.
Их мозг говорит им, что делать. Не нравится это не делает его ложным. Чем раньше мы примем, что мы очень маленькие частички большого целого, как муравьи, тем быстрее мы перестанем бить друг друга палками и поладим. Как муравьи. Это большая, не очень дружелюбная вселенная. В этот момент индивидуализм, который помогал нам выжить до сих пор, вероятно, приведет к тому, что нас всех убьют. Немного механического мышления было бы улучшением.
@ScottRowe « Их мозг говорит им, что делать » Конечно, это их мозг, и большую часть времени они даже не знают об этом. (2) « Чем раньше мы примем » Возможно, вы сможете читать руны, но homo sapiens прожил дольше и имеет больше опыта, чем вы когда-либо сможете. Вы пытаетесь использовать логические рассуждения, чтобы сомневаться в естественном отборе и жизни. Вы сильно вооружены. Человеческий вид — гораздо более крупная машина, чем ваш мозг.
Я был согласен с вами.
@ScottRowe Извините за это, я очень хорошо умею не соглашаться со всеми.

Назовем понимающего агентамыслящее существо, обладающее «семантическим пониманием» значения слов, расположенных пропозиционально. Предположим теперь, что во входном потоке понимающего агента есть слово, с которым агент раньше не сталкивался. Теперь, когда машина перевода, например, может столкнуться с «оригинальным» или бессмысленным словом, для которого соответствующий перевод может быть выведен из контекстуальных подсказок, но не отражает какой-либо конкретный экземпляр текста в «реальном корпусе», который он предназначен для перевода - - каким должен быть его вывод? Машина перевода может просто выводить нулевой результат или вести себя неопределенно; однако каким должен быть в таком случае результат понимающего агента? Иными словами, «совершенная» переводческая способность, по-видимому, подразумевает

Значение перевода, связанная с ним трудность и сложность, как правило, могут быть несколько занижены, на мой взгляд, и включают в себя всю проблематику, поднятую феноменологами, деконструктивистами и психоаналитиками в связи с «глубокими глубинами», действовавшими в генезисе локальная трансцендентная структура.

Возможно, пределы так называемого «неопределенного поведения» для программного обеспечения в данном случае сходны с пределами собственной внешней полутени языка, то есть бессмыслицы и hapax legemonon , которые, возможно, играют более важную роль в построении «смысла», чем мы можем себе представить. Но достаточно сказать, что все эти анализы языка, как мне кажется, поднимают вопрос о происхождении и ценности смысла как отдельной сущности; и, кроме того, мне кажется, что самые усердные усилия философов математики, Фреге и Рассела, не совсем увенчались успехом в разрешении двусмысленности, лежащей в основе некоторых из этих аксиоматических, основанных на чувстве систем рассуждений, таких как ZFC.

Другой аргумент, который я видел против эксперимента, заключается в том, что «вместе с книгой инструкций по манипулированию символами (программой)», способной интерпретировать китайский язык как носитель языка, на самом деле не могло существовать. Естественные человеческие языки так не работают, и в китайском языке существует бесконечное количество возможных предложений. Даже если бы вы каким-то образом нашли достаточно большое подмножество китайского языка, которое вы могли бы вписать в свою книгу правил, человек в коробке никогда не смог бы выдать себя за носителя языка, потому что он мог давать одинаковые ответы только на одинаковые вопросы. Этот подход не сработал для английского языка, и, насколько я понимаю, он не сработает и для китайского.

Это может быть скорее ограничением аналогии, чем решительным опровержением основной точки зрения, но оказывается, что система, которая работает, просматривая и следуя списку грамматических правил, не дает достаточно убедительных ответов, которые мы расцениваем как «понимание» человеческого языка.

Так как же китайские дети учатся говорить по-китайски? Они наблюдают за китайцами и выстраивают в их мозгу свод правил. Список «грамматических правил» слишком короток, чтобы полностью справиться с английским языком.
@ gnasher729 Кажется, я говорю о другом: этот подход был опробован для английского языка, и он не работает. Если бы вы попытались составить свод правил, которым вы могли бы следовать, чтобы писать убедительные ответы на произвольные вопросы на английском языке, он не прошел бы тест Тьюринга. И дело не только в том, что книга должна состоять из миллиардов и миллиардов страниц; сам подход ошибочен и не похож на то, как разговаривают люди.
@gnasher729 младенцы не выстраивают набор правил, они образуют ассоциации, связи. Бесконечно гибкие связи, такие как связи между объектами через поля, волны и т. д. Двоичная логика не работает в физическом мире, поэтому она не работает и для разума.

Китайская китайская комната

Основная проблема с аргументом китайской комнаты заключается в том, что он предполагает массивную, массивную вещь: алгоритм, который обеспечивает «ответы на китайском языке». Мы просто должны принять этот черный ящик без вопросов, чтобы мы могли сосредоточиться на «реальных проблемах» в дебатах. Но мы можем полностью разрушить аргумент китайской комнаты с помощью одного простого трюка! Мы просто определяем, откуда взялся этот алгоритм!

Видите ли, неявное предположение состоит в том, что «алгоритм» в чем-то неестественен… холодный и безжизненный продукт человеческой изобретательности, который никак не может отразить красоту и славу человеческого сознания. Но почему нет? Что, если бы «алгоритм» был не чем иным, как точным описанием настоящего китайского мозга ??? Что, если «китайская комната» была не чем иным, как реальным, обычным, говорящим по-китайски мозгом, который был заменен англоязычным гомункулом, который в остальном выполняет те же самые действия, что и соответствующий китайский мозг ? Собирается ли Серл по-прежнему настаивать на том, что гомункул в панцире действительно не «понимает» китайский язык? Конечно, гомункул не обязательно понимает по-китайски,к.

Комната Серла

Конечно, нам не нужно привносить в него мандарин (или кантонский, или любой из тысяч других китайских языков). Мы можем просто заменить мозг Джона Сирла говорящим на инопланетянах гомункулом и алгоритмическим описанием его мозга. Тогда мы можем перевернуть его аргумент с ног на голову и настаивать на том, что мозги тоже не понимают английский . И если это так, то мозг не является чем-то особенным и, таким образом, находится на том же уровне, что и компьютеры/ИИ.

Конечно, Роджер Пенроуз неявно понимал опасность этого аргумента, поэтому он пошел по длинному пути, пытаясь показать, что не существует алгоритмического описания мозга , поскольку мозг особенный , используя квантовые эффекты . Это совсем другая тема, так что я просто оставлю это.

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Да, это своего рода аргумент корабля Тесея. Но нейроны и дофамин тоже не понимают китайский язык. Никакая часть мозга не понимает китайский язык. Никакая часть компьютера/алгоритма этого не поймет.

Аргумент Серла был сформулирован во времена, когда у нас был только символический ИИ, построенный на логике, основанной на правилах . Такая система негибкая и нединамическая. Он работает статически через теоретико-доказательные системы и/или таблицы истинности. Каждое расширение и добавление правил необходимо реализовывать вручную вручную. Одним из примеров среды символической логики, на которую в то время возлагались большие надежды с точки зрения ИИ, но которая потерпела неудачу, был язык программирования Пролог .

Ограничения систем, основанных на правилах, не действуют в наши дни. Теперь мы имитируем и воспроизводим системы машинного обучения, основанные на нейронных сетях мозга, которые способны изучать семантические контексты с помощью контролируемых, полуконтролируемых или даже неконтролируемых процессов обучения (пример ) . Одним из примеров является программное обеспечение SpaCy на основе Python, которое работает в области NLP ( обработка естественного языка ).

Благодаря вычислительному лингвистическому подходу машина теперь может использовать нейронные сети для постоянного изучения семантического контекста, скажем, биологических статей, научных статей или даже газет, а также любых других фрагментов текста. Например, он может извлекать то, что вам нужно, на основе значения текста (семантическое сходство), которое достигается путем создания вложений слов, векторов, которые действуют как «карты» для терминов (см. демонстрацию ) .

В заключение, становится все более и более возможным делать «жесткие» заявления о том, что ИИ понимает семантику, чем это было в эпоху аргумента Серла о китайской комнате. Более того, область вычислительной нейробиологии теперь реализует цифровые части мозга, которые моделируют человеческие процессы обучения и даже познания. Действительно, есть надежда, что машины смогут «понимать» смысл способами, выходящим за рамки доводов Серла.

Любая достаточно сложная система неотличима от индивидуальной.

Проблема с аргументом китайской комнаты заключается в том, что человек получает входные данные только из одного источника, сообщения, тогда как семантическое понимание требует, чтобы сообщение было связано с другими входными данными.

Так что почти по определению комната не может иметь семантического понимания.

Однако, если вы добавите дополнительные входные данные, например, время суток, погоду и память, человек вскоре может начать ассоциировать «доброе утро» с солнечным утром.

Можно пойти дальше и убрать внешние входы, просто закодировав ассоциацию в инструкции с помощью english. Это было бы равносильно переводу, и человек, выучивший перевод, очевидно, имел бы семантическое понимание китайского языка.

Легко видеть, что компьютерная программа также может иметь внешние входы и память. Действительно, вы можете представить себе очень простую программу "доброе утро" = sunPosition && noClouds, которая на первый взгляд представляет собой семантическое понимание

Вот как был взломан код Enigma: внешняя информация.

Сирл не утверждает, что программы не могут быть семантическими, он исходит из определения компьютерной программы, формального, или синтаксического, а затем проводит параллели с использованием человеком формальных систем (механических инструкций) и сравнивает их с реальными. понимание.

Хорошим примером может быть заучивание материала на экзамене наизусть (это будет синтаксический/механический) и не торопитесь, чтобы действительно понять материал (это будет семантика). Понимание — это не «ага!» чувство, которое вы получаете от глубокого потребления материала, а скорее оно приходит с этим чувством. Когда вы понимаете материал на экзамене, это совершенно не то же самое, что выучить его наизусть.

Это в основном тот же случай, что и в аргументе китайской комнаты. Можно привести любой другой пример, когда люди следовали какой-то компьютерной программе — какому-то определенному пошаговому набору инструкций — и пришли к тому же выводу, что и Серл со своей китайской комнатой, но с некоторой интуицией, основанной на личном опыте сделайте резервную копию (нам всем приходилось следовать какому-то пошаговому списку инструкций в какой-то момент, я уверен).

Здесь уже опубликовано много ответов, которые дают существенное представление. Тем не менее, я не вижу ни одного, кто бы полностью понял суть мысленной проблемы Серла, и многие из них занимают неправдоподобные/несостоятельные позиции.

Я полностью ответил на этот вопрос для другого спрашивающего здесь: как аргумент китайской комнаты справляется с парадоксом кучи песка?

Использование Сёрлом термина «семантика», который является чисто лингвистическим термином, может отвлекать некоторых авторов от понимания его точки зрения. Можно сделать язык без сознания, но Сил работает с определением понимания, таким образом, что невозможно сделать «понимание» без сознания, и он использовал «семантику» как замену для понимания.

Понимание включает в себя компетентность, осознание ответа, обеспечиваемого компетентностью, и ввод-вывод. «Книги» в комнате обладают компетентностью, но не осознанностью. Оператор осведомлен, а оператор и механизмы в помещении осуществляют ввод-вывод.

Большинство ответов здесь, которые отвергают аргумент Серла, также отвергают то, что понимание требует осознания. Это явно бихевиористские ответы. Они считают сознание чем-то несущественным, а людей — редукционистскими машинами. Обратите внимание, однако, что философия, психология и наука в целом отвергли бихевиоризм, а также редукционизм, см. раздел 5 SEP о научной редукции: https://plato.stanford.edu/entries/scientific-reduction/ . очень четкая эволюционная настройка сознания требует, чтобы сознание было каузальным, поэтому такое игнорирование каузального сознания противоречит основным биологическим принципам.

Я также заметил, что большинство противников мысленной проблемы Серла обвиняли Серла в антинаучности и дуализме. Это явно неверно. Сирл является сторонником нередуктивного физикализма. Он считает сознание эмерджентным и невычислительным, поэтому сознание не может возникнуть в результате вычислений, выполняемых функционализмом. Его альтернативная позиция состоит в том, что существует некая пока еще неизвестная особенность биологических систем, позволяющая сознанию возникать из них.

Из ответов на мысленную проблему Серла, приведенных здесь, единственный, который затрагивает проблему осознания, — это цитаты Чалмерса. Чалмерс понимает аргумент Серла о том, что, отделив компетентность от осознания и ввода-вывода, Сирл подчеркнул неправдоподобность привязки сознания к демонстрируемой компетентности. Чалмерс — тот редкий философ, который схватил этого быка за рога. По сути, он признал, что одна лишь компетентность (книги) не имеет сознания, но вместо этого утверждает, что комната, АССАМБЛЕЯ, имеет сознание. Что комнатная система находится в сознании, когда оператор реализует функции в книгах и выполняет ввод-вывод. Это редкая точка зрения, поскольку комнатная СИСТЕМА не из тех вещей, которые, по признанию большинства философов, могут поддерживать сознание.

tl;dr Аргумент о китайской комнате — чистая глупость, сравнимая с теорией плоской Земли . Не проводя официального опроса, я в целом понимаю, что те, кто в этой области, в значительной степени игнорируют это как антиинтеллектуальную позицию.


Аргумент " китайская комната " - полная глупость.

Аргумент Серла в основном таков:

  1. Предположим, что ИИ — это безмозглые машины.

  2. Это предположение нельзя опровергнуть, потому что любое доказательство обратного может быть следствием скриптоподобного алгоритма, который просто звучит по-человечески (или звучит так, как будто он понимает по-китайски).

  3. Поскольку предположение нельзя опровергнуть, оно должно быть верным .

Аргумент Серла — это просто копия/вставка аргумента солипсиста :

  1. Предположим, что другие люди — безмозглые зомби .

  2. Это предположение нельзя опровергнуть, потому что любое доказательство обратного может быть следствием поведения, подобного сценарию, которое просто звучит как человек (или звучит так, как будто это не зомби).

  3. Поскольку предположение нельзя опровергнуть, оно должно быть верным .

В Википедии есть множество критических замечаний по поводу аргумента Серла . Не потому, что это нуждается в дальнейшем развенчании, а потому, что с ним так много всего не так.

По сути, это витализм .

Рискуя показаться наивным, я просто отмечу вопрошающему, что во всех этих очень хороших ответах не совсем понятно, что подразумевается под «семантикой» и «значением».

Я полагаю, что Сирл много лет назад вводил в гораздо более застегнутую аналитическую философию вопросы, которые теперь более развиты с повторным введением некоторых версий метафизики и даже идеализма в англо-американские учебные программы.

Вопросы «значения» строго исключены из модели информации Шеннона, на которой до сих пор базируется компьютерный «синтаксис». Подобно теории гравитации Ньютона или теории полезности Джевона, она предлагает математическое моделирование и воздерживается от любой «субстанциалистской» или «эссенциалистской» гипотезы о том, что модели определяют количественно.

Аргумент Серла, возможно, был необходим в рамках прискорбно ограниченной традиции, в которой он учил, но я полагаю, что он был бы сочтен глупым и излишним в так называемых «континентальных» традициях со времен Гуссерля.

Это немного похоже на попытку сравнить математическое определение информации Шеннона с определением Уолтера Онга. В последнем есть несводимый носитель «опыта», тело, физические вибрации, производимые Словом, изреченным между телами.

Этот опыт трагически защищен брандмауэром. На самом деле я не могу "чувствовать твою боль". Оно может передаваться «сочувственно», но не синтаксически. Машина также не может имитировать действительное «живое» в смысле прохождения сложных семантических взаимодействий, которые позволяют ей воспроизводить себя как физически, так и «неточно». (Репликаторы фон Неймана в сторону.)

В моем собственном неофициальном чтении Серл просто указывает на исключение этих многих традиционных философских вопросов из пути, избранного аналитической «философией» в его время. Хотя я мало его читал, калифорнийский коллега Серла Хьюберт Дрейфус, возможно, где-то написал одновременный отказ от всей основы «проблемы» Китайской комнаты.

Числа таинственным образом «равны» и поэтому могут вписываться в «уравнения». Но опыт тел во времени на каком-то уровне не поддается эквивалентности, никогда не может быть точно таким же, и поэтому никогда не может быть полностью смоделирован в дискретных количествах.

Что такое сознание?

Проще говоря, если у вас есть машина ИИ (независимо от того, насколько она сложна), ее можно описать тремя вещами: состоянием машины (как внутренним, так и внешним) S, входом в машину I и выходом O. Выход будет функцией ввода и состояния O=f(I,S) , а любая случайность будет моделироваться через состояние (псевдослучайность). Другими словами, вывод будет детерминированным.

Описанная выше модель верна даже для самых сложных нейронных сетей и, как мы видим, у нее просто нет свободы воли . Даже если мы предположим, что он может обучаться (т. е. изменять свой собственный алгоритм), это все равно делается детерминистически — при определенном входе и состоянии наша машина ИИ изменит себя, но только в установленном порядке. Еще раз обратите внимание, что даже если мы включим случайность в это изменение, эта случайность все равно будет частью состояния S, поэтому включена в наше основное уравнение.

Так как наша машина ИИ не обладает свободой воли, из этого следует, что она не может создать , или, другими словами, любая новая структура, созданная этой машиной, будет просто запрограммирована в нее заранее. В любой данный момент времени у машины будет набор паттернов P и множество модификаций M. Машина может применить эти модификации к паттернам, создав множество «новых» паттернов Pn, но этот набор уже будет предопределен исходным набором паттернов. П и М.

Какое это имеет отношение к семантике? Семантика — это просто изучение значения. У вас есть определенное явление (слова, звуки, буквы, картинки...), стоящие вместо чего-то другого. Например, слово «собака» (как письменное, так и устное) символизирует определенный вид животных. У собак есть шерсть, четыре ноги, они плотоядные млекопитающие. То же, что кошки. Тем не менее, (почти) ни один человек не назвал бы собаку кошкой. С другой стороны, у кораблей нет ног, волос, и они вообще не животные, но люди называют некоторых из них железными собаками ! Как бы вы объяснили ИИ, что означает слово «собака»?

Люди иррациональны и нелогичны . Это было математически доказано теоремами Гёделя о неполноте и теоремой Тарского о неопределимости . В любой сильной формальной системе вы не можете полностью определить истину. У вас будут некоторые истины (и некоторые вымыслы), которые недоказуемы. Все не могло быть определено. Тем не менее, каким-то странным образом (интуитивно) люди различали бы их. Дзен-буддисты называют это хлопком в ладоши . Оно не поддается объяснению, потому что не может быть определено — оно абсурдно, но все же неотразимо. И совершенно непонятен ИИ, потому что его нельзя перевести на формальный язык.

«Тем не менее, каким-то странным образом (интуитивно) люди различали бы их». – Вы утверждаете, что люди способны интуитивно определять, является ли какое-либо утверждение истинным или ложным?
@TannerSwett Да, конечно. Это целая интуиция ;)
@TannerSwett Вы должны спросить: вы утверждаете, что люди способны интуитивно правильно определять , является ли какое-либо утверждение истинным или ложным?
@ gnasher729 Конечно, нет (со 100% точностью). Но и они не способны на 100% точность при рациональном определении истины. Другими словами, и интуиция, и разум ограничены в своих возможностях.
Правильно, это должно быть только «достаточно хорошо», а не идеально. « Мне не нужно убегать от медведя, мне нужно бежать быстрее тебя » .