Что можно возразить Китайской комнате Серла?

«Китайская комната» Серла в основном утверждает, что программа не может сделать компьютер «интеллектуальным».

Серл резюмирует аргумент как

Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, являются вопросами на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.

Какие контраргументы? В том числе стандартные и не очень стандартные. Это понятие «интеллект» меня интригует, и я хочу увидеть, что говорят другие люди. Укажите мне на ваш любимый контраргумент.

Я прочитал ответ Левеска «Достаточно ли правильно вести себя?» ( http://ijcai.org/papers09/Abstracts/241.html ) (полный текст статьи здесь ). Поскольку Левеск является исследователем ИИ, я хотел бы расширить свое понимание контраргументов из других областей.

Это механический турок наоборот, и машинам, работающим исключительно по «инструкциям», потребовалось много времени, чтобы просто освоить шахматы. Чтобы пройти тест Тьюринга на человеческом языке, «инструкции» оператора должны быть бесконечно длинными, подробными и фактически нечитаемыми любым ограниченным воплощенным «опытным» человеческим существом. Не уверен, но я подозреваю, что эти ответы не так неуместны или поверхностны, как кажется на первый взгляд. Символизирующий опыт — это бесконечный регресс. Гипотетические «инструкции» неправдоподобны.
@NelsonAlexander Я согласен с Сёрлом, но не согласен с вашей точкой зрения, что машинные инструкции должны быть бесконечно длинными. В конце концов, мы состоим из конечного числа атомов, у нас есть конечное число нейронов и нейронных путей и т. д. Мы конечны, обладаем самосознанием и разумом. Каким бы ни был «тайный соус» сознания, он не обязательно должен быть бесконечным.
Да, я почти не использовал этот термин, убивающий разговоры. Но когда я говорю, что «символизирование опыта — это бесконечный регресс», я мог бы провести аналогию с проблемой побережья Англии, где все более точные измерения или определения увеличивают «длину побережья» до бесконечности. Физические науки должны ввести «пределы», но, как это ни парадоксально, идея о том, что в наших телах есть «конечные» атомы, не исключает (практически) бесконечного числа способов их описания. Я также подозреваю, что существует конечное число значимых вопросов и ответов на китайском языке.
@ user4894 вы предполагаете материальную интерпретацию вселенной, которая представляет собой определенную метафизическую точку зрения. Я признаю ограничения характера, но мне показалось правильным признать это, а не просто выдвинуть это как «просто так». Логично, что в каждом сознательном существе заключена бесконечная и вечная субстанция (или сущность, или дух, или любое другое конкретное нематериальное разнообразие существования, которое вы хотите определить), которое является естественной предпосылкой для сознания. Есть много уважаемых традиций этого убеждения, и если это так, то мы на самом деле не конечны.
@ GoodOl'SaintNick «вы предполагаете материальную интерпретацию вселенной». Это не то, что я сказал, и не логическое следствие того, что я сказал, поэтому вы полностью меня здесь потеряли. «Согласно тому, что в каждом сознательном существе заключена бесконечная и вечная субстанция (или сущность, или дух, или любое другое конкретное нематериальное разнообразие существования, которое вы хотите определить), которое является естественной предпосылкой для сознания». Доказательство? Что еще живет в нематериальном мире? Младенец Иисус? Летающий макаронный монстр? Вишну? — Объясните мне, пожалуйста.
@user4894 user4894 Я думаю, что изначально неправильно истолковал ваш комментарий как содержащий неявное «только», например, «в конце концов, мы [только] состоим из…». хотя теперь я понимаю, что на самом деле происходило то, что вы просто обращались исключительно к материальному, а не отрицали нематериальное. Самым большим намеком на материалистическую точку зрения для меня было то, что вы заявили: «Мы конечны, мы самосознательны и разумны». Я прочитал это как абсолютное утверждение, которое, как я теперь понимаю, возможно, относилось только к ограниченному контексту.
@GoodOl'SaintNick Да, мне нравится, как ты объяснил, что я имел в виду! Вы все правильно поняли.
@ GoodOl'SaintNick ps - Кроме того, вы двусмысленно говорите о «бесконечности». Исходным утверждением, на которое я отвечал, было утверждение, что разумному существу потребуется бесконечный набор инструкций. Это бесконечно в математическом смысле. Вы используете его в метафизическом смысле, как вы говорите, «бесконечной и вечной субстанции». Я понятия не имею, что это значит. Я знаю, что такое бесконечный или конечный набор машинных инструкций. Это два разных значения бесконечности.

Ответы (9)

Эксперимент Серла с китайской комнатой не имеет никакого смысла, но требуется некоторый контекст, чтобы выявить противоречие, присущее его аргументу. Во время ее написания он пытался бороться с крайней позицией среди теоретиков ИИ, которые полагали, что все свойства понимания, независимо от того, что, как мы согласны, это влечет за собой, могут быть сведены или захвачены достаточно мощным компьютером, воздействующим на символы полностью. формальные методы т.е. математика.

Вкратце, эксперимент CR предполагает, что говорящий на китайском языке может передавать осмысленные сообщения на своем родном языке человеку в комнате, который на нем не говорит, и заставлять их отвечать разумно или осмысленно, следуя чисто алгоритмическому или формальному процессу. , что бы это ни повлекло за собой, т. е. использование таблицы поиска, соблюдение предустановленных правил и т. д.

Это странный способ аргументировать интуицию или, скорее, интуицию, обладающую свойством несводимости. Потому что, если человек в комнате может общаться с человеком снаружи, несмотря на его непонимание, и семантический разрыв преодолевается совершенно формальным процессом, то как это что-либо, кроме семантики, сводится к синтаксису? Именно то, против чего Серл хочет возразить. Опять же, человек снаружи понимает , что входит и что выходит из комнаты, и единственное средство общения, которое у него есть, — это следовать механическому рецепту письма.

Для вас это не имеет смысла, потому что вы неверно поняли аргумент Серла о том, что синтаксиса недостаточно для семантики. Он не комментирует интуицию. Обратите внимание, что человек внутри коробки - компьютер, т.е. человек, производящий вычисления - не понимает китайский язык. «Семантический разрыв» остается непреодолимым.
@ Mr.Kennedy Я не согласен с этим ответом, но, будучи спорщиком, я также не согласен с вашим комментарием. Настаивая на том, что CR может работать только в том случае, если его оператор понимает китайский язык, Серл молчаливо предполагает, что инструкции сами по себе не могут порождать семантику. Если аргумент CR не следует немедленно отклонять на основании цикличности, аргумент «синтаксис не может порождать семантику» должен быть приведен в другом месте.
@sdenham: я бы пошел еще дальше. CR неверен, потому что неявно предполагает, что различие между синтаксисом и семантикой является существенным, а не функциональным, или абсолютным, а не относительным. Когда вы привносите метаматематику и теорию моделей, это начинает выглядеть довольно глупо.

В статье Стэнфордской философской энциклопедии о мысленном эксперименте Серла «Китайская комната» выделяются три основные категории возражений, каждая из которых подробно рассматривается (и приводится щедрое количество цитат). Вот их краткое изложение категорий возможных ответов на аргумент. :

(1) Некоторые критики признают, что человек в комнате не понимает по-китайски, но считают, что в то же время есть что-то еще, что понимает. Эти критики возражают против вывода из утверждения, что мужчина в комнате не понимает по-китайски, к выводу о том, что никакого понимания не было создано. Может быть понимание более крупной или другой сущностью. Это стратегия «Ответа системы» и «Ответа виртуального разума». Эти ответы утверждают, что в исходном сценарии Китайской комнаты может быть понимание.

(2) Другие критики соглашаются с утверждением Серла о том, что простой запуск программы обработки естественного языка, как описано в сценарии CR, не создает никакого понимания ни человеком, ни компьютерной системой. Но эти критики считают, что вариант компьютерной системы может понять. Вариантом может быть компьютер, встроенный в тело робота, взаимодействующий с физическим миром через датчики и моторы («Ответ робота»), или это может быть система, детально моделирующая работу всего мозга, нейрон за нейроном ( «Ответ симулятора мозга»).

(3) Наконец, некоторые критики не признают даже узких мест против ИИ. Эти критики считают, что человек в оригинальном сценарии «Китайская комната» может понимать китайский язык, несмотря на опровержения Сирла, или что сценарий невозможен. Например, критики утверждали, что наша интуиция в таких случаях ненадежна. Другие критики считают, что все зависит от того, что подразумевается под «пониманием» — вопросы, обсуждаемые в разделе «Ответ интуиции». Другие (например, Sprevak 2007) возражают против предположения, что любая система (например, Searle в комнате) может запускать любую компьютерную программу. И, наконец, некоторые утверждали, что, если неразумно приписывать понимание на основе поведения, продемонстрированного Китайской комнатой,

Мне очень нравится глава в книге Джека Коупленда «Философия ИИ» о китайской комнате. Несмотря на то, что это вводная книга, она довольно обширна и глубока. В главе есть краткое изложение аргументов против Китайской комнаты, а также возражения Серла и его друзей, а также встречные возражения. Остальная часть книги также очень хорошо устанавливает контекст обсуждений и определенно рассматривает различные способы, которыми люди понимают и используют термин «интеллект» в дебатах об ИИ (вы можете найти то, что вам нравится).

Не слишком стандартная проблема, с которой я столкнулся с аргументом, — это его общая форма аргумента (нестандартная проблема, потому что она не специфична для аргумента китайской комнаты).

Китайская комната — это модальный аргумент, который часто используется в философии сознания, — примеры других модальных аргументов включают такие вещи, как аргумент зомби из Дэвида Чалмерса, аргумент инвертированного спектра, даже мозг в чанах и аргумент злого демона Декарта и т. д. Обычно они имеют вид: возможно, что , несмотря на появление X, мы не можем знать*что X* из-за столь же правдоподобного альтернативного понимания ситуации, исключающего X). В этом случае возможно, что даже если инструкции позволяют коробке убедительно вести переговоры с китайским тестером Тьюринга, более чем в равной степени правдоподобно, что никакого реального понимания не происходит (украдкой установлено тем фактом, что мы все заранее договорились, что человек внутри не понимает китайского, и он единственный, кто что-то делает)

Я не уверен, насколько серьезно относиться к модальным аргументам в целом, потому что я чувствую, что они неизменно коварны и часто ведут к бесплодию из-за того, как все устроено. Успешный модальный аргумент не даст вам больше оснований верить ни одному из вариантов, а риторика обычно настроена так, что вы забываете, что один из вариантов состоит из естественных и знакомых сценариев (сидеть у костра, видеть человека, получать красный квалиа) и другой сценарий, который носит спекулятивный характер (обманутые злыми демонами, увидев зомби, получив зеленые квалиа вместо чтения). Таким образом, каждый лагерь не может на самом деле вовлечь другую сторону в плодотворное обсуждение, потому что у каждого есть причина полагать, что аргумент другого человека ошибочен — без реального критерия для оценки той или иной стороны утверждения. Подло ИМХО.

Аргументы Серла в Китайской комнате изначально основаны на предположении, что если существует интеллектуальная система, то какой-то компонент системы должен быть интеллектуальным. Подводя итоги, можно сказать, что каждый лептон и кварк во Вселенной должны быть в какой-то степени разумными. Альтернативы этому заключению: либо (а) во Вселенной нет ничего разумного, либо (б) разум — это эмерджентное явление. Я иду с последним.

Затем Серл пытается ответить на все возражения (например, возникающий интеллект), участвуя в более или менее актуальном обсуждении, прежде чем заявить, что оно сводится к исходной Китайской комнате, которая, как он показал, не была разумной. Это отличный пример постановки вопроса в классическом определении (при условии, что утверждение доказано).

Наиболее уместным другим обсуждением является утверждение, что компьютер не может быть разумным в человеческом смысле, не имея органов чувств человеческого типа, чтобы воспринимать вещи, как человек. Как компьютер узнает, что такое гамбургер, не съев его? Это кажется хорошей аргументацией, но Сирл не развивает ее.

Серл утверждает, хотя и не находит подтверждения, что интеллект должен быть биологическим, и утверждает, что мы знаем, что интенциональность имеет биологическую природу. Я не видел этого заявления где-либо еще, так что я не думаю, что мы знаем это.

Ваши варианты а) и б) не включают вариант, в котором интеллект содержится в нематериальном разуме, а не в эмерджентном разуме. Я не совсем припоминаю, как этот вариант оформлен в официальной литературе, но я знаю, что он оформлен в литературе.
@elliotsvensson Хороший вопрос. Вопрос, который он поднимает, заключается в том, к чему он привязан.
Это самый важный момент. Либо аргумент Серла ошибочен (см. другие аргументы), либо люди не обладают сознанием, либо люди ВОЛШЕБНЫ.

ОП хочет знать, какие контраргументы были выдвинуты против аргумента китайской комнаты.

В Minds, Brains and Programs Джон Сирл отвечает на шесть контраргументов. Вот их парафраз:

  1. Ответ системы. Человек, который не понимает по-китайски при выполнении шагов программы, является лишь частью более крупной системы, которая понимает.

  2. Ответ робота. Поместите компьютер, выполняющий формальную языковую обработку, внутрь робота.

  3. Ответ Симулятора Мозга. Напишите программу, которая имитирует реальную активацию нейронов в мозгу носителя китайского языка.

  4. Комбинированный ответ. Создайте программу, которая объединяет все три предыдущих ответа.

  5. Ответ других разумов. Мы также не знаем, понимают ли другие люди китайский язык, кроме как по поведению.

  6. Ответ множества особняков. В конце концов мы сможем создавать устройства, которые действительно понимают.


Сирл, Джон. Р. (1980) Разум, мозг и программы. Науки о поведении и мозге 3 (3): 417-457 http://cogprints.org/7150/1/10.1.1.83.5248.pdf

Например, возражения Дэниела Деннета. Деннет называет мысленный эксперимент Сирла «костылем со стрелой», чем-то, что мешает мышлению, в отличие от интуитивных насосов, которые считаются полезными.

Деннет утверждает, что аргумент Сирла сформулирован особым образом, чтобы ограничить ваши возможности, следовательно, это «костыль стрелы». Серл предполагает наличие высокоразвитого ИИ, основанного на символических правилах . Он хочет, чтобы вы поверили, что он не может понять смысл, потому что просто собирает некоторый входной символ в выходной в соответствии со сводом правил. Но тут же мы сталкиваемся с возражениями.

Во-первых, по словам Деннета, этот аргумент показывает отсутствие у Серла понимания того, как работают компьютеры и как выполняются вычисления. Потребовались бы миллиарды лет написания кода, чтобы система, основанная исключительно на правилах*, могла вести осмысленный диалог на человеческом уровне. Сколько же правил в ней должно быть? Нужно сконструировать правила достаточно убедительно, чтобы каждый ответ был таким, как если бы реальный человек производил ответ, ведущий разговор на китайском языке, на разговорном уровне. Попробуйте построить все эти правила, используя символическую логику; это было бы невероятное число.

Во-вторых, даже если бы мы получили устройство, использующее систему, основанную на правилах, и такая система может говорить о фильмах, погоде, греческой кухне и задавать личные вопросы, разве мы не просто реализовали весь процесс человеческого познания вместе с пониманием? «Система», которую представляет Серл, не может просто собирать входные данные для вывода, потому что она должна полагаться на наборы правил, которые существуют миллиарды лет и определяют, что говорить, а что не говорить. Он должен делать логические выводы, используя большие объемы эмпирических данных о мире. Он должен иметь здравый смысл. А если и так, то у него нет проблем с пониманием чего бы то ни было, включая семантику. Такую сложную систему правил невозможно локализовать в каких-то рудиментарных коробках с инструкциями. Что нужно, так это вычисления, чтобы делать это эффективно, если вообще нужно.

Опираясь на аргумент Дэна, становится ясно, что Джон Сирл хочет, чтобы вы забыли о важной части того, из чего состоит система; где и как должны происходить настоящие вещи. Если бы имела место только банальная ручная сборка ввода-вывода, не было бы возможности осмысленного разговора на человеческом уровне. Буквально никто не утверждает, что простая программа, выводящая «Hello World», понимает семантику. Точно так же мужчина в комнате не может вести убедительную беседу. Более того, разговор, на обработку которого у него не уходят годы, если он использует ящики с информацией за миллиарды лет. Это заряд естественной возможности. Серл хочет, чтобы вы представили себе что-то тривиальное и сделали из этого очевидные выводы — что такая система не может понять, поэтому «сильный ИИ» вообще неправдоподобен. Однако пройти что-либо, напоминающее тест Тьюринга, нетривиально. Все обсуждение системы набора правил, которая должна существовать помимо речевого ассемблера, почти «вычеркнуто» из аргументации Серла.

Иначе каким образом ИИ получает правила? Конечно, единственный вариант — это гигантский набор правил, написанных за миллиарды лет. Как можно сжать этот набор правил, чтобы получить информацию стало возможным? Только с помощью компьютера. Если компьютер используется на практике, тогда компьютер может дать понимание.

Переключив ваше внимание на тупой ассемблер, Сирл заставляет вас забыть, где должна происходить настоящая работа, то есть в сложной вычислительной единице, ответственной (и способной) к познанию на человеческом уровне, потому что иначе она не смогла бы пройти тест Тьюринга, вариантом которого является эксперимент Серла. Говорящий на другом конце должен быть уверен, что говорит с реальным человеком.

*- В отличие, скажем, от системы машинного обучения.

Итак, в третьем абзаце вы, кажется, говорите, что Деннет считает, что компьютерная программа не может поддерживать осмысленный разговор. Это только усиливает утверждение Серла о том, что программы не могут понять.
@AmeetSharma Далеко не так. Упрощенная «ассемблерная» версия ИИ, которую Серл хочет, чтобы вы представили, не может и не будет. Аргумент Серла, однако, предполагает, что его ИИ может пройти тест Тьюринга, который буквально делает ИИ неотличимым от человека. По сути, Сирл хочет, чтобы вы забыли об огромном наборе правил, которые заставляют такой ИИ вести себя и, возможно, даже думать, точно так же, как человек.
Сирл никогда не говорил, что компьютерная программа может пройти тест Тьюринга. Его единственное замечание состоит в том, что прохождения теста Тьюринга недостаточно для «понимания». Я не вижу смысла в огромном наборе правил. Серл возражает против утверждения теста Тьюринга о том, что если вы ведете себя так, как будто вы понимаете, это означает, что вы понимаете. Независимо от того, является ли набор правил 1 правилом или огромным, мысленный эксперимент один и тот же.
Вы хотите сказать, что машина, способная говорить о предпочтениях, фильмах и своих увлечениях, не имеет понимания? Потому что любой более простой случай Серлу не подойдет. Эксперимент Серла — вариант теста Тьюринга, в котором сторонний наблюдатель не может отличить робота от обычного человека. Мысленный эксперимент Серла зависит от того, представите ли вы такой простой случай, банальный случай и сделаете из него очевидный, предвзятый вывод. По сути, Серл хочет, чтобы вы представили что-то вроде калькулятора, который, очевидно, не может понять.
«Вы хотите сказать, что машина, способная говорить о предпочтениях, фильмах и своих увлечениях, не имеет понимания?» если это просто запуск компьютерной программы, то это не так. Во всяком случае, это то, что пытается показать «Аргумент китайской комнаты». Ты слишком много делаешь из того, что дело тривиально. Предположим, что вместо программы, говорящей по-китайски, у нас есть программа, моделирующая поведение человека во всех его аспектах. Аргумент точно такой же. Это будет большая книга правил. Это все еще просто программа. Единственное, что есть у компьютера, — это более высокая скорость... но зачем это заставлять его понимать?
«Вы делаете слишком много из того, что дело тривиально». Дело не тривиально, поскольку заявление Сирла направлено против возможности «сильного ИИ». Почти ничего в этом случае не является «тривиальным». Упрощенная программа, которую Сирл хочет, чтобы вы представили для опровержения сильного ИИ, не годится. «Это будет большая книга правил. Это все еще просто программа». Возможно, вы хотя бы видели, как понимание происходит в вашем мозгу? На что это похоже? Ну, несколько нейронных сетей, логические вентили XOR/OR и куча правил. Зачем мозгу что-то понимать, если это всего лишь сложный свод правил?
Что вы подразумеваете под словом "ассемблер"? Называете ли вы головку чтения/записи машины Тьюринга «ассемблером» независимо от сложности вычислений, которые она выполняет (скажем, поатомное моделирование всего человеческого мозга)? Если это так, то я не понимаю, почему вы считаете, что достаточно сложный алгоритм не может демонстрировать разумное поведение, подобное человеческому; если вы используете «ассемблер» более узко, то я бы сказал, что вы неправильно понимаете аргумент Серла, который основан на том факте, что человек может играть роль головы машины Тьюринга (см. мой ответ здесь )
@Hypnosif Хорошо. Скажем, чего-то упрощенного вроде калькулятора недостаточно, чтобы опровергнуть утверждение о «сильном ИИ», что и пытался сделать Серл. Конечно, тупоголовый человек может играть роль головы машины Тьюринга, но этот аргумент не опровергает «сильный ИИ». Вдобавок это совершенно бесполезно, так как ответ на китайском языке выдает не человек, который собирает, а другая часть системы, производящая инструкции. Однако их нельзя разделить ни в случае мозга, ни в случае гипотетического сильного ИИ.
Насколько я понимаю, Сирл не предполагал в своей статье какой-либо конкретный тип программы, не говоря уже о чем-то упрощенном, вроде калькулятора. Я согласен с тем, что аргумент Серла на самом деле не работает (см. мои комментарии в конце этого ответа , начиная с «Были разные ответы философов на аргументы», где я думаю, что ошибка), но я думаю, что ваш ответ здесь несколько неверно истолковывает то, что он на самом деле утверждал.
@Hypnosifl Деннет утверждает, что Сирл хочет, чтобы кто-то забыл о самом важном, а именно о том, какой компьютер может давать ответы на китайском языке на разговорном уровне. Серл представляет простую, очевидную и тривиальную причину и считает, что она опровергает утверждение о «сильном ИИ», хотя на самом деле это не так. Следовательно, Деннет называет это «костылем стрелы», чем-то, что мешает думать.
Учитывая, что философские мысленные эксперименты часто включают фантастические предпосылки, я не думаю, что восприятие сильно изменилось бы, если бы Серл сказал: «Представьте человекоподобное существо, которое бессмертно и готово проводить час или два каждый будний день, выполняя этапы вычислений, возможно, в течение миллиардов лет подряд», но я полагаю, что это могло сделать аргумент менее убедительным для некоторых.

Что касается заявленного вами интереса, рассмотрите здесь замечания Серла относительно двусмысленности понятия «интеллект».

«Интеллект» также неоднозначен, потому что он неоднозначен между реальным, честным для Джона, независимым от наблюдателя интеллектом — как, например, когда человек о чем-то думает — и относительным, производным, метафорическим смыслом интеллекта — например , когда мы говорим о моем карманном калькуляторе или компьютере как об интеллекте.

Соломенных людей , однако, легко опрокинуть:

«Китайская комната» Серла в основном утверждает, что программа не может сделать компьютер «интеллектуальным».

Серл не утверждает, что «программа не может сделать компьютер «разумным»» (и это в любом смысле, который вы имеете в виду под программой, разумным или компьютером). Китайская комната Серла демонстрирует, что семантика не является неотъемлемой частью синтаксиса. Большая разница.

Аргумент китайской комнаты — это опровержение вычислительной теории разума , а не опровержение «искусственного интеллекта». Сирл очень ясно дает понять, что он выступает только против того, что он определяет как «сильный ИИ», а не «слабый ИИ». Более того, он указывает, что мы в некотором смысле биологические машины . Как мы знаем вычислительные машины сегодня (т.е. машины Тьюринга), они недостаточны для чего-то большего, чем синтаксические манипуляции, и не достигают (читай: не могут) семантического содержания. Чтобы понять аргумент Серла, вам необходимо ознакомиться с различиями между «относительным наблюдателем» и «независимым от наблюдателя»., а также неоднозначность таких понятий, как « искусственный », «интеллектуальный», « информационный » и тому подобное.

Чтобы расширить свое понимание контраргументов, сначала начните с фактического аргумента, против которого вы ищете:

Сирл, Джон. Р. (1980)
« Разум, мозг и программы »

Абстрактный.
Эту статью можно рассматривать как попытку исследовать следствия двух утверждений. (1) Интенциональность у людей (и животных) является продуктом каузальных особенностей мозга. Я предполагаю, что это эмпирический факт о действительных причинно-следственных отношениях между психическими процессами и мозгом. Он просто говорит, что для интенциональности достаточно определенных мозговых процессов. (2) Создание экземпляра компьютерной программы само по себе никогда не является достаточным условием интенциональности. Основной аргумент данной статьи направлен на установление этого утверждения. Форма аргумента состоит в том, чтобы показать, как человек-агент может создать экземпляр программы и при этом не иметь соответствующей интенциональности. Эти два утверждения имеют следующие следствия: (3) Объяснение того, как мозг производит интенциональность, не может заключаться в том, что он делает это, создавая экземпляр компьютерной программы. Это строгое логическое следствие 1 и 2. (4) Любой механизм, способный производить интенциональность, должен обладать каузальной силой, равной силе мозга. Предполагается, что это тривиальное следствие 1. (5) Любая попытка буквально искусственно создать интенциональность (сильный ИИ) не может быть успешной только путем разработки программ, но должна будет дублировать каузальные возможности человеческого мозга. Это следует из 2 и 4.

«Может ли машина думать?» В соответствии с приведенным здесь аргументом мыслить могла только машина, и только машины особого рода, а именно мозги и машины с внутренними каузальными силами, эквивалентными силам мозга. И именно поэтому сильный ИИ мало что может сказать нам о мышлении, поскольку речь идет не о машинах, а о программах, а сама по себе программа недостаточна для мышления.

Кроме того, см. эту статью для продолжения аргумента Серла, который демонстрирует, что синтаксис не является неотъемлемой частью физики .

Вам также может понравиться этот обмен мнениями в Нью-Йорке между Сирлом и Моцкиным (обратите внимание, в частности, на техническое примечание о тесте Тьюринга и машинах Тьюринга).

Тест во многом является частью бихевиоризма той эпохи, когда Тьюринг написал свою статью; и, подобно всем подобным формам бихевиоризма, он вносит фундаментальную путаницу между тем, как мы проверяем наличие ментального феномена с точки зрения третьего лица, и фактическим существованием феномена от первого лица. В интерпретации Моцкина тест Тьюринга смешивает эпистемологию с онтологией.

Наконец, тест Тьюринга — это высокая планка, которую нужно пройти, и он на самом деле ничего не говорит об испытуемом. Это говорит гораздо больше о тестере. Тест Тьюринга ни в коем случае не является лакмусовой бумажкой для сознания. Его прохождение описывалось как не более чем « салонный трюк » , акцент на котором был высмеян как « неприятный и глупый » не кем иным , как Марвином Мински . За увлекательной работой, проводимой в области машинного обучения, обращайтесь к Юргену Шмидхуберу .

Я умный. Мой мозг, возможно, не умен. Клетки моего мозга определенно не разумны. Человек в китайской комнате — это клетка мозга. Вы не можете ожидать, что он поймет китайский. А Китайская комната? Это может быть просто мозг. Или он может «понимать» китайский язык.

Если инструкции, доступные человеку в комнате, конечны, а человек снаружи знает , что существует конечная таблица инструкций, то ничего не установлено. Машина Тьюринга имеет конечную программу, поэтому бесконечно длинная таблица команд выходит за рамки.