«Китайская комната» Серла в основном утверждает, что программа не может сделать компьютер «интеллектуальным».
Серл резюмирует аргумент как
Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, являются вопросами на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.
Какие контраргументы? В том числе стандартные и не очень стандартные. Это понятие «интеллект» меня интригует, и я хочу увидеть, что говорят другие люди. Укажите мне на ваш любимый контраргумент.
Я прочитал ответ Левеска «Достаточно ли правильно вести себя?» ( http://ijcai.org/papers09/Abstracts/241.html ) (полный текст статьи здесь ). Поскольку Левеск является исследователем ИИ, я хотел бы расширить свое понимание контраргументов из других областей.
Эксперимент Серла с китайской комнатой не имеет никакого смысла, но требуется некоторый контекст, чтобы выявить противоречие, присущее его аргументу. Во время ее написания он пытался бороться с крайней позицией среди теоретиков ИИ, которые полагали, что все свойства понимания, независимо от того, что, как мы согласны, это влечет за собой, могут быть сведены или захвачены достаточно мощным компьютером, воздействующим на символы полностью. формальные методы т.е. математика.
Вкратце, эксперимент CR предполагает, что говорящий на китайском языке может передавать осмысленные сообщения на своем родном языке человеку в комнате, который на нем не говорит, и заставлять их отвечать разумно или осмысленно, следуя чисто алгоритмическому или формальному процессу. , что бы это ни повлекло за собой, т. е. использование таблицы поиска, соблюдение предустановленных правил и т. д.
Это странный способ аргументировать интуицию или, скорее, интуицию, обладающую свойством несводимости. Потому что, если человек в комнате может общаться с человеком снаружи, несмотря на его непонимание, и семантический разрыв преодолевается совершенно формальным процессом, то как это что-либо, кроме семантики, сводится к синтаксису? Именно то, против чего Серл хочет возразить. Опять же, человек снаружи понимает , что входит и что выходит из комнаты, и единственное средство общения, которое у него есть, — это следовать механическому рецепту письма.
В статье Стэнфордской философской энциклопедии о мысленном эксперименте Серла «Китайская комната» выделяются три основные категории возражений, каждая из которых подробно рассматривается (и приводится щедрое количество цитат). Вот их краткое изложение категорий возможных ответов на аргумент. :
(1) Некоторые критики признают, что человек в комнате не понимает по-китайски, но считают, что в то же время есть что-то еще, что понимает. Эти критики возражают против вывода из утверждения, что мужчина в комнате не понимает по-китайски, к выводу о том, что никакого понимания не было создано. Может быть понимание более крупной или другой сущностью. Это стратегия «Ответа системы» и «Ответа виртуального разума». Эти ответы утверждают, что в исходном сценарии Китайской комнаты может быть понимание.
(2) Другие критики соглашаются с утверждением Серла о том, что простой запуск программы обработки естественного языка, как описано в сценарии CR, не создает никакого понимания ни человеком, ни компьютерной системой. Но эти критики считают, что вариант компьютерной системы может понять. Вариантом может быть компьютер, встроенный в тело робота, взаимодействующий с физическим миром через датчики и моторы («Ответ робота»), или это может быть система, детально моделирующая работу всего мозга, нейрон за нейроном ( «Ответ симулятора мозга»).
(3) Наконец, некоторые критики не признают даже узких мест против ИИ. Эти критики считают, что человек в оригинальном сценарии «Китайская комната» может понимать китайский язык, несмотря на опровержения Сирла, или что сценарий невозможен. Например, критики утверждали, что наша интуиция в таких случаях ненадежна. Другие критики считают, что все зависит от того, что подразумевается под «пониманием» — вопросы, обсуждаемые в разделе «Ответ интуиции». Другие (например, Sprevak 2007) возражают против предположения, что любая система (например, Searle в комнате) может запускать любую компьютерную программу. И, наконец, некоторые утверждали, что, если неразумно приписывать понимание на основе поведения, продемонстрированного Китайской комнатой,
Мне очень нравится глава в книге Джека Коупленда «Философия ИИ» о китайской комнате. Несмотря на то, что это вводная книга, она довольно обширна и глубока. В главе есть краткое изложение аргументов против Китайской комнаты, а также возражения Серла и его друзей, а также встречные возражения. Остальная часть книги также очень хорошо устанавливает контекст обсуждений и определенно рассматривает различные способы, которыми люди понимают и используют термин «интеллект» в дебатах об ИИ (вы можете найти то, что вам нравится).
Не слишком стандартная проблема, с которой я столкнулся с аргументом, — это его общая форма аргумента (нестандартная проблема, потому что она не специфична для аргумента китайской комнаты).
Китайская комната — это модальный аргумент, который часто используется в философии сознания, — примеры других модальных аргументов включают такие вещи, как аргумент зомби из Дэвида Чалмерса, аргумент инвертированного спектра, даже мозг в чанах и аргумент злого демона Декарта и т. д. Обычно они имеют вид: возможно, что , несмотря на появление X, мы не можем знать*что X* из-за столь же правдоподобного альтернативного понимания ситуации, исключающего X). В этом случае возможно, что даже если инструкции позволяют коробке убедительно вести переговоры с китайским тестером Тьюринга, более чем в равной степени правдоподобно, что никакого реального понимания не происходит (украдкой установлено тем фактом, что мы все заранее договорились, что человек внутри не понимает китайского, и он единственный, кто что-то делает)
Я не уверен, насколько серьезно относиться к модальным аргументам в целом, потому что я чувствую, что они неизменно коварны и часто ведут к бесплодию из-за того, как все устроено. Успешный модальный аргумент не даст вам больше оснований верить ни одному из вариантов, а риторика обычно настроена так, что вы забываете, что один из вариантов состоит из естественных и знакомых сценариев (сидеть у костра, видеть человека, получать красный квалиа) и другой сценарий, который носит спекулятивный характер (обманутые злыми демонами, увидев зомби, получив зеленые квалиа вместо чтения). Таким образом, каждый лагерь не может на самом деле вовлечь другую сторону в плодотворное обсуждение, потому что у каждого есть причина полагать, что аргумент другого человека ошибочен — без реального критерия для оценки той или иной стороны утверждения. Подло ИМХО.
Аргументы Серла в Китайской комнате изначально основаны на предположении, что если существует интеллектуальная система, то какой-то компонент системы должен быть интеллектуальным. Подводя итоги, можно сказать, что каждый лептон и кварк во Вселенной должны быть в какой-то степени разумными. Альтернативы этому заключению: либо (а) во Вселенной нет ничего разумного, либо (б) разум — это эмерджентное явление. Я иду с последним.
Затем Серл пытается ответить на все возражения (например, возникающий интеллект), участвуя в более или менее актуальном обсуждении, прежде чем заявить, что оно сводится к исходной Китайской комнате, которая, как он показал, не была разумной. Это отличный пример постановки вопроса в классическом определении (при условии, что утверждение доказано).
Наиболее уместным другим обсуждением является утверждение, что компьютер не может быть разумным в человеческом смысле, не имея органов чувств человеческого типа, чтобы воспринимать вещи, как человек. Как компьютер узнает, что такое гамбургер, не съев его? Это кажется хорошей аргументацией, но Сирл не развивает ее.
Серл утверждает, хотя и не находит подтверждения, что интеллект должен быть биологическим, и утверждает, что мы знаем, что интенциональность имеет биологическую природу. Я не видел этого заявления где-либо еще, так что я не думаю, что мы знаем это.
ОП хочет знать, какие контраргументы были выдвинуты против аргумента китайской комнаты.
В Minds, Brains and Programs Джон Сирл отвечает на шесть контраргументов. Вот их парафраз:
Ответ системы. Человек, который не понимает по-китайски при выполнении шагов программы, является лишь частью более крупной системы, которая понимает.
Ответ робота. Поместите компьютер, выполняющий формальную языковую обработку, внутрь робота.
Ответ Симулятора Мозга. Напишите программу, которая имитирует реальную активацию нейронов в мозгу носителя китайского языка.
Комбинированный ответ. Создайте программу, которая объединяет все три предыдущих ответа.
Ответ других разумов. Мы также не знаем, понимают ли другие люди китайский язык, кроме как по поведению.
Ответ множества особняков. В конце концов мы сможем создавать устройства, которые действительно понимают.
Сирл, Джон. Р. (1980) Разум, мозг и программы. Науки о поведении и мозге 3 (3): 417-457 http://cogprints.org/7150/1/10.1.1.83.5248.pdf
Например, возражения Дэниела Деннета. Деннет называет мысленный эксперимент Сирла «костылем со стрелой», чем-то, что мешает мышлению, в отличие от интуитивных насосов, которые считаются полезными.
Деннет утверждает, что аргумент Сирла сформулирован особым образом, чтобы ограничить ваши возможности, следовательно, это «костыль стрелы». Серл предполагает наличие высокоразвитого ИИ, основанного на символических правилах . Он хочет, чтобы вы поверили, что он не может понять смысл, потому что просто собирает некоторый входной символ в выходной в соответствии со сводом правил. Но тут же мы сталкиваемся с возражениями.
Во-первых, по словам Деннета, этот аргумент показывает отсутствие у Серла понимания того, как работают компьютеры и как выполняются вычисления. Потребовались бы миллиарды лет написания кода, чтобы система, основанная исключительно на правилах*, могла вести осмысленный диалог на человеческом уровне. Сколько же правил в ней должно быть? Нужно сконструировать правила достаточно убедительно, чтобы каждый ответ был таким, как если бы реальный человек производил ответ, ведущий разговор на китайском языке, на разговорном уровне. Попробуйте построить все эти правила, используя символическую логику; это было бы невероятное число.
Во-вторых, даже если бы мы получили устройство, использующее систему, основанную на правилах, и такая система может говорить о фильмах, погоде, греческой кухне и задавать личные вопросы, разве мы не просто реализовали весь процесс человеческого познания вместе с пониманием? «Система», которую представляет Серл, не может просто собирать входные данные для вывода, потому что она должна полагаться на наборы правил, которые существуют миллиарды лет и определяют, что говорить, а что не говорить. Он должен делать логические выводы, используя большие объемы эмпирических данных о мире. Он должен иметь здравый смысл. А если и так, то у него нет проблем с пониманием чего бы то ни было, включая семантику. Такую сложную систему правил невозможно локализовать в каких-то рудиментарных коробках с инструкциями. Что нужно, так это вычисления, чтобы делать это эффективно, если вообще нужно.
Опираясь на аргумент Дэна, становится ясно, что Джон Сирл хочет, чтобы вы забыли о важной части того, из чего состоит система; где и как должны происходить настоящие вещи. Если бы имела место только банальная ручная сборка ввода-вывода, не было бы возможности осмысленного разговора на человеческом уровне. Буквально никто не утверждает, что простая программа, выводящая «Hello World», понимает семантику. Точно так же мужчина в комнате не может вести убедительную беседу. Более того, разговор, на обработку которого у него не уходят годы, если он использует ящики с информацией за миллиарды лет. Это заряд естественной возможности. Серл хочет, чтобы вы представили себе что-то тривиальное и сделали из этого очевидные выводы — что такая система не может понять, поэтому «сильный ИИ» вообще неправдоподобен. Однако пройти что-либо, напоминающее тест Тьюринга, нетривиально. Все обсуждение системы набора правил, которая должна существовать помимо речевого ассемблера, почти «вычеркнуто» из аргументации Серла.
Иначе каким образом ИИ получает правила? Конечно, единственный вариант — это гигантский набор правил, написанных за миллиарды лет. Как можно сжать этот набор правил, чтобы получить информацию стало возможным? Только с помощью компьютера. Если компьютер используется на практике, тогда компьютер может дать понимание.
Переключив ваше внимание на тупой ассемблер, Сирл заставляет вас забыть, где должна происходить настоящая работа, то есть в сложной вычислительной единице, ответственной (и способной) к познанию на человеческом уровне, потому что иначе она не смогла бы пройти тест Тьюринга, вариантом которого является эксперимент Серла. Говорящий на другом конце должен быть уверен, что говорит с реальным человеком.
*- В отличие, скажем, от системы машинного обучения.
Что касается заявленного вами интереса, рассмотрите здесь замечания Серла относительно двусмысленности понятия «интеллект».
«Интеллект» также неоднозначен, потому что он неоднозначен между реальным, честным для Джона, независимым от наблюдателя интеллектом — как, например, когда человек о чем-то думает — и относительным, производным, метафорическим смыслом интеллекта — например , когда мы говорим о моем карманном калькуляторе или компьютере как об интеллекте.
Соломенных людей , однако, легко опрокинуть:
«Китайская комната» Серла в основном утверждает, что программа не может сделать компьютер «интеллектуальным».
Серл не утверждает, что «программа не может сделать компьютер «разумным»» (и это в любом смысле, который вы имеете в виду под программой, разумным или компьютером). Китайская комната Серла демонстрирует, что семантика не является неотъемлемой частью синтаксиса. Большая разница.
Аргумент китайской комнаты — это опровержение вычислительной теории разума , а не опровержение «искусственного интеллекта». Сирл очень ясно дает понять, что он выступает только против того, что он определяет как «сильный ИИ», а не «слабый ИИ». Более того, он указывает, что мы в некотором смысле биологические машины . Как мы знаем вычислительные машины сегодня (т.е. машины Тьюринга), они недостаточны для чего-то большего, чем синтаксические манипуляции, и не достигают (читай: не могут) семантического содержания. Чтобы понять аргумент Серла, вам необходимо ознакомиться с различиями между «относительным наблюдателем» и «независимым от наблюдателя»., а также неоднозначность таких понятий, как « искусственный », «интеллектуальный», « информационный » и тому подобное.
Чтобы расширить свое понимание контраргументов, сначала начните с фактического аргумента, против которого вы ищете:
Сирл, Джон. Р. (1980)
« Разум, мозг и программы »
Абстрактный.
Эту статью можно рассматривать как попытку исследовать следствия двух утверждений. (1) Интенциональность у людей (и животных) является продуктом каузальных особенностей мозга. Я предполагаю, что это эмпирический факт о действительных причинно-следственных отношениях между психическими процессами и мозгом. Он просто говорит, что для интенциональности достаточно определенных мозговых процессов. (2) Создание экземпляра компьютерной программы само по себе никогда не является достаточным условием интенциональности. Основной аргумент данной статьи направлен на установление этого утверждения. Форма аргумента состоит в том, чтобы показать, как человек-агент может создать экземпляр программы и при этом не иметь соответствующей интенциональности. Эти два утверждения имеют следующие следствия: (3) Объяснение того, как мозг производит интенциональность, не может заключаться в том, что он делает это, создавая экземпляр компьютерной программы. Это строгое логическое следствие 1 и 2. (4) Любой механизм, способный производить интенциональность, должен обладать каузальной силой, равной силе мозга. Предполагается, что это тривиальное следствие 1. (5) Любая попытка буквально искусственно создать интенциональность (сильный ИИ) не может быть успешной только путем разработки программ, но должна будет дублировать каузальные возможности человеческого мозга. Это следует из 2 и 4.«Может ли машина думать?» В соответствии с приведенным здесь аргументом мыслить могла только машина, и только машины особого рода, а именно мозги и машины с внутренними каузальными силами, эквивалентными силам мозга. И именно поэтому сильный ИИ мало что может сказать нам о мышлении, поскольку речь идет не о машинах, а о программах, а сама по себе программа недостаточна для мышления.
Кроме того, см. эту статью для продолжения аргумента Серла, который демонстрирует, что синтаксис не является неотъемлемой частью физики .
Вам также может понравиться этот обмен мнениями в Нью-Йорке между Сирлом и Моцкиным (обратите внимание, в частности, на техническое примечание о тесте Тьюринга и машинах Тьюринга).
Тест во многом является частью бихевиоризма той эпохи, когда Тьюринг написал свою статью; и, подобно всем подобным формам бихевиоризма, он вносит фундаментальную путаницу между тем, как мы проверяем наличие ментального феномена с точки зрения третьего лица, и фактическим существованием феномена от первого лица. В интерпретации Моцкина тест Тьюринга смешивает эпистемологию с онтологией.
Наконец, тест Тьюринга — это высокая планка, которую нужно пройти, и он на самом деле ничего не говорит об испытуемом. Это говорит гораздо больше о тестере. Тест Тьюринга ни в коем случае не является лакмусовой бумажкой для сознания. Его прохождение описывалось как не более чем « салонный трюк » , акцент на котором был высмеян как « неприятный и глупый » не кем иным , как Марвином Мински . За увлекательной работой, проводимой в области машинного обучения, обращайтесь к Юргену Шмидхуберу .
Я умный. Мой мозг, возможно, не умен. Клетки моего мозга определенно не разумны. Человек в китайской комнате — это клетка мозга. Вы не можете ожидать, что он поймет китайский. А Китайская комната? Это может быть просто мозг. Или он может «понимать» китайский язык.
Если инструкции, доступные человеку в комнате, конечны, а человек снаружи знает , что существует конечная таблица инструкций, то ничего не установлено. Машина Тьюринга имеет конечную программу, поэтому бесконечно длинная таблица команд выходит за рамки.
Нельсон Александр
пользователь4894
Нельсон Александр
Старый добрый Святой Ник
пользователь4894
Старый добрый Святой Ник
пользователь4894
пользователь4894