Опровергает ли это рассуждение аргумент о китайской комнате Джона Серла?

Я программист, заинтересованный в развитии искусственного интеллекта. Я только что прочитал об аргументе Джона Серла о Китайской комнате и хотел бы знать, успешно ли опровергает мои рассуждения его аргумент.

Аргумент китайской комнаты более или менее указывает на то, что компьютерная программа может симулировать сознание/разум, но никогда на самом деле не испытать его таким же образом, как человек, не знающий китайского языка, может симулировать знание китайского языка с помощью набора инструкций, без когда- либо на самом деле испытал способность понимать китайский язык.

Я понимаю, как мистер Серл пришел бы к такому заключению, но я считаю, что он ошибся.

ИИ, возможно, Siri от Apple, модернизированный через 20 лет в будущем с дополнительными возможностями, будет запрограммирован с помощью алгоритмов, инструкций, интерпретировать информацию и реагировать на стимулы, демонстрируя , не испытывая на самом деле огромную сложность мыслительных паттернов, формирующих сознание, как утверждал Серл через Китайская комната.

Однако рассмотрим другую форму этой симуляции ИИ, которая идеально отражает человеческий мозг:

Что, если бы мы изобрели машину, способную сканировать и регистрировать каждую клетку, каждый электрон, каждую скорость каждого атома в человеческом мозгу, а затем вводить эти данные в компьютер, достаточно мощный, чтобы вычислительно моделировать существование всего этого мозга?

Этот смоделированный мозг, как изменяемая структура данных, станет мощным ИИ, способным развиваться за пределами физических ограничений физического человеческого мозга. Мозг, независимо от среды его существования (компьютерная симуляция), был бы совершенно слеп к тому факту, что он вообще находится в компьютерной симуляции. Тем не менее, он будет работать совершенно идентично мозгу сканируемого человека, если предположить, что в симуляции присутствуют все надлежащие физические процессы и стимулы.

Следовательно, кто может сказать, что этот ИИ, этот смоделированный мозг менее разумен, чем вы или я?

И, кстати, я первоначально задал этот вопрос, прочитав где-то на этом сайте, что китайская комната еще не была опровергнута, но теперь я вижу, что здесь есть вопрос, который охватывает различные способы, которыми против нее приводились аргументы. Я думаю, что мой вопрос все еще актуален.
Аргумент китайской комнаты — это аргумент в пользу того, что симуляции нашего мозга недостаточно для получения сознательного опыта. Вы предлагаете смоделировать наш мозг. Как это опровергает аргумент?
Китайская комната — аргумент против «сильного ИИ». По словам Серла, «сильный ИИ» обещает сертификацию «психических состояний», помимо того, что мы просим даже у других людей, так сказать, изнутри комнаты. Таким образом, имитация человеческого мозга ничего не дает, поскольку неспособность дать подробный отчет о том, как возникают «психические состояния», упускает суть и уже уступает «сильному ИИ». Слабое место Серла — овеществление «психических состояний» и «смыслов», а не проблемы имитации.
Аргумент китайской комнаты неопровержим по той же самой причине, по которой неопровержим солипсизм — нет никакого способа доказать, что чей-то еще разум существует. Тот факт, что другие люди появляются и утверждают , что они разумны, не является доказательством того факта, что они разумны; Точно так же дублирование человеческого мозга с помощью технологий может создать что-то, что кажется разумным, утверждает, что оно разумно и т. д., но никогда не сможет доказать Джону Серлу, что оно разумно, даже если это будет копия его матери. . Это абсурдистская форма скептицизма.
Вам нужно более глубоко изучить то, что Сирл говорит об ИИ. Он полностью согласен с идеей, что машина может думать так же, как мы, но для того, чтобы смоделировать мозг, мы должны иметь ПОЛНОЕ понимание всех тогдашних мозговых процессов. Мы и близко не к этому.
Сознание — это просто восприятие, которое можно запрограммировать.

Ответы (6)

Краткий ответ

Нет, извините, это не опровергает аргумент китайской комнаты.

Более подробный ответ

В этом вопросе я кратко рассказываю о сложной проблеме сознания, и как это не вопрос что, а вопрос почему.

Конечно, было бы интересно иметь идеальную диаграмму, которая в реальном времени имитирует движения нейронов мозга, скажем, мозга в бочке . Но симуляция и та, что в бочке, хотя и идентичны по структуре (хотя одна нефизична, хотя бы в том смысле, что это не мозг, а схема), имеют принципиальное отличие.

Эта разница есть сознание, квалиа, опыт. Ваш гипотетический ИИ опирается на какой-то ответ на трудную проблему сознания. В противном случае это похоже на кино, проигрывающее те же движения, что и мозг в бочке, но без реальных мыслей. Очень похоже на философский мысленный эксперимент с зомби.

Какие? Разум, созданный симуляцией, думает так же, как и мозг в вашей голове. Кто сказал, что это отличается от возможности того, что наша собственная вселенная является компьютерной симуляцией? Можем ли мы тогда тоже быть философскими зомби? Почему или почему нет?
@MediaWebDev Таким образом, симуляция движений нейронов не равна мысли, которую создают нейроны. Для того чтобы они были одинаковыми, необходимо было решить трудную проблему сознания. Это не тривиальная задача.
Вы утверждаете, что результат будет подобен философскому зомби, но это определено как нечто лишенное разума. Вы хоть что-то понимаете в неврологии??? Мозг не волшебный. Чувство не волшебно. Это не что иное, как очень сложный набор паттернов и реакций между небольшими коммуникационными механизмами — не имеет значения, принимают ли эти механизмы форму нейронов или объектов в компьютерной программе разум, тем не менее, реален.
@MediaWebDev, значит, у тебя есть ответ на трудную проблему сознания? Вы должны опубликовать, это сделало бы вас очень известным.
Мой пример копирует мозг, который является самым прямым ответом на сложную проблему — хотя копирование мозга не дает нам ответа , оно пропускает необходимость понимания сложности сознания. Эта «трудная проблема» может быть трудной , но она не является недостижимой, это просто тот факт, что наши биологи/неврологи не продвинулись в области неврологии достаточно далеко, чтобы объяснить всю полноту сознания — работу очень сложных компонентов, составляющих сознание. мозг.
Ответ на «трудную проблему» заключается в том, что миллиарды сложных компонентов работают вместе в паттернах обратной связи, что приводит к различным формам мысли, которые вместе образуют сознание. Как именно эти паттерны работают вместе, чтобы создать сознание и разум, мы не узнаем в течение некоторого времени — это тема для Biology.SE. Но только потому, что философы не понимают работы сознания — темы науки — это ничего не говорит о существовании разума в смоделированной копии мозга.
@MediaWebDev Чалмерс не согласился бы, но это нормально. Копирование мозга не является решением сложной проблемы. Даже если бы это было возможно, это не решает проблему. Это не вопрос как, это вопрос почему. В любом случае ваш ответ не является опровержением китайской комнаты. Это никоим образом не объясняет, откуда берется опыт. Ваше утверждение просто предполагает, что копия будет иметь сознание, но ничего не объясняет почему.
@Viziionary Если вы имитируете ураган, на самом деле ничего не промокнет. Сознание может быть похоже на промокание вещей.
Философский аргумент зомби делает ошибочное предположение; что можно «играть» одни и те же движения, не «играя» одни и те же мысли.

В конце «Могут ли машины думать?» Серл пишет:

«Для любого артефакта, который мы могли бы построить, который имел бы психические состояния, эквивалентные психическим состояниям человека, реализации компьютерной программы самой по себе было бы недостаточно. Скорее, артефакт должен был бы обладать способностями, эквивалентными способностям человеческого мозга».

Аргумент китайской комнаты призван показать, что разум — это не просто сложная компьютерная программа. Если компьютер может иметь возможности человеческого мозга благодаря реализации действительно сложной компьютерной программы, то Сирл согласился бы, что этот компьютер является разумом.

Возможно, Серл во всей своей философии мог бы согласиться с тем, что это разум, но я не вижу возможности для его мысленного эксперимента в Китайской комнате согласиться с этим. Тогда, может быть, мои рассуждения опровергают Китайскую комнату, а не Серла во всех его сложных размышлениях на эту тему?
Просто прочитайте Могут ли машины думать? , он доступен в Интернете, и он явно имеет дело с экспериментом в китайской комнате. Мысленный эксперимент «Китайская комната» скромнее, чем вы думаете; он не должен показывать, что вы не можете создать машину, которая понимает язык, он предназначен только для того, чтобы показать, что чистого синтаксиса недостаточно для понимания.
По какой-то причине Серл считает, что «разум» исходит из биохимической реализации человеческого мозга. Поэтому я не уверен, что ему достаточно компьютера, обладающего возможностями человеческого мозга, реализующего действительно сложную компьютерную программу. Он также настаивает на неких проявленных «психических состояниях» в дополнение к простой имитации «способностей».
Серл принимает множественную реализацию; даже если он говорит, что человеческий разум возникает из биохимических взаимодействий, он не может сказать, что только биохимические реакции могут вызывать мозг. Кроме того, Сирл утверждает, что ментальные состояния не являются чистым синтаксисом, но это не означает, что вы не можете создать разум; это означает, что если вы создадите его, реализовав действительно сложный код, ее ментальные состояния не могут быть сведены к фрагментам кода. Наконец, я не очень хорошо знаком с творчеством Серла , поэтому, если вы можете сказать, где он говорит о «проявленных» психических состояниях, я был бы признателен.

Во-первых, как отметил Луис Энрике, физическая осуществимость этого компьютера в лучшем случае спорна, но ради аргумента давайте предположим, что это так.

Ответ 1 уровня

Нет , ваши рассуждения не опровергают аргумент Китайской комнаты. В основе китайского аргумента лежит более фундаментальный принцип Серла о том, что синтаксис не является семантикой . Ваш сверхмощный компьютер, несмотря на все свои вычислительные возможности и возможности памяти, все еще манипулирует абстрактными символами, и он делает это, не зная значения этих символов. Миллионы отдельных точек данных, с которыми он манипулирует, могут быть электронами и ядрами человеческого мозга, планетами и звездами в галактике или отдельными гражданами Китая ... все, что есть у вашего суперкомпьютера, — это набор символов и правил для манипулирует этими символами, и ему все равно, что они означают. Следовательно, утверждает Джон Серл, оно никогда не может быть по-настоящему сознательным или разумным.

Вот еще один взгляд на это: компьютер, выполняющий совершенно идеальную симуляцию летящей птицы (с точки зрения всех физических данных, касающихся скорости и положения птицы, массы, сопротивления воздуха и т. д.), все еще только выполняет симуляцию. , это не является искусственным воссозданием птичьего полета.

Ответ 2 уровня

Вы указываете на слабость принципа Джона Серла «синтаксис — это не семантика». Сам Джон Сирл признает в своих лекциях (извините, я забыл, какую лекцию, вам придется пройти хотя бы первые 6), что биологическая симуляция мозга может обладать сознанием, чего не было бы у цифровой компьютерной симуляции.

Но возникает вопрос: зачем этот барьер между биологическим и цифровым? Почему цифровое электронное воссоздание отдельных нейронов, соединенных между собой в искусственный мозг, не может быть сознательным? Если использовать приведенную выше аналогию с птицей: идеальная компьютерная симуляция полета птицы может быть просто симуляцией, а не реальным полетом, но летающая птица-робот (или самолет), несомненно, летит. В том же смысле: почему компьютер, оснащенный алгоритмами ИИ, не может быть эквивалентен человеческому мозгу так же, как летящий самолет эквивалентен летящей птице? Или что протез ноги эквивалентен биологической ноге?

Эта позиция, согласно которой компьютеру достаточно выполнять те же функции, что и человеческий разум/мозг, известна как функционализм . Серл пытался опровергнуть функционализм, и вопрос, который можно было бросить ему в ответ: вы говорите, что синтаксис — это не семантика, но если семантики нет в функциональном описании разума, то где еще они могут быть? Семантика может быть только в функциональном аспекте разума. Тот, кто написал правила и инструкции для китайской комнаты, сделал это, используя семантику китайского языка, и поэтому эта семантика отражена в синтаксисе, а синтаксис и семантика не так разделены, как полагает Серл. Смотрите этот ответ , этот ответ и этот ответна мой вышеупомянутый вопрос о синтаксисе и семантике для более подробных (и красноречивых объяснений).

«Ваш сверхмощный компьютер, несмотря на все свои вычислительные возможности и возможности памяти, все еще манипулирует абстрактными символами, и он делает это, не зная значения этих символов». Вы знакомы с теорией моделирования? По этой логике никто из нас не может претендовать на разум. Собственно, именно такой абсурдистский скептицизм объясняет другой комментарий в основе всего аргумента. Когда я задал вопрос, я не понял, что это теория о том, что «ничто не реально». Кажется довольно глупым.
@Viziionary Вы прочитали остальную часть моего ответа и ссылки в нем?

Что, если бы мы изобрели машину, способную сканировать и регистрировать каждую клетку, каждый электрон, каждую скорость каждого атома в человеческом мозгу, а затем вводить эти данные в компьютер, достаточно мощный, чтобы вычислительно моделировать существование всего этого мозга?

Одна проблема в том, что такая машина невозможна; это нарушает принцип Гейзенберга.

Это проблема, вероятно, только потому, что ОП слишком старается. Вероятно, можно заменить многие, если не все естественные элементы мозга (например, нейроны) искусственным электронным заменителем или компьютерной симуляцией, и при этом получить ту же функциональность. Кроме того, не похоже, чтобы функциональность мозга была настолько непостоянной, чтобы зависеть от тех или иных химически идентичных атомов.
@rapt - есть разница между созданием искусственного мозга, что невозможно на текущем техническом уровне, и картированием отдельного мозга, как описано в ОП. Первое, возможно , возможно с помощью технологии более высокого уровня, но второе нарушает закон физики и, следовательно, невозможно независимо от технологии, если только этот закон не будет отменен, что кажется маловероятным.

Утверждение, что эксперимент Сирла с китайской комнатой (CRE) не был опровергнут, по моему скромному мнению, несколько преуменьшено. Вывод из CRE заманчив, но мы можем однозначно заявить, что CRE неисправен. Вам просто нужно прочитать комментарии Дугласа Хофштадтера («Хофштадтер и Деннетт — Разум I» (2001)), Дэниела С. Деннета («Насосы интуиции и другие инструменты мышления» (2013) или Джека Коупленда («Искусственный интеллект» (1993)). Все они заявить, что CRE ошибочен по замыслу, и поэтому не может утверждать, что машина (компьютер) не может думать. Вы спрашивали, может ли ИИ иметь сознание, но это не было вопросом CRE. (Первоначальный) CRE был методом, в котором Сирл утверждал, что ни одна машина не может мыслить (в этом случае она не может пройти тест Тьюринга), Джек Коупленд и Дэниел Деннет писали, что она Философски можно говорить о машинах, которые могут думать. Деннет на основе его преднамеренной позиции аргумента. Коупленд утверждает, что когда машина (или что-то еще) может думать, может ли эта машина выполнять те же процессы, что и человек, когда мы говорим о мышлении. На том основании, что когда мы используем «мышление» для обозначения поведения человека, мы также можем использовать то же слово для обозначения того же поведения машины (прочитайте главу 3 его книги, упомянутой ранее).

До сих пор не было машины, отвечающей требованиям теста Тьюринга, поэтому можно утверждать, что еще не было машины, которая может думать.

Хорошие ссылки, но не могли бы вы указать номера страниц, чтобы читатель мог быстрее найти конкретные части в этих книгах о CRE. Несмотря ни на что, добро пожаловать в этот SE!
«Сёрл заявил, что ни одна машина не может думать (в этом случае она проходит тест Тьюринга)». -- Боже мой, нет. Китайская комната проходит тест Тьюринга (по крайней мере, в отношении китайского языка). Это неотличимо от носителя китайского языка. И все же это совсем не самосознание . Аргумент китайской комнаты (обычно CRA в литературе) показывает разницу между прохождением теста Тьюринга и пребыванием в сознании. Мой сосед проходит тест Тьюринга. У меня нет способа доказать, что он в сознании.
@ Фрэнк Хубени: Для «Разумов я» см. размышления Хофштадтера после статьи Сирла «Разум, мозги и программы». В этом размышлении Хофштадтер указывает на недостатки CRE. О Деннете см. главу 60 «Китайская комната». О Коупленде см. главу 3 «Может ли машина думать?» и глава 6 «Любопытный случай китайской комнаты». Вы также можете прочитать статью Джорджа Рея «Непонимание Сирлом функционализма и сильного ИИ». Вы можете найти его здесь: sites.google.com/site/georgesrey .
@ user4894: Китайская комната — это не то же самое, что Тест Тьюринга (ТТ). Серл в своей оригинальной статье «Разум, мозг и программы» хотел доказать, что ТТ не доказывает, что машина может мыслить и, следовательно, что сильного ИИ не существует. Речь идет об интеллекте и преднамеренности. Позже дискуссия расширилась до сознания. Интенциональность и сознание — две разные вещи. Нечто может обладать разумом и интенциональностью, но в то же время не иметь сознания.
Алгоритм CR обладает тем же, что и человеческий мозг, называйте это осознанностью, если хотите. Тот факт, что комната использует неосознанный орган (человека) для передачи своего сознания, ничего не значит. Эксперимент по своей сути ошибочен из-за того, что он пытается доказать, упражнение в размахивании руками, он маскирует свою фундаментальную ошибку за слоем абстракции. Во всяком случае, эксперимент доказывает, что то, что мы называем (человеческим) сознанием, не то, что мы думаем, это не какой-то трансцендентный, невоспроизводимый призрак. Для этого вывода эксперимент действительно силен. Это показывает, что человеческий мозг не более чем машина,
Нет необходимости ссылаться на Хофштадтера, Деннета или Коупленда... первоначальный выпуск BBS за 1980 год, в котором фигурирует аргумент китайской комнаты, уже содержит множество опровержений.

Аргумент основан на аналогии между китайским языком и сознанием. Таким образом, вы не показали, что аргумент основан на ошибке, если вы действительно просто утверждаете, что:

  • очень сложный компьютер мог бы имитировать все, что составляет человеческий разум

как вам кажется.

Единственный способ, которым я могу представить, что вы начали (при условии отсутствия ошибок в действительности ни один аргумент не будет полностью отвергнут) опровергать профессора Серла, заключается в том, что вы также утверждаете:

  • очень сложный компьютер находится за пределами нашего нынешнего человеческого мышления,

или же

  • если мы имитируем каждый аспект китайского языка, то мы его понимаем.

Возможно, вы путаете эти два утверждения, что не очень поможет. Я с пониманием отношусь к обоим утверждениям, но профессора Сирла вам не переубедить.