Я программист, заинтересованный в развитии искусственного интеллекта. Я только что прочитал об аргументе Джона Серла о Китайской комнате и хотел бы знать, успешно ли опровергает мои рассуждения его аргумент.
Аргумент китайской комнаты более или менее указывает на то, что компьютерная программа может симулировать сознание/разум, но никогда на самом деле не испытать его таким же образом, как человек, не знающий китайского языка, может симулировать знание китайского языка с помощью набора инструкций, без когда- либо на самом деле испытал способность понимать китайский язык.
Я понимаю, как мистер Серл пришел бы к такому заключению, но я считаю, что он ошибся.
ИИ, возможно, Siri от Apple, модернизированный через 20 лет в будущем с дополнительными возможностями, будет запрограммирован с помощью алгоритмов, инструкций, интерпретировать информацию и реагировать на стимулы, демонстрируя , не испытывая на самом деле огромную сложность мыслительных паттернов, формирующих сознание, как утверждал Серл через Китайская комната.
Однако рассмотрим другую форму этой симуляции ИИ, которая идеально отражает человеческий мозг:
Что, если бы мы изобрели машину, способную сканировать и регистрировать каждую клетку, каждый электрон, каждую скорость каждого атома в человеческом мозгу, а затем вводить эти данные в компьютер, достаточно мощный, чтобы вычислительно моделировать существование всего этого мозга?
Этот смоделированный мозг, как изменяемая структура данных, станет мощным ИИ, способным развиваться за пределами физических ограничений физического человеческого мозга. Мозг, независимо от среды его существования (компьютерная симуляция), был бы совершенно слеп к тому факту, что он вообще находится в компьютерной симуляции. Тем не менее, он будет работать совершенно идентично мозгу сканируемого человека, если предположить, что в симуляции присутствуют все надлежащие физические процессы и стимулы.
Следовательно, кто может сказать, что этот ИИ, этот смоделированный мозг менее разумен, чем вы или я?
Нет, извините, это не опровергает аргумент китайской комнаты.
В этом вопросе я кратко рассказываю о сложной проблеме сознания, и как это не вопрос что, а вопрос почему.
Конечно, было бы интересно иметь идеальную диаграмму, которая в реальном времени имитирует движения нейронов мозга, скажем, мозга в бочке . Но симуляция и та, что в бочке, хотя и идентичны по структуре (хотя одна нефизична, хотя бы в том смысле, что это не мозг, а схема), имеют принципиальное отличие.
Эта разница есть сознание, квалиа, опыт. Ваш гипотетический ИИ опирается на какой-то ответ на трудную проблему сознания. В противном случае это похоже на кино, проигрывающее те же движения, что и мозг в бочке, но без реальных мыслей. Очень похоже на философский мысленный эксперимент с зомби.
В конце «Могут ли машины думать?» Серл пишет:
«Для любого артефакта, который мы могли бы построить, который имел бы психические состояния, эквивалентные психическим состояниям человека, реализации компьютерной программы самой по себе было бы недостаточно. Скорее, артефакт должен был бы обладать способностями, эквивалентными способностям человеческого мозга».
Аргумент китайской комнаты призван показать, что разум — это не просто сложная компьютерная программа. Если компьютер может иметь возможности человеческого мозга благодаря реализации действительно сложной компьютерной программы, то Сирл согласился бы, что этот компьютер является разумом.
Во-первых, как отметил Луис Энрике, физическая осуществимость этого компьютера в лучшем случае спорна, но ради аргумента давайте предположим, что это так.
Ответ 1 уровня
Нет , ваши рассуждения не опровергают аргумент Китайской комнаты. В основе китайского аргумента лежит более фундаментальный принцип Серла о том, что синтаксис не является семантикой . Ваш сверхмощный компьютер, несмотря на все свои вычислительные возможности и возможности памяти, все еще манипулирует абстрактными символами, и он делает это, не зная значения этих символов. Миллионы отдельных точек данных, с которыми он манипулирует, могут быть электронами и ядрами человеческого мозга, планетами и звездами в галактике или отдельными гражданами Китая ... все, что есть у вашего суперкомпьютера, — это набор символов и правил для манипулирует этими символами, и ему все равно, что они означают. Следовательно, утверждает Джон Серл, оно никогда не может быть по-настоящему сознательным или разумным.
Вот еще один взгляд на это: компьютер, выполняющий совершенно идеальную симуляцию летящей птицы (с точки зрения всех физических данных, касающихся скорости и положения птицы, массы, сопротивления воздуха и т. д.), все еще только выполняет симуляцию. , это не является искусственным воссозданием птичьего полета.
Ответ 2 уровня
Вы указываете на слабость принципа Джона Серла «синтаксис — это не семантика». Сам Джон Сирл признает в своих лекциях (извините, я забыл, какую лекцию, вам придется пройти хотя бы первые 6), что биологическая симуляция мозга может обладать сознанием, чего не было бы у цифровой компьютерной симуляции.
Но возникает вопрос: зачем этот барьер между биологическим и цифровым? Почему цифровое электронное воссоздание отдельных нейронов, соединенных между собой в искусственный мозг, не может быть сознательным? Если использовать приведенную выше аналогию с птицей: идеальная компьютерная симуляция полета птицы может быть просто симуляцией, а не реальным полетом, но летающая птица-робот (или самолет), несомненно, летит. В том же смысле: почему компьютер, оснащенный алгоритмами ИИ, не может быть эквивалентен человеческому мозгу так же, как летящий самолет эквивалентен летящей птице? Или что протез ноги эквивалентен биологической ноге?
Эта позиция, согласно которой компьютеру достаточно выполнять те же функции, что и человеческий разум/мозг, известна как функционализм . Серл пытался опровергнуть функционализм, и вопрос, который можно было бросить ему в ответ: вы говорите, что синтаксис — это не семантика, но если семантики нет в функциональном описании разума, то где еще они могут быть? Семантика может быть только в функциональном аспекте разума. Тот, кто написал правила и инструкции для китайской комнаты, сделал это, используя семантику китайского языка, и поэтому эта семантика отражена в синтаксисе, а синтаксис и семантика не так разделены, как полагает Серл. Смотрите этот ответ , этот ответ и этот ответна мой вышеупомянутый вопрос о синтаксисе и семантике для более подробных (и красноречивых объяснений).
Что, если бы мы изобрели машину, способную сканировать и регистрировать каждую клетку, каждый электрон, каждую скорость каждого атома в человеческом мозгу, а затем вводить эти данные в компьютер, достаточно мощный, чтобы вычислительно моделировать существование всего этого мозга?
Одна проблема в том, что такая машина невозможна; это нарушает принцип Гейзенберга.
Утверждение, что эксперимент Сирла с китайской комнатой (CRE) не был опровергнут, по моему скромному мнению, несколько преуменьшено. Вывод из CRE заманчив, но мы можем однозначно заявить, что CRE неисправен. Вам просто нужно прочитать комментарии Дугласа Хофштадтера («Хофштадтер и Деннетт — Разум I» (2001)), Дэниела С. Деннета («Насосы интуиции и другие инструменты мышления» (2013) или Джека Коупленда («Искусственный интеллект» (1993)). Все они заявить, что CRE ошибочен по замыслу, и поэтому не может утверждать, что машина (компьютер) не может думать. Вы спрашивали, может ли ИИ иметь сознание, но это не было вопросом CRE. (Первоначальный) CRE был методом, в котором Сирл утверждал, что ни одна машина не может мыслить (в этом случае она не может пройти тест Тьюринга), Джек Коупленд и Дэниел Деннет писали, что она Философски можно говорить о машинах, которые могут думать. Деннет на основе его преднамеренной позиции аргумента. Коупленд утверждает, что когда машина (или что-то еще) может думать, может ли эта машина выполнять те же процессы, что и человек, когда мы говорим о мышлении. На том основании, что когда мы используем «мышление» для обозначения поведения человека, мы также можем использовать то же слово для обозначения того же поведения машины (прочитайте главу 3 его книги, упомянутой ранее).
До сих пор не было машины, отвечающей требованиям теста Тьюринга, поэтому можно утверждать, что еще не было машины, которая может думать.
Аргумент основан на аналогии между китайским языком и сознанием. Таким образом, вы не показали, что аргумент основан на ошибке, если вы действительно просто утверждаете, что:
как вам кажется.
Единственный способ, которым я могу представить, что вы начали (при условии отсутствия ошибок в действительности ни один аргумент не будет полностью отвергнут) опровергать профессора Серла, заключается в том, что вы также утверждаете:
или же
Возможно, вы путаете эти два утверждения, что не очень поможет. Я с пониманием отношусь к обоим утверждениям, но профессора Сирла вам не переубедить.
Дж. Тодд
хэллиале
Квентин Руян
Конифолд
selfConceptedAsEvil
пользователь23209
EternalPropagation