Почему Сирл не выучил китайский язык в своей комнате, учитывая бесконечное количество времени?

Люди обладают удивительной способностью распознавать образы. Я не понимаю утверждение Серла: «Мне кажется совершенно очевидным на примере, что я не понимаю ни слова в китайских сказках». Конечно, он не понял бы после всего лишь нескольких итераций. Но по мере того, как он продолжает расшифровывать, не будет ли он естественно узнавать все больше и больше паттернов и корреляций и, учитывая бесконечное время, в конце концов выучить китайский язык?
Есть ли что-то, что помешало бы ему научиться этому?
Возможно ли, что Серл научился понимать китайский язык, но не компьютер?

Краткое изложение мысленного эксперимента Серла

Предположим, компьютер проходит тест Тьюринга на китайском языке. Теперь предположим, что я один в комнате и выполняю те же вычислительные задачи, что и компьютер, но вручную. После запуска ручной программы человек, разговаривавший с «компьютером» (со мной), предполагает, что он переписывался с человеком, говорящим по-китайски. Однако я до сих пор не знаю китайского языка. Поэтому Компьютер и не знает китайского языка.

Нажмите, чтобы прочитать книгу Джона Сирла «Разум, мозг и программы».

По теме: в 2010 году исследователям Массачусетского технологического института удалось расшифровать древний угаритский язык . Однако это было сделано с большим количеством предположений, в основном о том, что язык морфологически и синтаксически близок к другим известным языкам (в данном случае к другим семитским языкам). Итак, я не уверен, что компьютеры уже могут расшифровать язык, о котором ничего не известно.
Спасибо за рекомендацию. | Да, но в контексте жесткого ИИ должен быть механизм обучения или самопрограммирования. Мне кажется, что его мысленный эксперимент проваливается, потому что компьютер может добавлять лексемы, семантику и т. д. в базу данных (эквивалентную, но превосходящую его память) и дополнительно создавать базу данных паттернов, сравнимую с современными базами данных сопоставления изображений (эквивалентную, но более слабую). к его способности распознавания образов).

Ответы (4)

Аргумент против достоверности теста Тьюринга как достаточного признака интеллекта. В комментарии вы говорите:

Возможно, мне следует переформулировать вопрос так: Учитывая достаточное количество времени, данных и качественного программирования, что заставляет нас думать, что собственно компьютер не может учиться с помощью распознавания и анализа образов, как это может сделать человек?

Аргумент Серла не оспаривает этого, он предлагает (гипотетическую) систему, которая, возможно, проходит тест Тьюринга, не будучи разумной. В случае, который вы описываете, система уже отвечает, как если бы она знала китайский язык, прежде чем выучить его, поэтому более поздняя версия системы «знающая китайский язык» неотличима от «не знающего китайского языка», не понимающего более раннюю версию системы. .

Поскольку можно построить систему, которая проходит тест Тьюринга, но не является разумной, это показывает, что система, прошедшая тест Тьюринга, не обязательно должна быть разумной. Аргумент китайской комнаты не направлен на доказательство того, что невозможно построить интеллектуальную систему или что система, прошедшая тест Тьюринга, обязательно неразумна.

Сирл не предполагает, что он не может научиться понимать китайский язык. Он утверждает, что только потому, что компьютер может отвечать на вопросы, как человек, не означает, что компьютер понимает язык.

В своем мысленном эксперименте он похож на компьютер, когда дело доходит до китайского языка, потому что он его не понимает. Вы не должны зацикливаться на том, что это китайский, или английский, или сценарий Войнича, или что-то в этом роде. Ключевым элементом его мысленного эксперимента является то, что он не понимает символы и просто применяет алгоритм.

Теперь Серл использует немного дыма и зеркал в своем мысленном эксперименте. Имея его как в процессе понимания, так и в процессе непонимания, он заставляет вас сравнивать его умного и глупого. Его ловкость рук заключается в том, чтобы отвлечь вас от понимания того, насколько удивительным должен быть его бумажный алгоритм, чтобы казаться разумным.

Например, скажем, вопросы начались:

  • What is your mother's name?
  • How many children has she?
  • How old are they?

Во-первых, обратите внимание, что алгоритм не может просто отвечать на вопросы, ему нужен контекст. Он не может просто посмотреть How old are they?и дать ответ. Он даже не может просто вернуться к предыдущему вопросу, так как не будет знать, кто sheэто. Таким образом, необходимо будет поддерживать контекстную информацию на протяжении всего разговора, в целом, на основе вопросов, ответов и встроенных знаний. И не только тривиальный контекст, ему нужно было бы приравнять motherи sheопределить, что how oldотносится к children. Таким образом, чтобы казаться разумным для такого простого обмена, алгоритм должен быть очень сложным; работа со сложными языковыми проблемами, сложными взаимодействиями с данными и управлением состоянием.

Таким образом, может быть справедливо утверждать, что «аппаратное обеспечение», на котором работает алгоритм, то есть Серл, не понимает. Но я бы сказал, что комбинация алгоритма, выполнения алгоритма и данных может.

Конечно, я понимаю аргумент. Возможно, мне следует переформулировать вопрос наGiven enough time, data, & quality programming what makes us think the computer proper can't learn via pattern recognition & analysis as a human could?
@RubelliteFae Это вопрос, существенно отличающийся от вашего оригинала, а не переформулировка.
As he continues to transcribe wouldn't he naturally recognize more and more patterns and correlations and, given infinite time, eventually learn Chinese?Разница только в "он" и "компьютер". Но я воспринимал их как равнозначные.

Чтобы ответить на вопрос, как на самом деле сформулировано: НЕТ. Рассмотрим, что на самом деле видит человек в комнате: Фрагменты китайского языка (входящие и исходящие) плюс (предположительно) различные внутренние указатели и указания по обновлению внутреннего состояния системы. В какой момент все это на самом деле связано с внешним миром? Никогда, если только система не содержит дополнительных заметок, которые человек может прочитать — но я думаю, что мы должны исключить это, или, по крайней мере, я уверен, что Серл исключил бы это [аналогия: может ли «бабушкин нейрон» быть явно помечен словом «бабушка»? '??].

Люди изучают язык, соединяя слова с миром — мы узнаем, что такое мяч, когда кто-то говорит «мяч», показывая нам мяч, мы узнаем, что такое «большой», когда кто-то говорит «большой», (например) широко размахивая руками, и так далее. Теоретически, человек в комнате МОЖЕТ научиться выдавать последовательности китайских символов в ответ на другие последовательности, своего рода статистическое сопоставление с образцом, но для человека в этом не будет никакого смысла, потому что ничто из этого не будет заземленный.

Если это так, то человек, выполняющий инструкции, не более чем гомункул. Люди распознают закономерности, основываясь на своем опыте реальности. Именно так дети усваивают язык.

Вы должны быть осторожны, чтобы различать неодушевленные предметы в комнате, которые не обладают пониманием, и человека, который обладает пониманием (например, общей способностью понимать). Человек, который проводит какое-то время с программой, может со временем научиться понимать китайский язык, а может и нет, но это не врожденное свойство программы; это человек, у которого есть понимание в голове, независимо от любого списка инструкций, которым он может следовать.

Короче говоря, если вы многократно, снова и снова следуете списку инструкций, в какой-то момент вы действительно можете начать понимать, для чего эти инструкции на самом деле предназначены 1) и как они функционируют 2), но полностью механическая система, скажем, какая-то компьютерная программа, реализованная в виде системы водопроводных труб, не будет иметь понимания, сколько бы раз через нее ни запускалась программа.

Дело в том, что компьютеры развивались с тех пор и теперь имеют внутренние состояния, которые могут меняться со временем. Таким образом, для каждого слова или даже слога или буквы вы можете создать примечание, и для каждой команды вы можете добавить соединения между узлами и настроить размер и углы труб, чтобы сделать поток более или менее вероятным, вы можете реализовать условия и еще много чего, чтобы вещь могла действительно выучить китайский язык с достаточным количеством повторений и данных. Вопрос в том, является ли то, что он выучил, на самом деле китайским? Потому что да, человек предположил бы, что это язык других людей и...
... из опыта и связи между словами смысл или, по крайней мере, значение их и так выводят какое-то понимание. Но это знание присуще человеку и его опыту человечества и других народов и тому, как используется язык. У компьютера не было бы таких знаний, но ему нужно было бы обо всем этом догадаться.
Я не думаю, что это действительно имеет значение. Если система буквально постоянно и вечно меняется неалгоритмическим образом, ее все же можно свести к статическому алгоритму — системе водопроводных труб или машине Тьюринга, если хотите. Обратите внимание на неалгоритмичность. Ни один современный компьютер не способен изменять себя неалгоритмическим способом, так что это утверждение применимо и сегодня.
Не было бы довольно просто создать неалгоритмический алгоритм, применяя изменения на основе случайного события?
Если это так, то это круговая логика. Вывод должен заключаться в том, что нельзя сказать, что устройство обучается, но, согласно вашему ответу, это также является частью предпосылки.