Люди обладают удивительной способностью распознавать образы. Я не понимаю утверждение Серла: «Мне кажется совершенно очевидным на примере, что я не понимаю ни слова в китайских сказках». Конечно, он не понял бы после всего лишь нескольких итераций. Но по мере того, как он продолжает расшифровывать, не будет ли он естественно узнавать все больше и больше паттернов и корреляций и, учитывая бесконечное время, в конце концов выучить китайский язык?
Есть ли что-то, что помешало бы ему научиться этому?
Возможно ли, что Серл научился понимать китайский язык, но не компьютер?
Предположим, компьютер проходит тест Тьюринга на китайском языке. Теперь предположим, что я один в комнате и выполняю те же вычислительные задачи, что и компьютер, но вручную. После запуска ручной программы человек, разговаривавший с «компьютером» (со мной), предполагает, что он переписывался с человеком, говорящим по-китайски. Однако я до сих пор не знаю китайского языка. Поэтому Компьютер и не знает китайского языка.
Нажмите, чтобы прочитать книгу Джона Сирла «Разум, мозг и программы».
Аргумент против достоверности теста Тьюринга как достаточного признака интеллекта. В комментарии вы говорите:
Возможно, мне следует переформулировать вопрос так: Учитывая достаточное количество времени, данных и качественного программирования, что заставляет нас думать, что собственно компьютер не может учиться с помощью распознавания и анализа образов, как это может сделать человек?
Аргумент Серла не оспаривает этого, он предлагает (гипотетическую) систему, которая, возможно, проходит тест Тьюринга, не будучи разумной. В случае, который вы описываете, система уже отвечает, как если бы она знала китайский язык, прежде чем выучить его, поэтому более поздняя версия системы «знающая китайский язык» неотличима от «не знающего китайского языка», не понимающего более раннюю версию системы. .
Поскольку можно построить систему, которая проходит тест Тьюринга, но не является разумной, это показывает, что система, прошедшая тест Тьюринга, не обязательно должна быть разумной. Аргумент китайской комнаты не направлен на доказательство того, что невозможно построить интеллектуальную систему или что система, прошедшая тест Тьюринга, обязательно неразумна.
Сирл не предполагает, что он не может научиться понимать китайский язык. Он утверждает, что только потому, что компьютер может отвечать на вопросы, как человек, не означает, что компьютер понимает язык.
В своем мысленном эксперименте он похож на компьютер, когда дело доходит до китайского языка, потому что он его не понимает. Вы не должны зацикливаться на том, что это китайский, или английский, или сценарий Войнича, или что-то в этом роде. Ключевым элементом его мысленного эксперимента является то, что он не понимает символы и просто применяет алгоритм.
Теперь Серл использует немного дыма и зеркал в своем мысленном эксперименте. Имея его как в процессе понимания, так и в процессе непонимания, он заставляет вас сравнивать его умного и глупого. Его ловкость рук заключается в том, чтобы отвлечь вас от понимания того, насколько удивительным должен быть его бумажный алгоритм, чтобы казаться разумным.
Например, скажем, вопросы начались:
What is your mother's name?
How many children has she?
How old are they?
Во-первых, обратите внимание, что алгоритм не может просто отвечать на вопросы, ему нужен контекст. Он не может просто посмотреть How old are they?
и дать ответ. Он даже не может просто вернуться к предыдущему вопросу, так как не будет знать, кто she
это. Таким образом, необходимо будет поддерживать контекстную информацию на протяжении всего разговора, в целом, на основе вопросов, ответов и встроенных знаний. И не только тривиальный контекст, ему нужно было бы приравнять mother
и she
определить, что how old
относится к children
. Таким образом, чтобы казаться разумным для такого простого обмена, алгоритм должен быть очень сложным; работа со сложными языковыми проблемами, сложными взаимодействиями с данными и управлением состоянием.
Таким образом, может быть справедливо утверждать, что «аппаратное обеспечение», на котором работает алгоритм, то есть Серл, не понимает. Но я бы сказал, что комбинация алгоритма, выполнения алгоритма и данных может.
Given enough time, data, & quality programming what makes us think the computer proper can't learn via pattern recognition & analysis as a human could?
As he continues to transcribe wouldn't he naturally recognize more and more patterns and correlations and, given infinite time, eventually learn Chinese?
Разница только в "он" и "компьютер". Но я воспринимал их как равнозначные.Чтобы ответить на вопрос, как на самом деле сформулировано: НЕТ. Рассмотрим, что на самом деле видит человек в комнате: Фрагменты китайского языка (входящие и исходящие) плюс (предположительно) различные внутренние указатели и указания по обновлению внутреннего состояния системы. В какой момент все это на самом деле связано с внешним миром? Никогда, если только система не содержит дополнительных заметок, которые человек может прочитать — но я думаю, что мы должны исключить это, или, по крайней мере, я уверен, что Серл исключил бы это [аналогия: может ли «бабушкин нейрон» быть явно помечен словом «бабушка»? '??].
Люди изучают язык, соединяя слова с миром — мы узнаем, что такое мяч, когда кто-то говорит «мяч», показывая нам мяч, мы узнаем, что такое «большой», когда кто-то говорит «большой», (например) широко размахивая руками, и так далее. Теоретически, человек в комнате МОЖЕТ научиться выдавать последовательности китайских символов в ответ на другие последовательности, своего рода статистическое сопоставление с образцом, но для человека в этом не будет никакого смысла, потому что ничто из этого не будет заземленный.
Вы должны быть осторожны, чтобы различать неодушевленные предметы в комнате, которые не обладают пониманием, и человека, который обладает пониманием (например, общей способностью понимать). Человек, который проводит какое-то время с программой, может со временем научиться понимать китайский язык, а может и нет, но это не врожденное свойство программы; это человек, у которого есть понимание в голове, независимо от любого списка инструкций, которым он может следовать.
Короче говоря, если вы многократно, снова и снова следуете списку инструкций, в какой-то момент вы действительно можете начать понимать, для чего эти инструкции на самом деле предназначены 1) и как они функционируют 2), но полностью механическая система, скажем, какая-то компьютерная программа, реализованная в виде системы водопроводных труб, не будет иметь понимания, сколько бы раз через нее ни запускалась программа.
пользователь2953
Рубеллитовый фейри