Почему китайская комната не изучает китайский язык?

Я просто не понимаю, какой смысл имеет китайская комната Джона Сирла. Комната проходит тест Тьюринга. Люди за пределами комнаты думают, что внутри есть человек, который понимает по-китайски. Но, как объясняет Сирл, комната на самом деле содержит в аналоговой форме все основные элементы электронного цифрового компьютера, запрограммированного понимать (согласно Сильному ИИ) китайскую письменность. Но одноязычный англоговорящий человек в комнате (процессор компьютера) не понимает по-китайски. Карты с исписанными китайскими символами попадают в комнату через щель в двери. Это разумные китайские вопросы. Книга правил (программа) имеет дело только с их формами, а не с их значениями. Он инструктирует человека найти определенные китайские иероглифы среди запчастей в комнате, а затем вытолкнуть их через щель. Человек не знает, что это разумные китайские ответы. Ни человек, ни комната не понимают значения форм, поскольку все, что у них есть, — это формы. Отсюда Серл продолжает утверждать, что компьютеры никогда не поймут ни язык, ни мир.

Что мне кажется фундаментальной ошибкой, так это то, что Серл основывает свои аргументы на сравнении компьютера, получающего китайские символы, с человеком, принимающим китайские символы. Затем, исходя из того факта, что компьютер не понимает значения символов, Серл утверждает, что компьютеры никогда ничего не смогут понять.

Ну, люди тоже не могут понять значения символов. Люди сначала должны выучить китайский. Почему комната не пытается выучить китайский? Без этого аргумент Серла бессмыслен. Изучение китайского влечет за собой развитие структуры памяти. В китайской комнате нет структуры, потому что в комнате не из чего ее построить. Онтология комнаты нуждается в добавлении к ней структурных элементов, чтобы затем она содержала атомы структуры, а также символы (содержание структуры). Затем программа может поручить человеку построить структуру памяти. Цифровые компьютеры могут легко создавать структуру памяти и часто так и делают. Теперь с конструктивными элементами китайской комнаты можно попробовать выучить китайский язык. И, кстати, CRA несостоятелен, потому что посылка Сирла «…цифровой компьютер — это синтаксическая машина. в The New York Review of Books, 9 октября 2014 г.) не соответствует действительности. Кроме того, вполне можно утверждать, что некоторые структурные элементы являются семантическими.

Было бы очень здорово получить некоторые комментарии и критику моего вышеприведенного ответа на аргумент китайской комнаты.

Книга правил содержит структуру, не так ли?
«Кроме того, можно утверждать, что некоторые структурные элементы являются семантическими». -- Я часто видел, как спорили; но никогда хорошо не спорил. Назовите один семантический элемент цифрового компьютера.
Вы пишете: Книга правил (программа) имеет дело только с их формами, а не с их значениями. Однако это все, что человечество знает о китайском языке. Предполагается, что программа способна принимать символы в заданном порядке и возвращать осмысленный ответ. В программе есть процесс, который позволяет ей делать с персонажами больше, чем может сделать человек. Дело в том, что следование этому процессу не приведет к пониманию китайского языка, поскольку человек может следовать программе, но после этого не понимать китайский язык. Следовательно, для понимания китайского языка требуется больше, чем может вместить любая программа.
в комнате много памяти. подумайте о количестве информации, закодированной в справочной таблице, размер которой затмил бы известную вселенную. или, может быть, это ваша точка зрения.
Откуда должно браться намерение выучить китайский на процессоре? Если вы знаете структуру процессора, вы можете легко увидеть, что ни одна из его частей не мотивирует «начать изучение китайского языка». Это то, что делают люди, поскольку обучение необходимо для выживания.
У вас может быть точка зрения, что комната Серла не учится, но обучение - это динамический процесс, добавления статической структуры памяти недостаточно. А в комнате есть карандаши, бумага и картотечные шкафы, чтобы построить такую ​​структуру, так что это не поможет. Серл придерживается семантики содержания (условной истины), которая может быть частью проблемы, она не может уловить концептуальные изменения и, следовательно, научиться свободному китайскому языку от некитайского. Но чтобы ответить Серлу, нужно убедительное объяснение того, как обучение должно функционировать и приобретать смысл за пределами человеческого разума, помимо простого добавления памяти.
@Квентин Руян. Я предполагаю, что книга правил содержит структуру, такую ​​как структура предложения и, возможно, индексы и т. д. (а процессор компьютера имеет программный стек). Но для меня проблема заключается в том, о каких типах объектов могут говорить правила. Они могут говорить только о символах. Это потому, что Серл считает, что все, что могут делать компьютеры, — это манипулировать символами. Но обучение влечет за собой установление структуры. В комнате должно быть что-то, что человек может использовать для соединения символов в структуру. Но ничего нет. Это онтологическая ошибка. Это мой аргумент об онтологии комнаты.
@ Тим Кинселла. Я не уверен, что в комнате есть память в том смысле, в каком она есть у компьютеров. Серл называет движущиеся китайские символы «связками» и «пакетами», а покоящиеся - «коробками» и «корзинами». Но как человек соотносит символы вместе? Например, как он будет строить бинарные древовидные структуры? Для этого ему нужны узлы и связи, а у него есть только символы. Серл снова и снова повторяет, что компьютеры манипулируют только символами. Фундаментальное различие между символами и структурой для меня состоит в том, что символы индивидуальны, определяются значением свойства (например, формой), но структура является реляционной.
@ пользователь4894. «Назовите один семантический элемент цифрового компьютера». Прежде всего, это должно касаться чувственных символов, поскольку они являются каузальными следствиями внешнего мира. Сенсорная поверхность имеет детекторы, каждый из которых реагирует на свой небольшой диапазон какого-либо аспекта внешнего мира (например, звуковой частоты). При активации детектор излучает уникальный символ. Отношение временной смежности между излучаемыми символами отражает временную смежность между внешними событиями, вызвавшими эти символы. Временная смежность между символами может быть постоянно записана с помощью указателей.
@ user4894 продолжение Таким образом, если A поступает в поток сенсорных символов, то B, A и B сохраняются, и указатель соединяет их (по порядку). Таким образом, сохраненный AB фиксирует тот факт, что B последовал за A в потоке, когда он прибыл на компьютер. Конечно, A и B ничего не говорят о внешних событиях, которые вызвали излучение A и B датчиком. Но смежность между А и В есть то же самое — смежность во времени, — что и между соответствующими внешними событиями. Быть одним и тем же означает, что связь AB должна быть семантической (не связь A и B, а связь). Это трудно объяснить. Кажется минималистичным _
@CaZaNOx. Я предполагаю, что программа могла бы просто выполнять операции (инструктировать человека выполнять операции), в которых состоит обучение. Мотивация кажется мне отдельной проблемой. Моя главная проблема заключается в том, что если онтология предметов, которыми можно манипулировать в комнате, действительно несовершенна (по сравнению с компьютером), то постулат Серла о том, что «все, что могут делать компьютеры, — это манипулировать символами», является ложным, а CRA необоснованным. Согласны ли вы с тем, что в комнате нужны элементы конструкции, которыми мужчина может манипулировать? И если это так, делает ли это CRA несостоятельным?
@Конифолд. Что касается вашего первого замечания о том, что обучение является динамическим процессом, а структура статична, я согласен, что это правда, но хотя в любой момент времени структура фиксирована, а в следующий раз она все еще фиксирована, но тогда это другая структура, чему-то научился. Добавление элементов структуры в комнату означает, что человек может манипулировать этими элементами, а также китайскими символами и строить вещи, например, бинарные деревья, и со временем благодаря программе комната будет иметь динамически изменяющуюся структуру.
Изменение нарезки не дает вам динамики, а только ее имитацию в стиле исчисления, которая ломается именно для той цели, которую вы имеете в виду. Люди, разрабатывающие несодержательную семантику, обычно вводят нередуцируемый динамический элемент (привычка у Пирса, знание как/навык у Райла, практика у Витгенштейна и т. д.) и реконструируют на его основе статическое содержание как ограничивающую абстракцию, а не наоборот. Что это может быть в компьютерах, неясно, но предполагается, что обратная связь и действие на себя каким-то образом задействованы. Память не устраняет разрыв между данными, программированием и действием.
@Roddus Я не вижу недостатка. Ядро процессора состоит из следующих элементов. АЛУ (Человек в КР), Регистры (Куча символов), Блок управления БУ (Свод правил) и шины (входные/выходные щели КР). Так чего же не хватает в CRA? Каковы элементы структуры ЦП. Также человек уже может манипулировать кучами в CR. Я не понимаю, как эта структуризация влияет на пошаговые вычисления ALU?
@CaZaNOx Я за границей, и у меня нет моих цитат Сирла. Итак, без них, Сирл говорит, все, что компьютеры делают/могут/могут делать, это обрабатывают символы, а компьютеры — это чисто синтаксические устройства, то есть устройства для манипулирования символами». удалять/манипулировать структурой памяти и строить бинарные деревья и т. д. Но все, чем манипулирует Сирл, — это китайские символы (и только они в корзинах и коробках с запчастями).Если бы у Серла в комнате были структурные элементы (соединения, узлы... ) он мог связывать символы вместе и строить структуры.
@Roddus Я не понимаю, как этот ответ относится к тому, что я написал. Прежде всего, мы не должны легко переходить от термина «процессор» к «компьютерам». Однако я объяснил, что CR = CPU. Символы в случае ЦП 1 и 0. Я согласен с тем, что ЦП может связать эти символы вместе для создания виртуальных метаобъектов, таких как двоичные деревья или узлы. Но смысл задается человеком извне, который устанавливает для определенной последовательности битов значение x. ALU не приписывает значение создаваемой им строке. По крайней мере, не в компьютерах, которые мы используем. Может быть, вы хотите использовать своего рода системный ответ, чтобы дистанцироваться от CR?

Ответы (6)

Даже если человек в китайской комнате запомнит каждый отдельный пример перевода (теоретически все возможные комбинации, которые невозможны, учитывая нашу ограниченную память, но это мысленный эксперимент, так что это ограничение не имеет значения), поймет ли он китайский язык, поскольку он не не понимает значения ни одной из карт, которые ему подарили?

Серл так не думает:

в буквальном смысле запрограммированный компьютер понимает то, что понимает машина и счетная машина, а именно ровно ничего. Понимание компьютера не просто (как мое понимание немецкого языка) частичное или неполное; это ноль. . . . На лингвистическом жаргоне у них есть только синтаксис, но нет семантики.

Поэтому трудно сказать, что человек в китайской комнате действительно понимает китайский язык, поскольку он просто следует набору правил или алгоритмов, почти так же, как ИИ или сверхинтеллектуальный компьютер , который кажется сознательным.

Центральным здесь является представление о человеческом сознании и о том, можно ли его, во-первых, определить и, во-вторых, смоделировать на компьютере. Если мы не знаем, что такое человеческое сознание, у нас нет возможности смоделировать его на компьютере. Возможно, человеческое сознание есть не что иное, как физические взаимодействия законов природы: химии, атомных сил, молекулярной биологии, квантовых полей, клеточных и нейронных связей и так далее. Или, может быть, человеческое сознание больше этого. Таким образом, субъективный опыт не может быть смоделирован машиной, поскольку он не сводится к физическим взаимодействиям, а в сознании есть нечто большее, что мы не можем в достаточной мере объяснить с помощью одних только научных объяснений. (См.: квалиа и философский аргумент зомби).

Если возникло сознание, и мы можем создать аналогичные условия, которые привели к этому появлению, создав машину или компьютерную программу, которая может эмулировать это появление, сможем ли мы тогда создать искусственное сознание? Очень трудно узнать. Если атомы разумной и сознательной вещи основаны на кремнии, а не на углероде, и расположены в точно идентичном порядке, то говорим ли мы об одних и тех же явлениях? Сознание в его различных формах?

Комментарий Серла по этому поводу:

«Может ли машина думать?» Ответ, очевидно, да. «Мы именно такие машины. — Да, но могла ли искусственная, рукотворная машина мыслить? Если предположить, что можно искусственно создать машину с нервной системой, нейронами, аксонами, дендритами и всем прочим, достаточно похожую на нашу, то опять-таки ответ на вопрос кажется очевидным: да. Если вы сможете точно воспроизвести причины, вы сможете воспроизвести и следствия. И действительно, можно было бы создать сознание, интенциональность и все остальное, используя какие-то иные химические принципы, чем те, которые используют люди. Как я уже сказал, это эмпирический вопрос.

Если вы считаете, что не имеет значения, знает ли компьютер «на самом деле», что он сознателен, и может ли он пройти сложный тест Тьюринга, то внешний вид — это все, что вам нужно, чтобы убедиться, что ИИ действительно может быть сознательным. Сильный ИИ, по Серлу, является только человеческим сознанием и не может быть воспроизведен компьютерной программой. Очень трудно определить, что подразумевается под сознанием, поэтому весь его аргумент основан на интуитивном знании того, что мы подразумеваем под «субъективным переживанием реальности». Только вы действительно знаете, что значит быть собой, и ни один компьютер никогда не сможет действительно «знать», как он существует таким же образом. Не видя в будущем ограничений того, чего могут достичь наши технологии; Однако,

Ссылка:

Коул, Дэвид, «Аргумент китайской комнаты», Стэнфордская философская энциклопедия (зимнее издание 2015 г.), Эдвард Н. Залта (редактор), URL = https://plato.stanford.edu/archives/win2015/entries/chinese -комната/ .

Кирк, Роберт, «Зомби», Стэнфордская философская энциклопедия (лето 2015 г.), Эдвард Н. Залта (редактор), URL = https://plato.stanford.edu/archives/sum2015/entries/zombies/ .

Джон Р. Серл, «Разум, мозг и программы» в книге «Науки о поведении и мозге», т. 3. Copyright @ 1980 Cambridge University Press.

Итак, для Серла: понимание > мышление? Если нет, то ему кажется странным небрежно сказать, что вопрос о мыслящей машине является «эмпирическим». Именно для этого и был предназначен тест Тьюринга. Вы знаете, что он имеет в виду?
@Timkinsella Я думаю, что это понимание семантики или понимания значения слов, а не просто «манипулирование символами» или синтаксис (следование правилам), как говорит Сирл. Иногда я думаю, что если кажется, что компьютер понимает, то, возможно, мы не мудрее. Машина может «понимать» так же, как и мы. И так до тех пор, пока мы не дойдем до того момента, когда сможем сломать его программирование, возможно, скармливая ему гёделевские предложения, которые он не может обработать.
Думаю, мне интересно, если Серл считает, что вопрос о том, думает ли машина, является эмпирическим, то он должен верить, что существует тест, превосходящий тест Тьюринга, который действительно может отличить мыслящие машины от машин-зомби. Правильно?
Что касается вашего второго пункта, я думаю, он имеет в виду, что мы могли бы провести эксперимент для имитации сознания (с помощью компьютера, который моделирует части нашей вселенной, которые произвели наш субъективный опыт, нейрон за нейроном и т. д., и я думаю, что он имеет в виду полностью искусственное использование аппаратное и программное обеспечение компьютерной машины, а не методы синтетической биологии), если бы мы однажды смогли понять все законы природы, которые делают нас сознательными, мы могли бы создать сознание. В настоящее время мы не знаем, как это сделать и возможно ли это, но если мы узнаем, однажды мы сможем попытаться эмпирически проверить это.
Я думаю, что аргумент зомби в основном состоит в том, чтобы оправдать то, что я могу верить только в то, что я сознателен, поскольку только я знаю, что такое субъективный опыт для меня. Все другие агенты: искусственные сознания или другие люди, я никогда не могу быть абсолютно уверен, действительно ли они сознательны, как я, или просто философские зомби. Аргумент Чалмера о зомби показывает нам, что даже если бы мы могли смоделировать сознание на машине, мы не могли бы быть уверены, что она сознательна, а не просто зомби! Это крайне скептическая позиция.
Хорошо, спасибо. Я вижу, что возможность такого моделирования является эмпирическим вопросом. Однако я думаю, что значимая часть будет заключаться в том, чтобы определить, обладают ли сущности в симуляции сознанием (или способны понимать или думать).
@jphillips, если бы мы знали алгоритмы человеческого сознания на подходящем абстрагированном уровне (абстрагированном выше биологии органического мозга), мы могли бы реализовать алгоритмы в электронном цифровом компьютере (если только Сирл не прав и по какой-то неустановленной (невообразимой?) причине этого делать нельзя). ИИ не знает алгоритмов сознания. А как же структуры сознания? Конечно, это тоже нужно знать. Часто кажется, что зацикленность на алгоритме (процессе) игнорирует структуру. Серл игнорирует структуру. Вот что я думаю не так с его китайской комнатой.
Я считаю, что структура сознательного субъективного опыта может быть просто основана на фрагментах информации, подчиняющихся математическим правилам и изоморфизмам. Однако для этого нужно знать, как создать структуру, которая моделирует вселенную вплоть до квантовой случайности. До тех пор, пока это не будет сделано, то, что мы считаем действительно самосознательными существами, такими как мы сами, не может быть создано с помощью программного обеспечения, за исключением возникающих явлений, которые, как мы думаем, в настоящее время невозможны. Бостром считает, что однажды, может быть, через 100 лет мы дойдем до такого уровня вычислений. Наше будущее очень неопределенно.
«запоминал каждый экземпляр перевода» — однако, потребуется ли это для изучения китайского языка для ИИ? Человеческие языки не считаются контекстно-свободными, поэтому хранение их в памяти, как в случае с контекстно-свободными языками, не кажется эффективным. Кроме того, человеческие языки являются контекстно-зависимыми , и универсальная ТМ с неограниченной памятью способна решать их. Чувствительность к контексту также кажется тем, что отделяет язык, в котором важен только синтаксис, от языка, в котором также важна семантика.

Кажется, есть несколько вещей, которые не поняты при задании этого вопроса.

Серл привел интуитивный аргумент. Он не понимал и до сих пор не понимает деталей, поэтому был предел тому, что он мог объяснить.

На самом деле не имеет значения, использовали ли вы книги, файловую систему, базу данных или современный ИИ, результаты будут одинаковыми. Таким образом, все, что сказал Серл, будет правильным или неправильным независимо от того, как вы это построили. Что будет, если построить такую ​​комнату?

Комната сможет правильно ответить на любой стандартный вопрос. Это будет ограничено только размером и временем доступа к вашей информационной базе. Кстати, именно это и делал Watson, когда играл в Jeopardy. Он не понимал ни вопросов, ни ответов, а только искал ассоциации. Итак, Watson, пожалуй, лучший пример современной китайской комнаты. Если бы вы задали стандартный вопрос, например: «Какой президент США, по слухам, срубил вишневое дерево?», Уотсон обнаружил бы, что США, президент и вишневое дерево связаны с Джорджем Вашингтоном, и ответил бы правильно. Но это не понимание, даже близко.

Человеческий разум силен с точки зрения его способности обобщать, что означает применение известных моделей и логики к условиям, выходящим за рамки предыдущего опыта. На самом деле вы могли бы очень легко поймать Ватсона в ловушку. Давайте

Предположим, вы оказались в комнате с запертой дверью. На стене есть кнопка, которая откроет дверь. Однако кнопка слишком высока, чтобы до нее можно было дотянуться, даже если вы прыгнете. В комнате есть крепкий деревянный стол, метла и резиновый мяч. Как вы можете попытаться сбежать?

Этот вопрос тривиален для человека, но Ватсон не смог бы дать какой-либо ответ, если бы этот вопрос и связанный с ним ответ не были в его информационной системе. Я даже слышал об экспериментах, которые малыши могли решить, но Ватсон был не в состоянии. И это все равно будет иметь место, независимо от того, насколько большой вы сделаете информационную базу. Итак, Серл был в основном прав.

Я не знаю, является ли это справедливым представлением Watson или компьютеров в целом. Конечно, ни один компьютер не работает, обращаясь к справочной таблице (даже в принципе), как это делает китайская комната. Кроме того, как минимум, Watson должен (и делает) выполнять множество операций по обработке естественного языка. Я только что посмотрел клип из шоу, где Уотсон правильно отвечает на вопрос: «Считается, что игрок Чарльз Уэллс вдохновил на создание песни «Человек, который» сделал это «в Монте-Карло»». Конечно, у Ватсона в памяти есть лирика, но он все же должен в каком-то смысле «понять» вопрос.
Это аккуратное видео youtube.com/watch?v=DywO4zksfXw . В качестве примера они используют вопрос «первый человек, упомянутый по имени в «человеке в железной маске», - это герой предыдущей книги того же автора».
@Timkinsella Watson — это система текстового поиска с внутренней базой данных для повышения точности. Watson работает, находя слова и фразы в Интернете вместе с ассоциациями, а затем проверяя свою базу данных. Это точно так же, как таблица поиска. Опять же, вы сильно переоцениваете то, что делает Ватсон. Я провел поиск в Google по запросу «Чарльз Уэллс, человек Монте-Карло», и самый первый ответ содержит «Человек, который сорвал банк в Монте-Карло». Вы путаете поиск по ключевым словам с пониманием; У Ватсона нет.
@Timkinsella Да, видео показывает, как работает Ватсон, хотя когда рассказчик использует слово «понимать», оно не имеет человеческого значения. Первая часть — разбор; это хорошо известная функция, которая обычно используется в компиляторах. Вы заметили, что Ватсон пробует несколько вариантов вопроса? Это называется поиском методом грубой силы и опять же подразумевает отсутствие понимания. Она говорит: «Количество важнее точности». Это противоположно тому, как человек подошел бы к вопросу. Описание довольно хорошее, но она использует олицетворяющие термины, такие как понимать и знать; это не точно.
@Timkinsella В последней части Watson берет возможные ответы и исключает те, которые явно неверны, а затем взвешивает остальные в зависимости от частоты. Затем он использует сопоставление с образцом, чтобы увидеть, соответствует ли стиль ответа стилю прошлых ответов Jeopardy. Затем он использует стандартную теорию игр для расчета риска и вознаграждения за ответ, что очень рутинно. Во всем этом процессе единственной частью, которая требовала обучения нейронной сети, был шаблон стиля Jeopardy. Опять же, ничто в этом процессе не требует понимания материала. То же самое сказал ведущий программист Watson.
«Это противоположно тому, как человек подошел бы к вопросу». Знаем ли мы, как люди подходят к вопросам? Также да, вы можете погуглить вопрос (или «ответ», так как он находится под угрозой), а затем использовать свое понимание фразы «кто это сделал», чтобы дать правильный ответ. Но когда вы это делаете, в вашей голове происходит нечто большее, чем просмотр справочной таблицы. Также вы пробовали этот метод с ""первым человеком, упомянутым по имени в "человеке в железной маске", является герой предыдущей книги того же автора"?
Кстати, то, что я сказал, верно: ни один компьютер так линейно не пашет по справочной таблице, как в китайской комнате. Любая проблема, о которой стоит позаботиться, имеет экспоненциальную временную сложность при использовании этого метода. Это только начало обманчивых образов китайской комнаты.
также я почти уверен, что анализировать естественный язык намного сложнее, чем анализировать языки программирования. так небрежно переходя от одного к другому и подразумевая его рутину, кажется, что это вводит в заблуждение
@Timkinsella Я не уверен, что еще могу тебе сказать. Каждый раз, когда я пытаюсь объяснить вам разницу между системой, подобной Ватсону, и тем, как мыслит человек, вы либо игнорируете то, что я сказал, либо поднимаете что-то тривиальное. Я привел пример поиска. Watson фактически выполняет поиск методом грубой силы со ВСЕМИ вариантами слов. Это генерирует в основном несвязанные ответы, которые затем устраняются. Это не варианты поиска; это вариации расположения предложений. Опять же, Ватсон понятия не имеет, что означает это предложение и как его следует читать. Это не похоже на то, как это сделал бы человек.
@Timkinsella Я также был удивлен, когда вы спросили, знаем ли мы, как это делают люди. Да. Этому вы научились в начальной школе: подлежащее, глагол, дополнение, прилагательные, наречия, предлоги, союзы и т. д. Вы понимаете, что означает предложение; Уотсон нет. Насколько я помню, существует по крайней мере одна теория разума, включающая конкуренцию нейронных сигналов, которая допускает что-то похожее на поиск методом грубой силы. К сожалению, эту модель можно опровергнуть. Мозг работает иначе. Не так работают нейронные сети.
@Timkinsella Я не знаю, где ты научился программированию, но твои цифры далеки от нормы. Поиск в таблице поиска выполняется за время log(n), а не линейно, что было бы n раз. Если бы Ватсон действительно понял вопрос, то операция заняла бы время, аналогичное сортировке, n(log(n)), но поскольку Ватсон должен выполнить все варианты предложения, она в конечном итоге будет экспоненциальной. Если вы можете ограничить предмет Ватсона чем-то узким, он вернется к неэкспоненциальному времени.
@Timkinsella Вы правы в том, что обработка естественного языка (NLP) сложнее, чем анализ языка программирования, но в течение некоторого времени у этого были хорошие решения. В моем телефоне Android есть НЛП. Проблема в том, что вы постоянно намекаете на понимание естественного языка (NLU). Сегодня нет системы с NLU и нет известного метода создания NLU. Вы можете посмотреть это сами. У Ватсона нет NLU.
«И это все равно будет иметь место, независимо от того, насколько большой вы сделаете информационную базу». - это всего лишь мнение. почему мы должны верить этому утверждению? Во-вторых, Watson с его ограниченной способностью давать адекватные ответы в данном контексте не имеет ничего общего с китайской комнатой, поскольку Серл не ограничивал комнату определенным классом вычислений. Это может быть любое вычисление бесконечного пространства возможных вычислений.
его журнал n, если таблица организована в виде дерева или упорядочена каким-либо лексикографическим способом. китайские разговоры не имеют естественного лексикографического порядка, как битовые строки. Вы можете представить огромную непостижимую древовидную структуру книги в китайской комнате, но вы уже доказываете свою точку зрения, отходя от обманчивого образа человека, роботизированно проверяющего совпадающие символы в стопке неупорядоченных бумаг.
Также я уверен, что тысячи исследователей генеративной грамматики будут потрясены, узнав, что способ, которым люди анализируют естественный язык, теперь полностью понятен.
наконец, что вы подразумеваете под "выполняет перебор со всеми вариациями слов"? Опасный вопрос из 20 слов имеет примерно 20^20 упорядоченных подмножеств. Это то, что вы говорите?
«Проблема в том, что то, на что вы продолжаете намекать, — это понимание естественного языка». Я вообще не утверждал, что Watson или любой другой компьютер имеет или когда-либо будет иметь «понимание». Все, что я сделал, это ответил на ваше утверждение, что компьютеры работают так же, как работает китайская комната.

Подумайте над аргументом о китайской комнате.

Во-первых, сильный ИИ — это представление о том, что программы, работающие на машинах Тьюринга (компьютерах), не только дают правильные результаты, но и генерируют сознание при запуске.

Во-вторых, предположим, что существует программа, которая проходит тест Тьюринга для китайского языка при запуске на любой машине Тьюринга, независимо от того, насколько продвинутым или примитивным может быть этот компьютер.

В-третьих, пусть человек, не понимающий китайский язык, смоделирует машину Тьюринга, следуя этой успешной программе, будучи изолированным от внешнего влияния в «комнате». Если сильный ИИ верен, человек должен не только дать правильный ответ, но и понять китайский язык. Эта программа была бы способом для кого-то выучить китайский язык.

В-четвертых, Сирл утверждает, что человек не поймет и не выучит китайский язык, но человек сможет пройти тест Тьюринга с помощью программы, поскольку предполагается, что программа способна это сделать.

В-пятых, смотрите на программу как на «разум». Посмотрите на компьютер как на «тело». Тело управляет разумом, и это якобы порождает не только результаты, но и понимание китайского языка. Именно этот дуализм разума и тела является проблемой для физикалиста.

Учитывая вышесказанное, я постараюсь ответить на этот вопрос.

«Сначала люди должны выучить китайский. Почему в комнате не пытаются выучить китайский?»

Комната — это лишь способ изолировать человека от внешнего воздействия. Это не компьютер. Комнате нечему учиться. Человек должен выучить или понять китайский язык, запустив программу. Запуск программы — это то, что имеет значение, а не то, какой компьютер используется для запуска программы. Программу можно перемещать на разные компьютеры или разных людей, и результаты должны быть одинаковыми. Вопрос в том, дает ли запуск программы в любом месте не только правильный результат, но и понимание китайского языка? Если это так, то это будет альтернативный способ для кого-то выучить новый язык.

Ссылка: Джон Сирл, «Разум, мозг и программы».

Итак, какую программу нужно запустить, чтобы выучить новый язык? Будет ли эта программа содержать примеры символов нового языка? Если да, то как запуск программы может означать изучение нового языка (то есть такого, с которым система никогда раньше не сталкивалась)?
@Roddus Мы изучаем новый язык, связывая значение слов со звуками или символами. Обучение должно включать смысл, а не только манипуляции с символами. Программист, знающий язык, пытается найти способ общения без смысла, а только синтаксис языка. Значение — это субъективный опыт языка, но сам по себе синтаксис объективен и не требует субъективного опыта языка. Переход от объективного к субъективному — вот почему сильный ИИ не будет успешным, а китайский язык не выучить, запустив программу.
Мы связываем значения с символами/звуками - ОК. Для обучения необходимо будет включать значение, а не просто [выполнять] манипуляции с символами. Да. Программист пытается общаться без смысла, а только синтаксис. Итак, он/она использует синтаксис для создания машинного поведения, которое люди могут производить, используя значения? Итак, синтаксис является своего рода заменой значений или производным от значения, но сам лишен смысла? Синтаксис можно использовать для создания правильного поведения, но это все?
@Roddus Примерно так я это вижу. Я считаю значение субъективным, немного разным для каждого человека. Абстрагирование от этого делает синтаксис объективным — хорошим для всех людей. Тем не менее, каждый человек понимает синтаксис по-разному. Вот почему машинам полезно манипулировать синтаксисом, опять же, чтобы устранить субъективные различия в понимании синтаксиса. Понимание субъективно и индивидуально для каждого из нас. Если мы удалим его, чтобы заставить машину работать объективно, мы не сможем вернуть его обратно, не привлекая к этому человека с субъективностью.

Я полагаю, что вы натолкнулись на то, что обычно называют « ответом системы », то есть, вкратце, система комнаты понимает китайский язык. Это кажется правдоподобным с точки зрения функционального определения понимания, но дойти до точки, где можно понять, что система комнат имеет субъективный опыт понимания, — это гораздо большая концептуальная пропасть, которую нужно перепрыгнуть. (хотя, насколько я могу судить, этого нельзя исключать, тем более, что я не знаю с высокой степенью достоверности, кто из вас, дорогие читатели, имеет субъективный опыт, а кто из вас зомби).

Что касается субъективного опыта, это кажется правильным — большой скачок — идея субъективности кажется на самом деле довольно нечеткой, хотя различие между объективным и субъективным в некоторых контекстах важно. Что касается ответа системы, Серл говорит, что в комнате нет ничего, что можно было бы отнести к семантике. Я согласен с этим. Но я утверждаю, что в комнате должно быть больше, а именно реляционных элементов (например, узлов, соединений). У компьютеров есть такие. Их можно использовать для создания структур, которые могли бы воплощать в себе обучение. Структуры нейронных сетей изучают закономерности из наборов данных.
@Roddus Проблема с вниманием к комнате, компьютеру или человеку заключается в том, что он больше не обращает внимания на программу, которая должна генерировать понимание. В CRA у нас есть идеальный «компьютер» со всем, что нам нужно для понимания, потому что человек создает экземпляр программы, выполняя шаги программы. Несмотря на это, человек не должен понимать китайский язык с помощью этого метода изучения языка. То, что нейронные сети «учатся», — это метафора.
@Frank Hubeny Я согласен с описанием комнаты Серлом, что разум (согласно сильному ИИ) воплощен в программе - разум для мозга то же, что программа для компьютера. НО человеческий мозг полон структуры. Процессы распространяются с места на место по структуре. Программа — это просто процесс. Как бы структура человеческого мозга была воплощена в компьютерной программе? Если этого не может быть, то, по-видимому, китайской комнате нужно что-то, чтобы связать символы вместе в структуру. Или вы считаете, что это не нужно?
@Roddus Это, возможно, одна из причин, по которой Сирл возражает против сильного ИИ - его недостаточно для объяснения разума. Ему также не нравится дуализм разума и тела, присущий сильному ИИ. Если разум — это программа, его можно перемещать из тела в тело и дублировать. Однако против его физикализма можно возразить точно так же, как он возражает против сильного ИИ, утверждая, что он также не является полным объяснением разума. Таким образом, даже отказ от сильного ИИ и добавление в комнату вещей для лучшей имитации мозга недостаточно для понимания или сознания.
@Frank Hubeny, это хороший момент - сильный ИИ - это только программа, являющаяся разумом, который игнорирует структуру. Но компьютеры широко используют структуры памяти. Таким образом, похоже, что характеристика Сильного ИИ, данная Сирлом, имеет недостаток в игнорировании структуры. Должно быть, «программа и соответствующие структуры памяти относятся к оборудованию так же, как разум к мозгу»? Возможно, его одержимость вычислениями (программой) ослепила его в отношении структур памяти. Вопрос о том, могут ли такие структуры быть семантическими в каком-либо смысле, является еще одним вопросом. программа + структура = разум?
@ Фрэнк Хубени, но тогда говорить о структуре как о части разума и отличать такой разум от мозга кажется странным - структура, безусловно, является частью мозга. Так же и различение между разумом и мозгом — фальшивка. Есть только мозг, и он содержит структуру и процессы (алгоритмы, программы), которые работают внутри/на этой структуре. Говоря, что mi d
@Frank Hubeny рискует стать скучным - сказать, что программа для оборудования так же, как разум для мозга, говорит, что нейронные процессы (алгоритмы) - это разум. Это должно быть абсурдно. В нем говорится, что структура мозга не является неотъемлемой частью ума!
@Roddus Насколько я понимаю, «программа» - это что-то на той теоретической ленте, которую читает машина Тьюринга, что включает произвольно большой объем памяти. Однако я согласен с тем, что реальная программа кажется отделенной от физической памяти, на которую она ссылается. Не забывайте, когда человек прослеживает программу, он имеет доступ к своей собственной памяти, поэтому добавленная программа должна быть всем, что ему нужно, если сильный ИИ верен. Ваше возражение против того, что структура мозга не является частью разума, — это то, как я понимаю возражение Серла против сильного ИИ. Он считает, что сильный ИИ слишком много упускает из виду, сосредоточившись только на вычислениях.
@Frank Hubeny Да, верно (имхо), главное возражение Серла - против вычислений, а не против компьютера как устройства. Он где-то говорит (в своей книге 2004 года?), что вычислительный подход, по его мнению, не имеет смысла — возможно, это самая резкая критика, которую может произнести философ! Но Сирл также признает, что машина Тьюринга — это определение современного компьютера. Поскольку он предполагает , что компьютеры только вычисляют, вывод CRA состоит в том, что ни один компьютер никогда не будет думать. Мы должны принять отказ Серла от вычислений, но могут ли компьютеры делать что-то кроме вычислений — это отдельный вопрос.
Проголосовал за, поскольку это единственный ответ, который признает, что человек - это не комната.

Этот вопрос сводится к квалиа: есть ли разница между состоянием, наблюдаемым снаружи, и субъективно изнутри. Китайская комната помогает нам задуматься об этом, но ставит больше вопросов, чем дает ответов.

Однако с этим вопросом мы вступаем в новую эру, поскольку приближаемся к тому моменту, когда сможем построить такую ​​комнату.

С самого начала у нас есть обработка естественного языка, такая как https://en.m.wikipedia.org/wiki/Watson_(computer)

И от моделирования человеческого мозга вниз, у нас есть https://en.m.wikipedia.org/wiki/Human_Brain_Project

Человек или комната, которые «выучили китайский язык», а не просто получили ограниченные ответы на заранее запрограммированные ситуации, не только давали бы ответы на хорошо сформулированные вопросы, но и могли бы интерпретировать неполные или неясные вопросы и переинтерпретировать определения на ходу ( Например, Уотсон боролся с короткими вопросами без контекста). Установка пытается сказать, что это не так, но естественный человеческий язык полон ими. Да, комнате нужны структуры, параллельные человеческим ментальным структурам или обучению, и они будут настолько эффективны, насколько они сложны. Мы должны смотреть на порог между зубрёжкой и пониманием языка, как между грубым форсированием шахматных ходов и способностью понимать игру. Что такое понимание?

Мы делаем сложные вещи и принимаем их как должное, что мутит воду, подобно тому, как мы обнаружили, что компьютерная обработка изображений намного сложнее, чем ожидалось, потому что так много всего происходит, о чем мы не знаем. Лучшей известной мне структурой для понимания того, что может иметь значение, с нуля, является картинка https://en.m.wikipedia.org/wiki/Strange_loop .

Это отличный момент о незавершенных вопросах, на которые семантическая система сможет адекватно ответить. Таким образом, идея Серла о том, что программа в комнате настолько хороша, что может адекватно ответить на любой вопрос, имеет проблему. Как он может отвечать на неполные вопросы, не понимая контекста? Может ли быть такая вещь, как программа, которая могла бы адекватно отвечать на неполные вопросы?
Ваше замечание по поводу перебора шахматных ходов по сравнению с пониманием игры: программа в китайской комнате перебором отвечает на китайский вопрос (и не понимает языка), но человек понимает язык. Что такое понимание? Что ж, я полагаю, одна из идей — это связи между внутренними представлениями, т. е. что значение символа (слова...) — это группа связанных внутренних представлений.
И о вашем понимании механических/грубых силовых стихов. А как насчет этого вопроса для китайской комнаты (на английском языке): Возьмите эти два вопроса: (1) полиция арестовала протестующих, потому что они были пьяны, (2) полиция избила протестующих, потому что они были пьяны. В этих двух вопросах к кому относится «они»? Какой ответ даст книга правил в комнате? А как быть с вопросом, какое из этих имен лучше всего подойдет для котенка: гракс, хрип, мугл, дал, лагз?

Позвольте мне задать еще один вопрос, чтобы, возможно, изменить мнение по этому поводу:

Может ли мужчина вообще выучить китайский язык таким образом? Запоминать правила и уже данные ответы и воспроизводить их — это не то же самое, как если бы он понял. Это немного направлено на ответы на неполные вопросы, и если есть квалиа человеку в комнате (т.е. есть ли у человека какое-либо представление о том, что он делает в своем уме, кроме книги / заученных правил и исторических ответы уже подготовлены). Однако есть несколько аспектов, которые я хотел бы подчеркнуть с помощью этой небольшой модификации исходного вопроса:

Во-первых, даже если человек/система выучит правила наизусть и сможет вспомнить все комбинации символов (ответы), которые он уже произвел, я бы сказал, он все равно не понимает. НО возможно ли, что у него вырабатывается чувство (внутренний набор правил) для получения правильных ответов помимо правил в книге?

Во-вторых, может ли он стать лучше? Могут ли эти новые усвоенные/выученные/саморазвитые правила позволить человеку давать семантически правильные ответы, которые не соответствуют ожидаемой форме. Например: может ли он дать другой ответ на вопрос, на который уже отвечал ранее, при этом не понимая ни единого слова по-китайски? Отличается в том смысле, что люди снаружи сочтут ответ правильным, но это не та формулировка, которую он использовал раньше. Например, вопрос может быть «Белоснежка?». Правильным и ожидаемым ответом будет «Да, это так». Обратите внимание, что этот ответ не только семантически, но и грамматически правильный. Новым ответом может быть простое «Да», что, как я предполагаю, будет принято как правильное, но не совсем правильное.

В-третьих, устанавливает ли этот набор новых правил внутри человека что-то вроде Сверхъязыка китайскому или же это что-то совершенно иное и новое? Может ли он сформулировать новые Идеи, Предложения или решить какую-либо внутреннюю проблему, скрытую внутри поставленного вопроса, используя свой набор правил, чтобы ответ технически все еще был на китайском языке и был бы понят окружающими людьми, но был бы для них настолько чужд, что сами бы не придумали? Или человек в комнате разработал совершенно новый язык, который понимает только он (поскольку нет никого другого с такими же интернализованными правилами)?

В-четвертых, кто решает, какой ответ является правильным? Учитель китайского языка сказал бы, что «Ши (да)» не является (грамматически) правильным ответом, в то время как средний Ким Ли счел бы его правильным. Это возвращает эту дискуссию ко всей области философии разума со всеми ее собственными мыслями и дискуссиями. Поэтому я хотел бы остановиться здесь.

Наконец, я хотел бы сделать общую аннотацию: тест Тьюринга и установка этого мысленного эксперимента дышат духом бихевиоризма, где учитывается только видимый (внешний) результат. Что касается компьютеров (систем манипулирования символами), то на самом деле может показаться, что это единственный способ получить ответ на вопрос, понимают ли они, что делают. Но так ли это? Возможно, вопрос вводит в заблуждение. Может быть, они понимают, но по-другому? И как мы можем сказать? Вы понимаете, что делаете? Полностью? Все время? Понимает ли общество человек, который осуждает человека за кражу еды как поступок против общества? Что, если бы тот же человек стоял рядом с бездомным и не давал бы ему еды, хотя мог бы, так как его действия не являются противозаконными, а не помощи даже не ожидается.

Я с нетерпением жду ваших ответов и надеюсь, что мой ответ поможет вам получить новые идеи.