Я просто не понимаю, какой смысл имеет китайская комната Джона Сирла. Комната проходит тест Тьюринга. Люди за пределами комнаты думают, что внутри есть человек, который понимает по-китайски. Но, как объясняет Сирл, комната на самом деле содержит в аналоговой форме все основные элементы электронного цифрового компьютера, запрограммированного понимать (согласно Сильному ИИ) китайскую письменность. Но одноязычный англоговорящий человек в комнате (процессор компьютера) не понимает по-китайски. Карты с исписанными китайскими символами попадают в комнату через щель в двери. Это разумные китайские вопросы. Книга правил (программа) имеет дело только с их формами, а не с их значениями. Он инструктирует человека найти определенные китайские иероглифы среди запчастей в комнате, а затем вытолкнуть их через щель. Человек не знает, что это разумные китайские ответы. Ни человек, ни комната не понимают значения форм, поскольку все, что у них есть, — это формы. Отсюда Серл продолжает утверждать, что компьютеры никогда не поймут ни язык, ни мир.
Что мне кажется фундаментальной ошибкой, так это то, что Серл основывает свои аргументы на сравнении компьютера, получающего китайские символы, с человеком, принимающим китайские символы. Затем, исходя из того факта, что компьютер не понимает значения символов, Серл утверждает, что компьютеры никогда ничего не смогут понять.
Ну, люди тоже не могут понять значения символов. Люди сначала должны выучить китайский. Почему комната не пытается выучить китайский? Без этого аргумент Серла бессмыслен. Изучение китайского влечет за собой развитие структуры памяти. В китайской комнате нет структуры, потому что в комнате не из чего ее построить. Онтология комнаты нуждается в добавлении к ней структурных элементов, чтобы затем она содержала атомы структуры, а также символы (содержание структуры). Затем программа может поручить человеку построить структуру памяти. Цифровые компьютеры могут легко создавать структуру памяти и часто так и делают. Теперь с конструктивными элементами китайской комнаты можно попробовать выучить китайский язык. И, кстати, CRA несостоятелен, потому что посылка Сирла «…цифровой компьютер — это синтаксическая машина. в The New York Review of Books, 9 октября 2014 г.) не соответствует действительности. Кроме того, вполне можно утверждать, что некоторые структурные элементы являются семантическими.
Было бы очень здорово получить некоторые комментарии и критику моего вышеприведенного ответа на аргумент китайской комнаты.
Даже если человек в китайской комнате запомнит каждый отдельный пример перевода (теоретически все возможные комбинации, которые невозможны, учитывая нашу ограниченную память, но это мысленный эксперимент, так что это ограничение не имеет значения), поймет ли он китайский язык, поскольку он не не понимает значения ни одной из карт, которые ему подарили?
Серл так не думает:
в буквальном смысле запрограммированный компьютер понимает то, что понимает машина и счетная машина, а именно ровно ничего. Понимание компьютера не просто (как мое понимание немецкого языка) частичное или неполное; это ноль. . . . На лингвистическом жаргоне у них есть только синтаксис, но нет семантики.
Поэтому трудно сказать, что человек в китайской комнате действительно понимает китайский язык, поскольку он просто следует набору правил или алгоритмов, почти так же, как ИИ или сверхинтеллектуальный компьютер , который кажется сознательным.
Центральным здесь является представление о человеческом сознании и о том, можно ли его, во-первых, определить и, во-вторых, смоделировать на компьютере. Если мы не знаем, что такое человеческое сознание, у нас нет возможности смоделировать его на компьютере. Возможно, человеческое сознание есть не что иное, как физические взаимодействия законов природы: химии, атомных сил, молекулярной биологии, квантовых полей, клеточных и нейронных связей и так далее. Или, может быть, человеческое сознание больше этого. Таким образом, субъективный опыт не может быть смоделирован машиной, поскольку он не сводится к физическим взаимодействиям, а в сознании есть нечто большее, что мы не можем в достаточной мере объяснить с помощью одних только научных объяснений. (См.: квалиа и философский аргумент зомби).
Если возникло сознание, и мы можем создать аналогичные условия, которые привели к этому появлению, создав машину или компьютерную программу, которая может эмулировать это появление, сможем ли мы тогда создать искусственное сознание? Очень трудно узнать. Если атомы разумной и сознательной вещи основаны на кремнии, а не на углероде, и расположены в точно идентичном порядке, то говорим ли мы об одних и тех же явлениях? Сознание в его различных формах?
Комментарий Серла по этому поводу:
«Может ли машина думать?» Ответ, очевидно, да. «Мы именно такие машины. — Да, но могла ли искусственная, рукотворная машина мыслить? Если предположить, что можно искусственно создать машину с нервной системой, нейронами, аксонами, дендритами и всем прочим, достаточно похожую на нашу, то опять-таки ответ на вопрос кажется очевидным: да. Если вы сможете точно воспроизвести причины, вы сможете воспроизвести и следствия. И действительно, можно было бы создать сознание, интенциональность и все остальное, используя какие-то иные химические принципы, чем те, которые используют люди. Как я уже сказал, это эмпирический вопрос.
Если вы считаете, что не имеет значения, знает ли компьютер «на самом деле», что он сознателен, и может ли он пройти сложный тест Тьюринга, то внешний вид — это все, что вам нужно, чтобы убедиться, что ИИ действительно может быть сознательным. Сильный ИИ, по Серлу, является только человеческим сознанием и не может быть воспроизведен компьютерной программой. Очень трудно определить, что подразумевается под сознанием, поэтому весь его аргумент основан на интуитивном знании того, что мы подразумеваем под «субъективным переживанием реальности». Только вы действительно знаете, что значит быть собой, и ни один компьютер никогда не сможет действительно «знать», как он существует таким же образом. Не видя в будущем ограничений того, чего могут достичь наши технологии; Однако,
Ссылка:
Коул, Дэвид, «Аргумент китайской комнаты», Стэнфордская философская энциклопедия (зимнее издание 2015 г.), Эдвард Н. Залта (редактор), URL = https://plato.stanford.edu/archives/win2015/entries/chinese -комната/ .
Кирк, Роберт, «Зомби», Стэнфордская философская энциклопедия (лето 2015 г.), Эдвард Н. Залта (редактор), URL = https://plato.stanford.edu/archives/sum2015/entries/zombies/ .
Джон Р. Серл, «Разум, мозг и программы» в книге «Науки о поведении и мозге», т. 3. Copyright @ 1980 Cambridge University Press.
Кажется, есть несколько вещей, которые не поняты при задании этого вопроса.
Серл привел интуитивный аргумент. Он не понимал и до сих пор не понимает деталей, поэтому был предел тому, что он мог объяснить.
На самом деле не имеет значения, использовали ли вы книги, файловую систему, базу данных или современный ИИ, результаты будут одинаковыми. Таким образом, все, что сказал Серл, будет правильным или неправильным независимо от того, как вы это построили. Что будет, если построить такую комнату?
Комната сможет правильно ответить на любой стандартный вопрос. Это будет ограничено только размером и временем доступа к вашей информационной базе. Кстати, именно это и делал Watson, когда играл в Jeopardy. Он не понимал ни вопросов, ни ответов, а только искал ассоциации. Итак, Watson, пожалуй, лучший пример современной китайской комнаты. Если бы вы задали стандартный вопрос, например: «Какой президент США, по слухам, срубил вишневое дерево?», Уотсон обнаружил бы, что США, президент и вишневое дерево связаны с Джорджем Вашингтоном, и ответил бы правильно. Но это не понимание, даже близко.
Человеческий разум силен с точки зрения его способности обобщать, что означает применение известных моделей и логики к условиям, выходящим за рамки предыдущего опыта. На самом деле вы могли бы очень легко поймать Ватсона в ловушку. Давайте
Предположим, вы оказались в комнате с запертой дверью. На стене есть кнопка, которая откроет дверь. Однако кнопка слишком высока, чтобы до нее можно было дотянуться, даже если вы прыгнете. В комнате есть крепкий деревянный стол, метла и резиновый мяч. Как вы можете попытаться сбежать?
Этот вопрос тривиален для человека, но Ватсон не смог бы дать какой-либо ответ, если бы этот вопрос и связанный с ним ответ не были в его информационной системе. Я даже слышал об экспериментах, которые малыши могли решить, но Ватсон был не в состоянии. И это все равно будет иметь место, независимо от того, насколько большой вы сделаете информационную базу. Итак, Серл был в основном прав.
Подумайте над аргументом о китайской комнате.
Во-первых, сильный ИИ — это представление о том, что программы, работающие на машинах Тьюринга (компьютерах), не только дают правильные результаты, но и генерируют сознание при запуске.
Во-вторых, предположим, что существует программа, которая проходит тест Тьюринга для китайского языка при запуске на любой машине Тьюринга, независимо от того, насколько продвинутым или примитивным может быть этот компьютер.
В-третьих, пусть человек, не понимающий китайский язык, смоделирует машину Тьюринга, следуя этой успешной программе, будучи изолированным от внешнего влияния в «комнате». Если сильный ИИ верен, человек должен не только дать правильный ответ, но и понять китайский язык. Эта программа была бы способом для кого-то выучить китайский язык.
В-четвертых, Сирл утверждает, что человек не поймет и не выучит китайский язык, но человек сможет пройти тест Тьюринга с помощью программы, поскольку предполагается, что программа способна это сделать.
В-пятых, смотрите на программу как на «разум». Посмотрите на компьютер как на «тело». Тело управляет разумом, и это якобы порождает не только результаты, но и понимание китайского языка. Именно этот дуализм разума и тела является проблемой для физикалиста.
Учитывая вышесказанное, я постараюсь ответить на этот вопрос.
«Сначала люди должны выучить китайский. Почему в комнате не пытаются выучить китайский?»
Комната — это лишь способ изолировать человека от внешнего воздействия. Это не компьютер. Комнате нечему учиться. Человек должен выучить или понять китайский язык, запустив программу. Запуск программы — это то, что имеет значение, а не то, какой компьютер используется для запуска программы. Программу можно перемещать на разные компьютеры или разных людей, и результаты должны быть одинаковыми. Вопрос в том, дает ли запуск программы в любом месте не только правильный результат, но и понимание китайского языка? Если это так, то это будет альтернативный способ для кого-то выучить новый язык.
Ссылка: Джон Сирл, «Разум, мозг и программы».
Я полагаю, что вы натолкнулись на то, что обычно называют « ответом системы », то есть, вкратце, система комнаты понимает китайский язык. Это кажется правдоподобным с точки зрения функционального определения понимания, но дойти до точки, где можно понять, что система комнат имеет субъективный опыт понимания, — это гораздо большая концептуальная пропасть, которую нужно перепрыгнуть. (хотя, насколько я могу судить, этого нельзя исключать, тем более, что я не знаю с высокой степенью достоверности, кто из вас, дорогие читатели, имеет субъективный опыт, а кто из вас зомби).
Этот вопрос сводится к квалиа: есть ли разница между состоянием, наблюдаемым снаружи, и субъективно изнутри. Китайская комната помогает нам задуматься об этом, но ставит больше вопросов, чем дает ответов.
Однако с этим вопросом мы вступаем в новую эру, поскольку приближаемся к тому моменту, когда сможем построить такую комнату.
С самого начала у нас есть обработка естественного языка, такая как https://en.m.wikipedia.org/wiki/Watson_(computer)
И от моделирования человеческого мозга вниз, у нас есть https://en.m.wikipedia.org/wiki/Human_Brain_Project
Человек или комната, которые «выучили китайский язык», а не просто получили ограниченные ответы на заранее запрограммированные ситуации, не только давали бы ответы на хорошо сформулированные вопросы, но и могли бы интерпретировать неполные или неясные вопросы и переинтерпретировать определения на ходу ( Например, Уотсон боролся с короткими вопросами без контекста). Установка пытается сказать, что это не так, но естественный человеческий язык полон ими. Да, комнате нужны структуры, параллельные человеческим ментальным структурам или обучению, и они будут настолько эффективны, насколько они сложны. Мы должны смотреть на порог между зубрёжкой и пониманием языка, как между грубым форсированием шахматных ходов и способностью понимать игру. Что такое понимание?
Мы делаем сложные вещи и принимаем их как должное, что мутит воду, подобно тому, как мы обнаружили, что компьютерная обработка изображений намного сложнее, чем ожидалось, потому что так много всего происходит, о чем мы не знаем. Лучшей известной мне структурой для понимания того, что может иметь значение, с нуля, является картинка https://en.m.wikipedia.org/wiki/Strange_loop .
Позвольте мне задать еще один вопрос, чтобы, возможно, изменить мнение по этому поводу:
Может ли мужчина вообще выучить китайский язык таким образом? Запоминать правила и уже данные ответы и воспроизводить их — это не то же самое, как если бы он понял. Это немного направлено на ответы на неполные вопросы, и если есть квалиа человеку в комнате (т.е. есть ли у человека какое-либо представление о том, что он делает в своем уме, кроме книги / заученных правил и исторических ответы уже подготовлены). Однако есть несколько аспектов, которые я хотел бы подчеркнуть с помощью этой небольшой модификации исходного вопроса:
Во-первых, даже если человек/система выучит правила наизусть и сможет вспомнить все комбинации символов (ответы), которые он уже произвел, я бы сказал, он все равно не понимает. НО возможно ли, что у него вырабатывается чувство (внутренний набор правил) для получения правильных ответов помимо правил в книге?
Во-вторых, может ли он стать лучше? Могут ли эти новые усвоенные/выученные/саморазвитые правила позволить человеку давать семантически правильные ответы, которые не соответствуют ожидаемой форме. Например: может ли он дать другой ответ на вопрос, на который уже отвечал ранее, при этом не понимая ни единого слова по-китайски? Отличается в том смысле, что люди снаружи сочтут ответ правильным, но это не та формулировка, которую он использовал раньше. Например, вопрос может быть «Белоснежка?». Правильным и ожидаемым ответом будет «Да, это так». Обратите внимание, что этот ответ не только семантически, но и грамматически правильный. Новым ответом может быть простое «Да», что, как я предполагаю, будет принято как правильное, но не совсем правильное.
В-третьих, устанавливает ли этот набор новых правил внутри человека что-то вроде Сверхъязыка китайскому или же это что-то совершенно иное и новое? Может ли он сформулировать новые Идеи, Предложения или решить какую-либо внутреннюю проблему, скрытую внутри поставленного вопроса, используя свой набор правил, чтобы ответ технически все еще был на китайском языке и был бы понят окружающими людьми, но был бы для них настолько чужд, что сами бы не придумали? Или человек в комнате разработал совершенно новый язык, который понимает только он (поскольку нет никого другого с такими же интернализованными правилами)?
В-четвертых, кто решает, какой ответ является правильным? Учитель китайского языка сказал бы, что «Ши (да)» не является (грамматически) правильным ответом, в то время как средний Ким Ли счел бы его правильным. Это возвращает эту дискуссию ко всей области философии разума со всеми ее собственными мыслями и дискуссиями. Поэтому я хотел бы остановиться здесь.
Наконец, я хотел бы сделать общую аннотацию: тест Тьюринга и установка этого мысленного эксперимента дышат духом бихевиоризма, где учитывается только видимый (внешний) результат. Что касается компьютеров (систем манипулирования символами), то на самом деле может показаться, что это единственный способ получить ответ на вопрос, понимают ли они, что делают. Но так ли это? Возможно, вопрос вводит в заблуждение. Может быть, они понимают, но по-другому? И как мы можем сказать? Вы понимаете, что делаете? Полностью? Все время? Понимает ли общество человек, который осуждает человека за кражу еды как поступок против общества? Что, если бы тот же человек стоял рядом с бездомным и не давал бы ему еды, хотя мог бы, так как его действия не являются противозаконными, а не помощи даже не ожидается.
Я с нетерпением жду ваших ответов и надеюсь, что мой ответ поможет вам получить новые идеи.
Квентин Руян
пользователь4894
Фрэнк Хьюбени
Тим Кинселла
CaZaNOx
Конифолд
Роддус
Роддус
Роддус
Роддус
Роддус
Роддус
Конифолд
CaZaNOx
Роддус
CaZaNOx