относительно новый для философии.
Этот вопрос основан на «Аргументе китайской комнаты» Джона Серла .
Я нахожу странным, что его главный аргумент в пользу того, почему программы не могут думать, заключался в том, что программы могли следовать только правилам синтаксиса, но не могли связывать какое-либо понимание или семантику со словами (или любым объектом/символом).
Этот момент кажется мне спорным (хотя я не могу его достаточно точно сформулировать). Почему Джон так уверен, что программа не может понять семантику? Действительно ли имитация семантического понимания отличается от подлинного семантического понимания?
Что говорит философия о том, действительно ли человечество однажды не сможет разработать программу, способную к семантическому пониманию? Согласно аргументу Тьюринга о том же доказательстве, если компьютер может пройти тест, мы должны предположить, что он способен понимать. Можем ли мы вообще провести различие между симулированным имитирующим пониманием и реальным пониманием?
Редактировать: вау, это действительно взорвалось. Спасибо за ответы!
Примечание:
Я задал этот вопрос отчасти потому, что представление Джона о том, как выглядит программа, кажется мне ошибочным. Он способен четко разбить и визуализировать программу (комнату) с «ядром» (человеком в комнате) посередине, которое обрабатывает входные данные и производит выходные данные.
Однако сложные алгоритмические программы не разрабатываются таким простым образом. Возьмем, к примеру, искусственные нейронные сети , которые называют «черными ящиками» из-за того, что мы не можем разбить нейронную сеть на компоненты, чтобы понять, как она решает выдавать определенные результаты. Аргумент Джона, похоже, основан на том факте, что мы можем «заглянуть» в то, как программы/алгоритмы принимают решения, когда это не обязательно верно.
Шахматные алгоритмы, такие как печально известные Deep Blue и Alpha Zero, иногда производят ходы, которые профессиональные шахматисты не учитывают. Будет ли Джон утверждать, что эти алгоритмы «не понимают шахматы?». Было бы ошибкой говорить, что программа не понимает семантики, когда она может демонстрировать творческие способности , которых может не хватать самим шахматистам-людям.
Я нахожу странным, что его главный аргумент в пользу того, почему программы не могут думать, заключался в том, что программы могли следовать только правилам синтаксиса, но не могли связывать какое-либо понимание или семантику со словами (или любым объектом/символом).
Это был скорее его вывод, чем аргумент. Его фактический аргумент по поводу мысленного эксперимента в китайской комнате заключался в том, что если комната занята сознательным агентом, который вполне способен к семантическому пониманию, как человек, и он должен вручную выполнять синтаксические правила китайскоязычной программы ( или по памяти), тем не менее им не хватало семантического понимания китайского языка. Например, в статье SEP о Китайской комнате , на которую вы ссылаетесь, цитируется Сирл, дающий краткое изложение аргумента в 1999 году, где он говорит (выделено мной):
Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, представляют собой вопросы на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.
И он цитирует более позднее заявление 2010 года, в котором он сказал:
Система, я, например, не смогла бы понять китайский, просто выполняя шаги компьютерной программы, имитирующей поведение говорящего по-китайски.
Я также нашел его оригинальную статью 1980 года на эту тему в Интернете здесь , где он представил, что он был носителем английского языка в комнате, отвечая на вопросы на английском естественным образом, а отвечая на китайские вопросы на основе ручного моделирования сложной компьютерной программы, и его аргумент был основан на контрасте между его собственным пониманием в первом случае и его непониманием во втором:
Теперь утверждения сильного ИИ заключаются в том, что запрограммированный компьютер понимает истории и что программа в некотором смысле объясняет человеческое понимание. Но теперь мы можем изучить эти утверждения в свете нашего мысленного эксперимента.
Что касается первого утверждения, то на примере мне кажется совершенно очевидным, что я не понимаю ни слова в китайских сказках. У меня есть входы и выходы, которые неотличимы от носителей китайского языка, и я могу иметь любую формальную программу, которую вы хотите, но я все равно ничего не понимаю. По тем же причинам компьютер Шэнка ничего не понимает ни в каких историях, будь то на китайском, английском или каком-либо другом языке, поскольку в китайском случае компьютер — это я, а в случаях, когда компьютер — это не я, компьютер не имеет ничего, кроме того, что есть у меня. в том случае, когда я ничего не понимаю.
Что касается второго утверждения, что программа объясняет человеческое понимание, то мы видим, что компьютер и его программа не обеспечивают достаточных условий для понимания, поскольку компьютер и программа функционируют, а понимания нет. Но обеспечивает ли это хотя бы необходимое условие или существенный вклад в понимание? Одно из утверждений сторонников сильного ИИ заключается в том, что, когда я понимаю историю на английском языке, то, что я делаю, точно так же — или, возможно, в большей степени — как то, что я делал, манипулируя китайскими символами. Это просто более формальное манипулирование символами, которое отличает падеж в английском, где я понимаю, от падежа в китайском, где я не понимаю.
Философы по-разному отреагировали на этот аргумент, которые не находят его убедительным, см. Раздел 4 статьи SEP. Я думаю, что наиболее убедительным опровержением является «системный ответ», который в основном говорит о том, что границы «систем» несколько произвольны и что данная именованная физическая система может иметь несколько вычислительных подпроцессов, происходящих внутри нее, которые могут быть достаточно независимы, чтобы каждый из них мог иметь индивидуальное семантическое понимание определенных вещей и все же не иметь понимания вещей, которые понимает другой подпроцесс. Чтобы выбрать крайний случай, представьте себе некий инопланетный вид, который от природы двуглавый, с независимым мозгом, между которыми нет нейронных связей, хотя оба мозга можно считать частью единой биологической «системы». мы не удивимся, если один мозг сможет понять что-то (скажем, китайский язык), чего другой не знает. И даже если бы былинекоторые нейронные связи между ними, они могут иметь неправильную конфигурацию, чтобы гарантировать, что концептуальное понимание высокого уровня любой произвольной темы обязательно разделяется обоими мозгами.
Вот Дэвид Чалмерс, приводящий такой аргумент на с. 326 его книги «Сознательный разум» , где агентом внутри комнаты является «демон», который может обладать способностями к запоминанию, намного превосходящими возможности реального человека:
Серл также приводит версию аргумента, в которой демон запоминает правила вычислений и реализует программу внутри себя. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но мы можем представить, что демон с модулем суперпамяти мог бы запомнить все правила и состояния всех символов. В этом случае мы снова можем ожидать, что система порождает сознательные переживания, которые не являются переживаниями демона. Сирл утверждает, что у демона должен быть опыт, если у кого-то есть, поскольку вся обработка является внутренней для демона, но вместо этого это следует рассматривать как пример двух ментальных систем, реализованных в одном и том же физическом пространстве. Организация, порождающая китайские переживания, совершенно отлична от организации, порождающей переживания демона. Организация понимания китайского языка заключается в причинно-следственных связях между миллиардами мест в модуле суперпамяти; еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона. еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона. еще раз, демон действует только как своего рода каузальный посредник. Это станет ясно, если мы рассмотрим ряд случаев, когда демон, снующий вокруг черепа, постепенно запоминает правила и символы, пока все не усвоится. Соответствующая структура постепенно перемещается из черепа в сверхпамять демона, но опыт остается постоянным повсюду и полностью отделен от опыта демона.
В аргументации Сёрла есть вопиющая проблема, и довольно трудно понять, почему на это не было указано раньше: ни одна из клеток мозга мистера Сёрла не понимает по-английски, а он утверждает, что понимает ? Какой аргумент он может привести, что ИИ не может развернуться и бросить прямо ему в лицо?
Насколько я понимаю, Серл подходит к тому, что синтаксис алгоритмичен — система, управляемая предопределенными правилами и процедурами, — а семантика (насколько мы можем судить) таковой не является. Другими словами, достаточно легко создать и распознать синтаксически правильно построенное предложение на чисто процедурных основаниях, но оценка осмысленности предложения требует чего-то большего. Я имею в виду, сравните следующие высказывания:
Первый синтаксически правильный и ясно значимый. Второй синтаксически некорректен (не соответствует правилам построения предложения в английском языке). Третий вариант синтаксически правильный (обработка чипа как глагола), но имеет сомнительное значение. Что значит «картофельные чипсы любят»? Теперь, если вы представите, что эти три фразы переданы в обратную сторону китайской комнаты (комнаты, в которой говорящий только на мандаринском диалекте обрабатывает алгоритмические правила для английского языка), этот человек распознает °2 как структурный бессмыслица, но он не будет делать различия. между °1 и °3. Как он мог?
Обратите внимание, что это похоже на различие в логике между достоверностью и истинностным значением ряда предложений. Первое ничего не говорит нам о втором, и наоборот.
Чего не хватает синтаксическому анализу, так это способности извлекать смысл из двусмысленности (с помощью непроцедурных процессов, таких как расширение, аналогия, метафора, упрощение, корреляция...). Мы с вами можем сидеть и размышлять о том, что значит «картофельные чипсы любят», и рано или поздно мы придадим этому смысл. Но для того, чтобы иметь возможность определить значение, мы должны оценить значение отдельных слов и найти в них некоторое соответствие. Это больше зависит от практического использования слов, чем от их синтаксической структуры или явных словарных определений.
Это может быть яснее, если мы думаем с точки зрения юмора. Например, если мы возьмем пару (явно глупых) шуток:
... мы можем видеть, что они оба синтаксически правильны, но шутка заключается в их странных соответствиях: связь между драками и надиранием задницы, а также связь динозавров с юрским периодом; сходство слов «без звонка» (что означает отсутствие звонка в дверь, отсюда необходимость стучать) и «Нобелевская премия» (архетипическая премия для умных людей). Разумеется, мы можем запрограммировать компьютер на повторение этих шуток, но если мы загрузим их в нашу комнату с инверсным китайским языком, человек внутри не будет смеяться и не выдаст «ха-ха», если только ему явно не прикажут сделать это для этих наборов шуток. символы. Чтобы компьютер понял юмор этих шуток (или хотя бы глупостьиз них), мы должны были бы сделать компьютер способным к широкомасштабным нечетким ассоциациям между понятиями, не связанными друг с другом, и никто еще не разработал алгоритм для этого. Если они это сделают, то потребуется нечто большее, чем просто синтаксический анализ, так что проблема китайской комнаты Серла останется актуальной.
В вашей ссылке SEP на Searle's Room изложен ряд позиций, которые ясно показывают, что философия так или иначе не решила на основе консенсуса вопрос человеческого и семантического понимания. История ИИ — это непрекращающиеся дебаты, по сути, по этому вопросу. Отличным введением в эту историю является книга Нильса Нильссона « В поисках искусственного интеллекта» . Я предупрежу вас, что любой, кто ответит вам категорически отрицательно или утвердительно, даже не взял и не прочитал эту книгу. Философия не определилась в значительной степени потому, что философия не достигла прочного консенсуса относительно того, что представляет собой понимание. Наука не пришла к единому мнению о семантике мозга.При этом за последние пару десятилетий компьютеры добились успехов, возможно, не демонстрирующих интеллект человеческого уровня, но, безусловно, достаточных, чтобы слушать вас и удовлетворять некоторые из ваших потребностей. По сути, однако, помимо агностиков, есть два лагеря: те, кто верит в картезианское понятие понимания, которое отвергает все, кроме людей, как способное к человеческому интеллекту, и толпа выскочек, которая интересуется общим искусственным интеллектом и верит в него . возможно в теории. (Предупреждаю, что я предвзято отношусь ко второму варианту.) В любом случае, вы твердо придерживаетесь философии искусственного интеллекта , относительно новой ветви философских исследований, которой менее 100 лет, учитывая появление цифровых вычислений в конце 1930-х и начале 1940-х годов.
Мечта оживить неодушевленное, чтобы вести себя как человек, уходит корнями на тысячи лет прямо в мифологию протоиндоевропейцев . Его сокращенный отчет также, кажется, является введением в каждой книге, которая пытается представить ИИ. Очевидно, у вас есть два вопроса: один о Серле и Китайской комнате, а другой — о том, что философия говорит о разработке мыслящих машин.
Вы процитировали «Аргумент китайской комнаты», о котором есть несколько сообщений на этом сайте. Начните с обзора тех:
Понимание аргумента Серла и аргументов, которые на него отвечают, особенно реакции системы, необходимо для того, чтобы сориентироваться. Как только вы это сделаете, я на вашем месте протяну руку и куплю « Философию искусственного интеллекта» Маргарет Боден и «Чего компьютер не может» Хьюберта Дрейфуса. Если вы хотите узнать, что готовит лагерь ОИИ, то в хорошей недавней публикации Бена Герцеля и Кассио Пенначина (ред.) под названием «Общий искусственный интеллект» предлагаются некоторые из (IMNSHO) безуспешных попыток создания архитектур для наполнения программного обеспечения человеческим интеллектом. черты интеллекта уровня.
Что касается вопроса о том, как Серл может быть так уверен? Что ж, Джон Сирл известен своей философией, и эта уверенность может быть следствием его успеха как философа и отсутствия у него технических знаний как ученого-компьютерщика. Продолжение Джоном Серлом успехов лингвистического поворотав философии трудно оспорить. Он много писал о том, как язык отражает реальность, как личную, так и социальную, но я хотел бы отметить, что у Серла есть инструмент, который он использует для работы со сложностью разума, который называется Фон. Он часто сбрасывает детали прямо в туманную, расплывчатую вещь, чтобы упростить и донести свою точку зрения. В целом, это отличная стратегия для того, чтобы сузить его аргументацию до того, что заслуживает внимания, но обратная сторона этого заключается в том, что существует опасность слишком легкого отбрасывания относительных утверждений, поскольку неформальный аргумент управляется немонотонной логикой и опровергаемыми утверждениями .
Другая часть вашего вопроса вращается вокруг того, чтобы понять, что значит имитировать понимание, особенно языка. Как вы, вероятно, знаете, Алан Тьюринг известен многими вещами, но среди них — его тест Тьюринга , который является попыткой операционализировать семантический интеллект человека. По мере того, как мы приближаемся к 100 годам, никто не смог этого сделать, что в истории искусственного интеллекта часто рекламировалось как не за горами, так же как до термоядерных реакторов постоянно оставалось 30 лет (журнал Discovery) . На самом деле, когда Хьюберт Дрейфус начал критиковать программу ИИ в кампусе и вместе с RAND, он почти сразу же заметил откровенную враждебность своих единомышленников.
Почему обещания ИИ так медленно воплощаются в жизнь (хотя достижения в области машинного интеллекта в последнее время достигли некоторых фантастических целей)? Ну, это сводится к тому, что лингвистика открыла о семантике. Самый простой способ объяснить это - сказать, что значение коренится в физическом воплощении , и что обработка строк в последовательном АЛУ не соответствует некоторым коннектистским свойствам человеческого мозга . Это вычислительные детали, где вопрос о человеческом интеллекте становится суровым и где невежество в материаловедении и математических структурах вычислений начинает оказывать влияние на философию разума .
На самом деле вопрос о том, что представляет собой человеческий интеллект, является открытым вопросом не только в философии сознания, но и в самой психологии, где есть две, грубо говоря, соперничающие за одобрение модели, модель Кеттелла-Хорна, которая связана с G-фактор и используется с помощью тестирования коэффициента интеллекта и того, что можно назвать плюралистическим понятием интеллекта, наиболее известным благодаря теории MI Говарда Гарднера , которая популярна среди гуманитариев и педагогов. Как есть приверженцы более твердых и более мягких «наук о разуме», так и это предубеждение отражается в понятии интеллекта.
В конечном счете, вопрос, который вы задаете, уходит своими корнями больше в философию языка, чем в что-либо еще, потому что обсуждение дихотомии синтаксиса и семантики остается за философами и учеными языка. Существует ряд конкурирующих моделей того, как именно происходит эта вещь, вещь, опыт, называемый «значением», и если вы действительно хотите понять, что связано с тем, как семантика работает с людьми, я бы порекомендовал две книги, чтобы начать свой путь. , хотя они не легко читаются. Во-первых, у Рэя Джекендоффа есть свои «Основы языка».который является высокотехнологичным, но содержит специфический архитектурный аргумент о том, как воплощенные системы мозга порождают то, что мы признаем как значение. Вторую книгу также сложно прочитать, но она того стоит, если вы действительно хотите понять, почему обещание искусственного интеллекта на уровне человека и использования языка не материализовалось, « Когнитивная лингвистика » Эванса и Грина, которая предлагает исчерпывающую картину того, как язык и смысл основаны. в телесном опыте.
То, что я предложил здесь, — это не столько простой ответ, сколько план для понимания того, почему большинство философов не в своей тарелке при обсуждении того, как реализовать аспект фактического человеческого познания, основанный на нейронных вычислениях, в системах , предназначенных для реализации фон Неймановская архитектура машины Тьюринга . Вклад Серла в язык, семантику и интенциональность бесспорен, однако в некоторых отношениях вопрос инженерного семантического понимания начал перемещаться из философии в научные области машинного обучения, разработки программного обеспечения и неврологии. Таким образом, вы увидите сопротивление отказу от классических понятий в философии, таких как семантика, обусловленная истинностью.и платоническая математика , которые приводятся в пользу трансцендентальных форм метафизики . На самом деле, сам Серл признает, что мозг — это биологический компьютер, но остается скептически относиться к тому, что наши современные компьютерные технологии могут имитировать их, что является умеренным консерватизмом.
TL:ДР;
Если мы рассматриваем мозг как вычислительную машину (которой, насколько нам известно, он и является), утверждение Серла не имеет под собой никаких оснований.
Согласно тезису Черча-Тьюринга, который является очень уважаемым результатом в компьютерных науках, не существует вычислений, которые не мог бы выполнить обычный компьютер.
Вы можете рассматривать это как вызов: покажите мне решаемую проблему, которую не может решить компьютерная программа. Пока это никому не удалось.
Значение этого результата состоит в том, что (если мы не учитываем скорость и пространство) любой компьютер, который может существовать во Вселенной, будь то электрический, квантовый или основанный на технологии, которую мы не можем себе представить, был бы так же способен решать проблему. как телефон в кармане.
Если мы считаем, что мозг попадает в эту категорию, то разница между мозгом и любым другим компьютером заключается только в программном обеспечении, которое он запускает.
Если мы согласны со всем этим, мы можем легко опровергнуть утверждение Серла о том, что, поскольку он может выполнять вычисления, которые выводят на китайский язык, не понимая китайского языка, компьютер его не понимает. Ответ заключается в том, что это программное обеспечение «понимает» что-либо, а не аппаратное обеспечение, например, силиконовые чипы не могут играть в шахматы, как и нейроны, но если мы расположим их правильно, то они оба могут играть в шахматы.
Эксперимент с китайской комнатой работает только в том случае, если мы не рассматриваем мозг как вычислительную машину, т. е. если мы думаем, что в нашем мозгу происходит что-то, чего не может произойти ни в какой другой системе. Тем не менее, никто не смог предоставить доказательства того, что это произошло.
Я думаю, что самый простой способ объяснить это: синтаксис можно разобрать с помощью вычислений, но вычисления можно абстрагировать до нелепых или «забавных» экземпляров. Поскольку мы не знаем, как ментальные состояния (например, семантическое понимание, сознание, осознание и т. д.) возникают из физического — «непостижимый разрыв между физическим процессом и субъективным сознанием, который высмеивает наши поиски нитей, связывающих телесное и ментальное». вместе», должны ли мы вообще придавать какое-либо значение идее о том, что это порождает ментальные состояния (например, семантическое понимание)? «Нет более удивительного и загадочного факта, чем факт сознания». Мы заявляем о незнании того, какнейроны и мозг порождают сознание, но из всего, что мы твердо верим в сознание, вовлечен мозг: «нет никаких сомнений в том, что у людей есть умственная жизнь, потому что у нас есть мозг».
Мы не готовы сделать скачок к чему-то другому, кроме того, что мозг порождает сознание, даже если мы не знаем, как мозг это делает. Само по себе вычисление, конечно, не может быть таковым, просто подумайте обо всех «забавных примерах» вычислений, помимо человека в комнате, тасующего карты: поилки, движущиеся песчинки и т. д. Эксперимент в китайской комнате — это просто еще один «забавный пример». вычислений.
[1] все цитаты взяты из: Maudlin, T. (1989). Вычисление и сознание. Журнал философии, 86 (8), 407. doi: 10.2307/2026650
Машина могла бы иметь свою собственную семантику. Это потребовало бы только того, чтобы у него было свое собственное внутреннее представление о мире. Однако какая от этого польза? У каждого человека, очевидно, есть свое личное ментальное представление о мире. Однако, несмотря на это, мы разделяем большую часть этого, и это просто потому, что мы биологически очень похожи друг на друга, и мы общительны, так что мы разделяем большие куски нашей жизни. Мы все понимаем, что такое Солнце, потому что есть только одно Солнце, и у нас в целом одинаковое представление о нем. Таким образом, мы получаем в целом ту же семантику. Различия есть, но они представляют собой небольшую часть целого — вопреки тому, что могут предложить споры в Интернете или даже в реальной жизни.
Таким образом, проблема не столько в том, что у машины есть собственная семантика, сколько в том, чтобы иметь семантику, достаточно близкую к семантике человека, по крайней мере, если мы хотим, чтобы люди и машины понимали друг друга. Таким образом, трудность заключается в том, что производство человеческой семантики остается в значительной степени неизвестным процессом. Может быть, в принципе и не невозможно сделать что-то сопоставимое, но, вероятно, на данный момент это, по крайней мере, далеко за пределами наших технических возможностей, в частности, с точки зрения массивных данных, которые непрерывно обрабатывает человеческий мозг.
Назовем понимающего агентамыслящее существо, обладающее «семантическим пониманием» значения слов, расположенных пропозиционально. Предположим теперь, что во входном потоке понимающего агента есть слово, с которым агент раньше не сталкивался. Теперь, когда машина перевода, например, может столкнуться с «оригинальным» или бессмысленным словом, для которого соответствующий перевод может быть выведен из контекстуальных подсказок, но не отражает какой-либо конкретный экземпляр текста в «реальном корпусе», который он предназначен для перевода - - каким должен быть его вывод? Машина перевода может просто выводить нулевой результат или вести себя неопределенно; однако каким должен быть в таком случае результат понимающего агента? Иными словами, «совершенная» переводческая способность, по-видимому, подразумевает
Значение перевода, связанная с ним трудность и сложность, как правило, могут быть несколько занижены, на мой взгляд, и включают в себя всю проблематику, поднятую феноменологами, деконструктивистами и психоаналитиками в связи с «глубокими глубинами», действовавшими в генезисе локальная трансцендентная структура.
Возможно, пределы так называемого «неопределенного поведения» для программного обеспечения в данном случае сходны с пределами собственной внешней полутени языка, то есть бессмыслицы и hapax legemonon , которые, возможно, играют более важную роль в построении «смысла», чем мы можем себе представить. Но достаточно сказать, что все эти анализы языка, как мне кажется, поднимают вопрос о происхождении и ценности смысла как отдельной сущности; и, кроме того, мне кажется, что самые усердные усилия философов математики, Фреге и Рассела, не совсем увенчались успехом в разрешении двусмысленности, лежащей в основе некоторых из этих аксиоматических, основанных на чувстве систем рассуждений, таких как ZFC.
Другой аргумент, который я видел против эксперимента, заключается в том, что «вместе с книгой инструкций по манипулированию символами (программой)», способной интерпретировать китайский язык как носитель языка, на самом деле не могло существовать. Естественные человеческие языки так не работают, и в китайском языке существует бесконечное количество возможных предложений. Даже если бы вы каким-то образом нашли достаточно большое подмножество китайского языка, которое вы могли бы вписать в свою книгу правил, человек в коробке никогда не смог бы выдать себя за носителя языка, потому что он мог давать одинаковые ответы только на одинаковые вопросы. Этот подход не сработал для английского языка, и, насколько я понимаю, он не сработает и для китайского.
Это может быть скорее ограничением аналогии, чем решительным опровержением основной точки зрения, но оказывается, что система, которая работает, просматривая и следуя списку грамматических правил, не дает достаточно убедительных ответов, которые мы расцениваем как «понимание» человеческого языка.
Основная проблема с аргументом китайской комнаты заключается в том, что он предполагает массивную, массивную вещь: алгоритм, который обеспечивает «ответы на китайском языке». Мы просто должны принять этот черный ящик без вопросов, чтобы мы могли сосредоточиться на «реальных проблемах» в дебатах. Но мы можем полностью разрушить аргумент китайской комнаты с помощью одного простого трюка! Мы просто определяем, откуда взялся этот алгоритм!
Видите ли, неявное предположение состоит в том, что «алгоритм» в чем-то неестественен… холодный и безжизненный продукт человеческой изобретательности, который никак не может отразить красоту и славу человеческого сознания. Но почему нет? Что, если бы «алгоритм» был не чем иным, как точным описанием настоящего китайского мозга ??? Что, если «китайская комната» была не чем иным, как реальным, обычным, говорящим по-китайски мозгом, который был заменен англоязычным гомункулом, который в остальном выполняет те же самые действия, что и соответствующий китайский мозг ? Собирается ли Серл по-прежнему настаивать на том, что гомункул в панцире действительно не «понимает» китайский язык? Конечно, гомункул не обязательно понимает по-китайски,к.
Конечно, нам не нужно привносить в него мандарин (или кантонский, или любой из тысяч других китайских языков). Мы можем просто заменить мозг Джона Сирла говорящим на инопланетянах гомункулом и алгоритмическим описанием его мозга. Тогда мы можем перевернуть его аргумент с ног на голову и настаивать на том, что мозги тоже не понимают английский . И если это так, то мозг не является чем-то особенным и, таким образом, находится на том же уровне, что и компьютеры/ИИ.
Конечно, Роджер Пенроуз неявно понимал опасность этого аргумента, поэтому он пошел по длинному пути, пытаясь показать, что не существует алгоритмического описания мозга , поскольку мозг особенный , используя квантовые эффекты . Это совсем другая тема, так что я просто оставлю это.
Аргумент Серла был сформулирован во времена, когда у нас был только символический ИИ, построенный на логике, основанной на правилах . Такая система негибкая и нединамическая. Он работает статически через теоретико-доказательные системы и/или таблицы истинности. Каждое расширение и добавление правил необходимо реализовывать вручную вручную. Одним из примеров среды символической логики, на которую в то время возлагались большие надежды с точки зрения ИИ, но которая потерпела неудачу, был язык программирования Пролог .
Ограничения систем, основанных на правилах, не действуют в наши дни. Теперь мы имитируем и воспроизводим системы машинного обучения, основанные на нейронных сетях мозга, которые способны изучать семантические контексты с помощью контролируемых, полуконтролируемых или даже неконтролируемых процессов обучения (пример ) . Одним из примеров является программное обеспечение SpaCy на основе Python, которое работает в области NLP ( обработка естественного языка ).
Благодаря вычислительному лингвистическому подходу машина теперь может использовать нейронные сети для постоянного изучения семантического контекста, скажем, биологических статей, научных статей или даже газет, а также любых других фрагментов текста. Например, он может извлекать то, что вам нужно, на основе значения текста (семантическое сходство), которое достигается путем создания вложений слов, векторов, которые действуют как «карты» для терминов (см. демонстрацию ) .
В заключение, становится все более и более возможным делать «жесткие» заявления о том, что ИИ понимает семантику, чем это было в эпоху аргумента Серла о китайской комнате. Более того, область вычислительной нейробиологии теперь реализует цифровые части мозга, которые моделируют человеческие процессы обучения и даже познания. Действительно, есть надежда, что машины смогут «понимать» смысл способами, выходящим за рамки доводов Серла.
Проблема с аргументом китайской комнаты заключается в том, что человек получает входные данные только из одного источника, сообщения, тогда как семантическое понимание требует, чтобы сообщение было связано с другими входными данными.
Так что почти по определению комната не может иметь семантического понимания.
Однако, если вы добавите дополнительные входные данные, например, время суток, погоду и память, человек вскоре может начать ассоциировать «доброе утро» с солнечным утром.
Можно пойти дальше и убрать внешние входы, просто закодировав ассоциацию в инструкции с помощью english. Это было бы равносильно переводу, и человек, выучивший перевод, очевидно, имел бы семантическое понимание китайского языка.
Легко видеть, что компьютерная программа также может иметь внешние входы и память. Действительно, вы можете представить себе очень простую программу "доброе утро" = sunPosition && noClouds, которая на первый взгляд представляет собой семантическое понимание
Сирл не утверждает, что программы не могут быть семантическими, он исходит из определения компьютерной программы, формального, или синтаксического, а затем проводит параллели с использованием человеком формальных систем (механических инструкций) и сравнивает их с реальными. понимание.
Хорошим примером может быть заучивание материала на экзамене наизусть (это будет синтаксический/механический) и не торопитесь, чтобы действительно понять материал (это будет семантика). Понимание — это не «ага!» чувство, которое вы получаете от глубокого потребления материала, а скорее оно приходит с этим чувством. Когда вы понимаете материал на экзамене, это совершенно не то же самое, что выучить его наизусть.
Это в основном тот же случай, что и в аргументе китайской комнаты. Можно привести любой другой пример, когда люди следовали какой-то компьютерной программе — какому-то определенному пошаговому набору инструкций — и пришли к тому же выводу, что и Серл со своей китайской комнатой, но с некоторой интуицией, основанной на личном опыте сделайте резервную копию (нам всем приходилось следовать какому-то пошаговому списку инструкций в какой-то момент, я уверен).
Здесь уже опубликовано много ответов, которые дают существенное представление. Тем не менее, я не вижу ни одного, кто бы полностью понял суть мысленной проблемы Серла, и многие из них занимают неправдоподобные/несостоятельные позиции.
Я полностью ответил на этот вопрос для другого спрашивающего здесь: как аргумент китайской комнаты справляется с парадоксом кучи песка?
Использование Сёрлом термина «семантика», который является чисто лингвистическим термином, может отвлекать некоторых авторов от понимания его точки зрения. Можно сделать язык без сознания, но Сил работает с определением понимания, таким образом, что невозможно сделать «понимание» без сознания, и он использовал «семантику» как замену для понимания.
Понимание включает в себя компетентность, осознание ответа, обеспечиваемого компетентностью, и ввод-вывод. «Книги» в комнате обладают компетентностью, но не осознанностью. Оператор осведомлен, а оператор и механизмы в помещении осуществляют ввод-вывод.
Большинство ответов здесь, которые отвергают аргумент Серла, также отвергают то, что понимание требует осознания. Это явно бихевиористские ответы. Они считают сознание чем-то несущественным, а людей — редукционистскими машинами. Обратите внимание, однако, что философия, психология и наука в целом отвергли бихевиоризм, а также редукционизм, см. раздел 5 SEP о научной редукции: https://plato.stanford.edu/entries/scientific-reduction/ . очень четкая эволюционная настройка сознания требует, чтобы сознание было каузальным, поэтому такое игнорирование каузального сознания противоречит основным биологическим принципам.
Я также заметил, что большинство противников мысленной проблемы Серла обвиняли Серла в антинаучности и дуализме. Это явно неверно. Сирл является сторонником нередуктивного физикализма. Он считает сознание эмерджентным и невычислительным, поэтому сознание не может возникнуть в результате вычислений, выполняемых функционализмом. Его альтернативная позиция состоит в том, что существует некая пока еще неизвестная особенность биологических систем, позволяющая сознанию возникать из них.
Из ответов на мысленную проблему Серла, приведенных здесь, единственный, который затрагивает проблему осознания, — это цитаты Чалмерса. Чалмерс понимает аргумент Серла о том, что, отделив компетентность от осознания и ввода-вывода, Сирл подчеркнул неправдоподобность привязки сознания к демонстрируемой компетентности. Чалмерс — тот редкий философ, который схватил этого быка за рога. По сути, он признал, что одна лишь компетентность (книги) не имеет сознания, но вместо этого утверждает, что комната, АССАМБЛЕЯ, имеет сознание. Что комнатная система находится в сознании, когда оператор реализует функции в книгах и выполняет ввод-вывод. Это редкая точка зрения, поскольку комнатная СИСТЕМА не из тех вещей, которые, по признанию большинства философов, могут поддерживать сознание.
tl;dr — Аргумент о китайской комнате — чистая глупость, сравнимая с теорией плоской Земли . Не проводя официального опроса, я в целом понимаю, что те, кто в этой области, в значительной степени игнорируют это как антиинтеллектуальную позицию.
Аргумент Серла в основном таков:
Предположим, что ИИ — это безмозглые машины.
Это предположение нельзя опровергнуть, потому что любое доказательство обратного может быть следствием скриптоподобного алгоритма, который просто звучит по-человечески (или звучит так, как будто он понимает по-китайски).
Поскольку предположение нельзя опровергнуть, оно должно быть верным .
Аргумент Серла — это просто копия/вставка аргумента солипсиста :
Предположим, что другие люди — безмозглые зомби .
Это предположение нельзя опровергнуть, потому что любое доказательство обратного может быть следствием поведения, подобного сценарию, которое просто звучит как человек (или звучит так, как будто это не зомби).
Поскольку предположение нельзя опровергнуть, оно должно быть верным .
В Википедии есть множество критических замечаний по поводу аргумента Серла . Не потому, что это нуждается в дальнейшем развенчании, а потому, что с ним так много всего не так.
По сути, это витализм .
Рискуя показаться наивным, я просто отмечу вопрошающему, что во всех этих очень хороших ответах не совсем понятно, что подразумевается под «семантикой» и «значением».
Я полагаю, что Сирл много лет назад вводил в гораздо более застегнутую аналитическую философию вопросы, которые теперь более развиты с повторным введением некоторых версий метафизики и даже идеализма в англо-американские учебные программы.
Вопросы «значения» строго исключены из модели информации Шеннона, на которой до сих пор базируется компьютерный «синтаксис». Подобно теории гравитации Ньютона или теории полезности Джевона, она предлагает математическое моделирование и воздерживается от любой «субстанциалистской» или «эссенциалистской» гипотезы о том, что модели определяют количественно.
Аргумент Серла, возможно, был необходим в рамках прискорбно ограниченной традиции, в которой он учил, но я полагаю, что он был бы сочтен глупым и излишним в так называемых «континентальных» традициях со времен Гуссерля.
Это немного похоже на попытку сравнить математическое определение информации Шеннона с определением Уолтера Онга. В последнем есть несводимый носитель «опыта», тело, физические вибрации, производимые Словом, изреченным между телами.
Этот опыт трагически защищен брандмауэром. На самом деле я не могу "чувствовать твою боль". Оно может передаваться «сочувственно», но не синтаксически. Машина также не может имитировать действительное «живое» в смысле прохождения сложных семантических взаимодействий, которые позволяют ей воспроизводить себя как физически, так и «неточно». (Репликаторы фон Неймана в сторону.)
В моем собственном неофициальном чтении Серл просто указывает на исключение этих многих традиционных философских вопросов из пути, избранного аналитической «философией» в его время. Хотя я мало его читал, калифорнийский коллега Серла Хьюберт Дрейфус, возможно, где-то написал одновременный отказ от всей основы «проблемы» Китайской комнаты.
Числа таинственным образом «равны» и поэтому могут вписываться в «уравнения». Но опыт тел во времени на каком-то уровне не поддается эквивалентности, никогда не может быть точно таким же, и поэтому никогда не может быть полностью смоделирован в дискретных количествах.
Проще говоря, если у вас есть машина ИИ (независимо от того, насколько она сложна), ее можно описать тремя вещами: состоянием машины (как внутренним, так и внешним) S, входом в машину I и выходом O. Выход будет функцией ввода и состояния O=f(I,S) , а любая случайность будет моделироваться через состояние (псевдослучайность). Другими словами, вывод будет детерминированным.
Описанная выше модель верна даже для самых сложных нейронных сетей и, как мы видим, у нее просто нет свободы воли . Даже если мы предположим, что он может обучаться (т. е. изменять свой собственный алгоритм), это все равно делается детерминистически — при определенном входе и состоянии наша машина ИИ изменит себя, но только в установленном порядке. Еще раз обратите внимание, что даже если мы включим случайность в это изменение, эта случайность все равно будет частью состояния S, поэтому включена в наше основное уравнение.
Так как наша машина ИИ не обладает свободой воли, из этого следует, что она не может создать , или, другими словами, любая новая структура, созданная этой машиной, будет просто запрограммирована в нее заранее. В любой данный момент времени у машины будет набор паттернов P и множество модификаций M. Машина может применить эти модификации к паттернам, создав множество «новых» паттернов Pn, но этот набор уже будет предопределен исходным набором паттернов. П и М.
Какое это имеет отношение к семантике? Семантика — это просто изучение значения. У вас есть определенное явление (слова, звуки, буквы, картинки...), стоящие вместо чего-то другого. Например, слово «собака» (как письменное, так и устное) символизирует определенный вид животных. У собак есть шерсть, четыре ноги, они плотоядные млекопитающие. То же, что кошки. Тем не менее, (почти) ни один человек не назвал бы собаку кошкой. С другой стороны, у кораблей нет ног, волос, и они вообще не животные, но люди называют некоторых из них железными собаками ! Как бы вы объяснили ИИ, что означает слово «собака»?
Люди иррациональны и нелогичны . Это было математически доказано теоремами Гёделя о неполноте и теоремой Тарского о неопределимости . В любой сильной формальной системе вы не можете полностью определить истину. У вас будут некоторые истины (и некоторые вымыслы), которые недоказуемы. Все не могло быть определено. Тем не менее, каким-то странным образом (интуитивно) люди различали бы их. Дзен-буддисты называют это хлопком в ладоши . Оно не поддается объяснению, потому что не может быть определено — оно абсурдно, но все же неотразимо. И совершенно непонятен ИИ, потому что его нельзя перевести на формальный язык.
Амит Шарма
Джей Ди
Джей Ди
Конифолд
Арманд
Юджин
Чарльз Стаатс
Юджин
Гипносифл
пользователь4894
Дклеве
Скотт Роу
пользователь4894
Дклеве
пользователь4894
пользователь4894
Юджин
пользователь4894
пользователь4894
пользователь4894
Юджин
Юджин
пользователь4894
Юджин