Аргумент китайской комнаты пытается доказать, что компьютер, каким бы мощным он ни был, не может достичь сознания.
Краткое содержание:
Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, являются вопросами на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.
Чем это отличается от того, что происходит внутри нашего мозга?
Определенные импульсы поступают от органов чувств и обрабатываются нейронами. Это полностью детерминированный процесс, и для этих нейронов по отдельности ввод/вывод не имеет абсолютно никакого значения. По отдельности они не обладают сознанием. Конечно, это происходит 10 ^ n раз одновременно, и, возможно, здесь задействована некоторая рекурсия, но концепция та же — источник ввода и пункт назначения вывода не имеют значения.
Единственная разница, о которой я могу думать, заключается в том, что в мозгу инструкции/справочные таблицы/все, что угодно, может быть изменено этим процессом. В эксперименте об этом не упоминается, потому что в этом нет необходимости — синтаксис языка остается относительно постоянным в течение короткого промежутка времени. Но до тех пор, пока эти модификации выполняются в соответствии с набором правил, это не будет иметь никакого значения.
Я упустил какую-то важную часть аргумента Серла?
(Вдохновленный этим вопросом )
Я хотел бы предположить, что ваше недоумение возникает из-за смешения разума и сознания. Ни одна из концепций не имеет четкого определения, но, тем не менее, они различны. Серл сказал бы, что китайская комната не может быть сознательной, а не то, что она не может казаться разумной. На самом деле первоначальный аргумент вращается вокруг концепции пониманиячто является еще одним размытым понятием без четкого определения. Серл — философ, который считает, что разум нельзя выразить в терминах вычислений, или, другими словами, что у компьютера никогда не может быть разума, независимо от его архитектуры и конкретных вычислений. Он не исключает, что машины вообще могут иметь разум, но механизмы (подмножество машин) могут никогда не равняться разуму. Вы по-прежнему можете не соглашаться с ним (как и большинство людей), но для этого важно сначала понять его (каламбур).
Пример «Китайской комнаты» Джона Сирла неуклюж и уязвим для всевозможных опровержений с чисто технической точки зрения (ответ системы, ответ симулятора мозга и т. д.).
Но это несправедливо по отношению к аргументу, потому что за неуклюжим мысленным экспериментом скрывается более глубокий эпистемологический вопрос, требующий серьезного рассмотрения. Джон Серл в своих лекциях вдается в детали и часто повторяет, что «Синтаксис — это не семантика» (см. статью SEP) :
Любой, кто изучал формальную логику, знает, что такие правила, как законы Де Моргана или законы идемпотентности (например, A ^ A = A), не зависят от значения обрабатываемых символов. Правило типа
IF A then:
B
Else:
C
Работает независимо от значения A, B и C. Но все, что делает компьютер, — это обрабатывает правила этого типа.
Это идея о том, что синтаксис (правила) не зависит от семантики (значения), и поэтому компьютер может функционировать идеально, даже не зная значения того, что он вычисляет. Даже самый продвинутый симулятор мозга, который может пройти всевозможные тесты Тьюринга, в конечном итоге просто перетасовывает символы, даже не зная их значения.
Серл утверждает, что это показывает, что ни один компьютер, каким бы продвинутым он ни был, нельзя считать по-настоящему разумным, поскольку ему не хватает понимания значения символа.
Где-то в лекциях, на которые я ссылался выше. Однако он упоминает, что если будет создан биологический искусственный мозг, это может привести к истинному интеллекту, поскольку он будет обладать биологическими характеристиками процессов человеческого мозга и будет управляться любыми механизмами, управляющими человеческим мозгом.
См. этот вопрос для получения дополнительной информации: как можно опровергнуть аргумент Джона Сирла «синтаксис - это не семантика» против сильного ИИ?
Разница в том, что мы сознательны, то есть у нас есть субъективный опыт понимания и осознания. Помните, что мы пытались объяснить в первую очередь сознание, а не способность обрабатывать ввод и производить вывод.
Есть разница между способностью давать китайские ответы на китайские вопросы и тем, чтобы услышать вопрос на китайском языке и подумать: «О, я знаю, что это значит». Последнее есть сознание.
«Сознание» требует определения. Как невролог, я использую этот термин четырьмя различными способами в зависимости от обстоятельств. Давайте посмотрим, сможем ли мы включить его в рамки этого обсуждения, определив некоторые связанные понятия:
Рефлекс : простая детерминированная система. Вход -> выход. Нейроны соединены последовательно. Познание : подразумевает сложную систему, в которой понятия регулируют отношения между входом и выходом. Вход -> концепция -> вывод. Понятие — это набор связанных атрибутов в том смысле, что «волосатый», «лающий», «четвероногий» и «вонючий» могут быть связаны, чтобы сформировать понятие «собака». Связь между атрибутами представляет собой неявную теорию. Теория = смысл. (См. Бернштейн, «Основная теория нейропсихоанализа».) Нейронная сеть: вычислительная система состоит из множества простых вычислительных блоков, тесно связанных между собой. Они подключаются параллельно, а также последовательно. Познание — это характерное поведение нейронной сети. Все мозги, способные мыслить, представляют собой нейронные сети. Искусственные нейронные сети можно рассматривать как модели мозга, хотя и с важными количественными и качественными различиями. Интеллект: параметр познания. С анатомической точки зрения интеллект коррелирует со степенью связности нейронов в мозгу. У людей больше связей, чем у животных. У Эйнштейна было больше связей, чем у меня. Когда мы говорим, что что-то разумно, мы имеем в виду, что оно способно нести много информации в форме концепций и теорий. Концепции могут быть многочисленными, тонкими и иерархическими. Теории могут быть глубокими и обоснованными. Sentience : это надмножество интеллекта, которое подразумевает наличие сознания. Сознание : еще предстоит определить. На данный момент мы можем назвать это «самосознанием».
«Детерминированная» система, описанная ОП, не является ни разумной, ни сознательной. Компьютерная система, описанная в ОП, является рефлексивной.
Не все компьютеры рефлексивны. Предположим, с задачей справилась самоорганизующаяся нейронная сеть. Формирование концепций, определяющих результат, подразумевает формирование теории. Несмотря на то, что эти теории примитивны и своеобразны, мы можем сказать, что такая система обладает рудиментарным интеллектом.
Чтобы этот компьютер выглядел человеческим, нам нужно встроить достаточное количество процессоров и достаточно мощную степень подключения, чтобы приблизиться к возможностям человеческого мозга как с точки зрения емкости хранения данных, так и с точки зрения способности формировать иерархические концепции. . Нам также нужно было бы встроить эмоции. «Эмоция» может потребовать ассимиляции всего лишь трех атрибутов: валентности (наказание или вознаграждение), интенсивности и того, требуется ли реакция приближения или отстранения.
Я не знаю, возможно ли разработать такую систему. Но предположим, что мы могли бы. Будет ли это сознательным?
Возможно, нет, из-за вопроса о «самосознании».
Мне не нравится термин «самосознание», потому что его слишком легко определить тривиальными или круговыми способами. Это что-то значит (возможно, немного), если вы осознаете мое « я». Все, у кого есть мозг, и любой компьютер могут это сделать. Что касается того, осознаете ли вы себя — конечно, вы осознаете. Вы ЕСТЬ сами по себе.
Тогда понятие «самосознания» имеет смысл только в том случае, если природа «я» неоднозначна.
Тогда возникает вопрос, при каких обстоятельствах компьютер столкнется с неоднозначной собственной природой?
На сегодняшний день мы явно не видим необходимости в разработке такого компьютера. Неоднозначность — это ошибка, а не фича. Чтобы было понятно, чем сложнее система, тем сложнее будет задача проектирования и тем непредсказуемее будет результат. Но, тем не менее, это будет система, которая будет идеально воспроизводить свой конкретный результат. У такой системы не будет основы для созерцания или даже определения своего «я» каким-либо осмысленным образом.
Но что, если бы мы разработали компьютер, который мог бы развиваться? Если бы он мог понять, что он меняется с течением времени, было бы достаточно двусмысленности, чтобы заставить его задуматься о природе самого себя?
Я сомневаюсь в этом. Все люди эволюционируют, в некотором смысле. Мы взрослеем со временем. Но изменения редко бывают настолько драматичными, чтобы заставить нас усомниться в нашей собственной природе.
Что касается вопроса о Я, люди борются с более серьезными проблемами. Священники говорят нам, что мы тело и душа. Философы говорят нам, что мы есть существование и сущность. Психоаналитики говорят нам, что мы — Эго и Самость. Являются ли эти загадки уникальными для людей? Или компьютеры могут участвовать в действии?
Возможно. Вопрос в том, какова природа интеллекта? Откуда это взялось?
До сих пор мы говорили об интеллекте как о форме информации, возникающей как эмерджентное свойство сложной системы в том смысле, что теории и концепции представляют собой продукт работы нейронной сети.
Мы также намекнули на лицевую сторону; другими словами, представление о том, что сложные вещи основаны на информации. Например, когда мы говорим о проектировании компьютерных систем, часть «дизайн» относится к информации. Если компьютерный дизайн основан на чертеже; мы можем рассматривать компьютер как физическое воплощение информационного пространства, намеченного в плане.
Точно так же наша солнечная система является физическим проявлением информации. Информация в форме гравитации пришла из бесконечности в материальный мир «3+1» в то время, когда Вселенная состояла из быстро расширяющихся газов. Гравитация заставила газовые облака сливаться в звезды и планеты. Структура информационного пространства, переносимого гравитацией, подразумевала структуру физической вселенной, включая наш дом.
Человеческий мозг — это проявление информационного пространства, и, что бы мы ни слышали, мы далеки от понимания природы этой информации. Мы расшифровали геном человека и обнаружили, что он мало что объясняет в структуре мозга. Наиболее важным геном, который отличает человеческий мозг от мозга животных, является ARHGAP11B, который обеспечивает дикое хаотическое разветвление нейронных связей. Принцип Хебба — «нейроны, которые активируются вместе, соединяются вместе» — объясняет развитие нейронной сети. Сказать, что это недетерминированный процесс, было бы преуменьшением. Кроме того, есть данные о том, что мозг имеет фрактальную структуру (www.stat.wisc.edu/~mchung/teaching/MIA/reading/ fractal.kiselev.NI.2003.pdf — убрать пробелы) и так далее.
Какое информационное пространство определяет мозг? И какое отношение это имеет (если вообще имеет) к нашей концепции «сознания»?
Если сознание всегда является свойством исключительно человеческого разума, я бы сказал, что мы не можем спроектировать компьютер, у которого было бы сознание, отличное от сознания его создателя. Каким бы человечным оно ни казалось, оно всегда будет puer eternis, никогда не способным отличить свое Эго от родителя. (Может, нас еще попытаются убить, но это уже другая история.)
Но. В той мере, в какой все, что мы подразумеваем под словом «сознание», предшествует человеческому разуму, у нас могут быть проблемы. Заметьте, законы термодинамики предполагают, что от звездных питомников до разумной жизни нужно спускаться вниз. Если это так, то информация, которая посредством гравитации породила первобытные звездные питомники, предшествовала человеческому разуму и подразумевала его. В этом случае мы можем ожидать, что интеллект будет оставаться в своем мясном костюме до тех пор, пока это лучший способ противостоять второму закону. Когда он найдет более эффективное решение, он сбежит с корабля.
В общем, ответ на ваш вопрос таков: 1. Мозг работает не так, как компьютер, который вы описываете. 2. Но теоретически возможно создать компьютер, который это делает. Другой вопрос, является ли такая вещь практической возможностью. 3. Мы не можем знать, может ли такой компьютер стать разумным. При некоторых обстоятельствах это было бы неизбежно.
Александр С Кинг
Александр С Кинг
пользователь4894
Тим Кинселла
Тим Кинселла
Джефф Ю.
Дж. Доу
Тим Кинселла
Дж. Доу
вирмайор
НацияWidePants