Чем человеческий интеллект отличается от китайской комнаты Серла?

Аргумент китайской комнаты пытается доказать, что компьютер, каким бы мощным он ни был, не может достичь сознания.

Краткое содержание:

Представьте себе носителя английского языка, не знающего китайского, запертого в комнате, полной коробок с китайскими символами (база данных) вместе с книгой инструкций по работе с символами (программой). Представьте, что люди за пределами комнаты посылают другие китайские символы, которые, неизвестные человеку в комнате, являются вопросами на китайском языке (ввод). И представьте, что, следуя инструкциям в программе, человек в комнате может раздавать китайские символы, которые являются правильными ответами на вопросы (выход). Программа позволяет человеку в комнате пройти тест Тьюринга на понимание китайского языка, но он не понимает ни слова по-китайски.

Чем это отличается от того, что происходит внутри нашего мозга?

Определенные импульсы поступают от органов чувств и обрабатываются нейронами. Это полностью детерминированный процесс, и для этих нейронов по отдельности ввод/вывод не имеет абсолютно никакого значения. По отдельности они не обладают сознанием. Конечно, это происходит 10 ^ n раз одновременно, и, возможно, здесь задействована некоторая рекурсия, но концепция та же — источник ввода и пункт назначения вывода не имеют значения.

Единственная разница, о которой я могу думать, заключается в том, что в мозгу инструкции/справочные таблицы/все, что угодно, может быть изменено этим процессом. В эксперименте об этом не упоминается, потому что в этом нет необходимости — синтаксис языка остается относительно постоянным в течение короткого промежутка времени. Но до тех пор, пока эти модификации выполняются в соответствии с набором правил, это не будет иметь никакого значения.

Я упустил какую-то важную часть аргумента Серла?

(Вдохновленный этим вопросом )

См.philips.stackexchange.com /questions/ 34358/…
Такжеphilios.stackexchange.com /questions/ 30091/…
Если у вас нет личного опыта собственного опыта... вы получаете официальную эмблему зомби наphilips.stackexchange.com. Меня удивляет, что люди притворяются, что не осознают себя.
Вам может понравиться эта цитата Скотта Ааронсона: «Как и многие другие мысленные эксперименты, Китайская комната получает свою выгоду от обманчивого выбора образов — и, что более важно, от игнорирования вычислительной сложности. Нам предлагается представить, что кто-то толкается вокруг. листки бумаги с нулевым пониманием или проницательностью.Но о скольких листках бумаги мы говорим?Какого размера должен быть свод правил и как быстро вы должны сверяться с ним, чтобы вести интеллектуальный китайский разговор в чем-либо напоминающем в реальном времени?...
Если бы каждая страница свода правил соответствовала одному нейрону (скажем) мозга Дебби, то, вероятно, мы бы говорили о «книге правил» размером не меньше Земли, страницы которой доступны для поиска рою роботов, путешествующих на близком расстоянии. до скорости света. Если так выразиться, может быть, не так уж сложно представить, что это огромное говорящее по-китайски существо — этот дянь нао — которое мы создали, может обладать чем-то, что мы готовы назвать пониманием или проницательностью». scottaaronson.com/democritus/lec4.html
@Timkinsella Спасибо за цитату Ааронсона. Это заставляет меня задуматься о том, насколько неразборчивым будет фильм, показанный (и прослушанный) со скоростью 1/1000 или около того. А также эпизод «Звездного пути» «Мгновение глаза». Скорость как качественная (а не только количественная) разница...
@Timkinsella Потрясающая цитата, я бы проголосовал только за Дайан Нао, если бы у меня была привилегия
Да, Ааронсон великолепен. Я также недавно видел это и подумал, что это мило smbc-comics.com/index.php?id=4124
Хахаха, спасибо, сэр. я думаю дело в холодильнике
Может быть, если поставить вопрос в обратном направлении, какие у вас есть доказательства того, что это то, что происходит в вашем мозгу? Если это и есть сознание, то оно исключительно хорошо скрывает процесс от того, кто его испытывает.
Поправьте меня, если я ошибаюсь, но разве это не известно также как аргумент гомункула Серла?

Ответы (4)

Я хотел бы предположить, что ваше недоумение возникает из-за смешения разума и сознания. Ни одна из концепций не имеет четкого определения, но, тем не менее, они различны. Серл сказал бы, что китайская комната не может быть сознательной, а не то, что она не может казаться разумной. На самом деле первоначальный аргумент вращается вокруг концепции пониманиячто является еще одним размытым понятием без четкого определения. Серл — философ, который считает, что разум нельзя выразить в терминах вычислений, или, другими словами, что у компьютера никогда не может быть разума, независимо от его архитектуры и конкретных вычислений. Он не исключает, что машины вообще могут иметь разум, но механизмы (подмножество машин) могут никогда не равняться разуму. Вы по-прежнему можете не соглашаться с ним (как и большинство людей), но для этого важно сначала понять его (каламбур).

Человек в комнате следует алгоритму, а это значит, что каждый шаг прост и не «придумывает свой собственный ответ».
Да, извините, только что нашел это на странице вики.
Так вы считаете, что для эксперимента проблематично то, что «алгоритм», написанный на английском языке на бумаге, может потребовать картотеку размером с планету? И что субъект в комнате может умереть от старости, не совершив ни одного обмена?
Это не проблема, поскольку все, что требуется, — это емкость в принципе, а не на практике. Функционалисты вроде Деннета считают, что, как только вычисления станут достаточно сложными, ничего не будет упущено. Сирл считает, что сложность вычислений не имеет значения (я тоже). Сирл использовал мысленный эксперимент, чтобы доказать, что вычисление — это то, что он называет относительным наблюдателем. но в остальном она не сильно отличается от мельницы Лейбница - home.datacomm.ch/kerguelen/monadology/printable.html#17
Спасибо еще раз. Однако можно было бы подумать, что если бы это было возможно «в принципе», то был бы мысленный эксперимент, дающий результат, который якобы возможен. Роскошь мысленного эксперимента состоит в том, что сновидец может отказаться от всех практических ограничений. Если вы делаете это и все равно терпите неудачу, возможно, вы сделали это из-за какого-то лежащего в основе «принципа». Вот что мне всегда казалось немного нечестным в китайской комнате.
я не понимаю, что ты имеешь в виду
Все или конкретное предложение? Под «опозданием» я подразумеваю неспособность вести разговор в реальном времени на китайском языке.
И под «результатом, который считается возможным» я имею в виду результат, заключающийся в том, что разговор в реальном времени может вестись с сущностью, которая явно не понимает содержания разговора. И под мечтателем я, конечно же, подразумеваю экспериментатора. В данном случае Сирл.
Джон Сирл в своих лекциях и последующих дискуссиях довольно ясно говорил о том, что Китайская комната посвящена не сознанию, а смыслу.
@AlexanderSKing, я не писал, что Сирл сказал, что Китайская комната связана с сознанием, но что он сказал бы (если бы его спросили), что оно не может быть сознательным. Как бы то ни было, он прямо говорит об этом в « Разуме, мозге и науке »: «Причина того, что никакая компьютерная программа никогда не может быть разумом, заключается просто в том, что компьютерная программа является только синтаксической, а разум более чем синтаксическим. Разум семантичен в том смысле, что у них есть не только формальная структура, у них есть содержание. Чтобы проиллюстрировать это, я разработал определенный мысленный эксперимент». и он продолжает описывать Китайскую комнату.
@Timkinsella, я думаю, что мысленный эксперимент намеренно фантасмагоричен. Очевидно, что человек, пользующийся сводом правил, не может своевременно давать ответы, и все же это не имеет значения. Ибо какое отношение шкала времени сцены имеет к этому принципу?
По нескольким причинам: 1. Я считаю немного нечестным представлять мысленный эксперимент, а затем отбрасывать определенные соображения в совершенно ничем не ограниченной вселенной мысленного эксперимента как простые «практические, а значит, не относящиеся к делу» ограничения. Весь смысл мысленного эксперимента в том, чтобы изолировать практические ограничения от теоретических. Если ваш мысленный эксперимент непоправимо не дает определенного результата, то он делает это по теоретическим причинам, по самому определению мысленного эксперимента.
2. Китайская комната основана на обращении к интуиции, основанной на благовидных образах; это то, что Деннет называет «насосом интуиции». Дело не только во времени, но и в масштабе. Нам говорят представить одинокого человека, сидящего в одиночестве в комнате со стопкой бумаг. Если честно рассказать о масштабе существа в комнате — огромная команда роботов, роящихся вокруг картотеки размером с планету со скоростью света, как в цитате Скотта Ааронсона, — оно теряет свою интуитивную силу.
Кроме того, «своевременность» вычислений — это не только практическое соображение. Ограничения времени, необходимого для вычисления определенных функций, выражают что-то глубокое во вселенной и эпистемологии. Если P = NP, то истинность или ложность любого математического утверждения можно было бы узнать, например, одним нажатием кнопки, несмотря на то, что P = NP — это всего лишь утверждение (вероятно, ложное) о том, сколько времени потребуется, чтобы выяснить, действительно ли граф связан (или что-то еще, я не могу вспомнить ни одной короткой NP-полной задачи).
Я должен был сказать «доказуемость или опровержимость» вместо «истина или ложь». (Гедель)
@Timkinsella, Деннет и Сирл в корне не согласны. Деннет считает, что китайская комната может быть сознательной, а Серл считает, что нет. Но их различие во мнениях не зависит от деталей насоса интуиции. В той мере, в какой они спорят о его деталях, это просто несущественные стычки. Кстати, что вы думаете? может ли компьютер быть сознательным в принципе? что вы думаете о мельнице Лейбница? home.datacomm.ch/kerguelen/monadology/printable.html#17
@Timkinsella, также в качестве примечания. Мне непонятно, почему временные рамки имеют значение. Представьте, что вы моделируете не мозг, взаимодействующий с «реальным» миром, а целую комнату, в которой человек сидит на диване, читает книгу и слушает музыку. Какая разница, если каждая смоделированная секунда в этой комнате занимает одну секунду или один миллиард лет нашего времени? Какая разница, если вы смоделируете это, используя объединенные вычислительные ресурсы на Земле, или перемещая камни по бесконечному участку песка? xkcd.com/505
@nir Я не делал никаких заявлений относительно работ Деннета о китайской комнате, за исключением того, что он называет это насосом интуиции. И я не думаю, что неправильно охарактеризовал определение этой фразы, данное Деннетом.
@nir Что касается вашего второго комментария, я могу только сказать, что ИМО убедительность эксперимента полностью зависит от обращения к нашей интуиции о комнате, в которой находится человек, работающий с карандашом и бумагой. В конце концов, что еще отличает этот конкретный вызов сильному ИИ от более прямолинейного аргумента, что говорящая по-китайски машина Тьюринга не может понимать китайский язык, поскольку она состоит только из ленточной головки, читающей единицы и нули?
Т.е. если вы не считаете образность или масштаб китайской комнаты уместными, то почему бы не заменить человека еще более забывчивой магнитолой, и пусть машина работает на полной скорости? Тогда мысленный эксперимент содержит не больше содержания или новизны, чем наши интуитивные предположения о том, что ИИ на самом деле ничего не может понять, потому что это всего лишь кусок схемы.
И именно поэтому так важно, ИМО, постулируете ли вы какое-то огромное замедление времени, которое делает миллиард лет внутри комнаты эквивалентной секунде снаружи. Как только вы это сделаете, вся интуиция улетучится. Если оставить в стороне вопрос о том, позволяют ли и в каком объеме обмен информацией между двумя областями на самом деле допускают законы физики, то, как только вы постулируете что-то подобное, любое обращение к интуиции становится абсурдным.
У людей нет интуиции в отношении абсурдных вещей, которые могут происходить в таких масштабах времени. Возьмем один пример: нашему мозгу потребовалось всего несколько миллиардов лет, чтобы спонтанно собрать себя из какого-то сырья, беспорядочно плещущегося в первобытном океане.
Кроме того, извините, я еще не добрался до мельницы Лейбница, но скоро приеду. Спасибо за ссылку :)
@Timkinsella, я хотел бы знать ваше личное мнение. Верите ли вы, что вычислительная система может быть в принципе сознательна в самом полном смысле, как полагает Деннет? может ли мельница Лейбница из движущихся (деревянных?) зубчатых колес быть сознательной?
@nir Да, я склонен полагать, что если бы вы сделали изоморфную копию моего мозга, состоящую из нейронов, используя транзисторы (я думаю, что это правильный аналог? Но я не знаю об электронике), то это было бы так же сознательно как я.
@Timkinsella, еще один связанный с этим вопрос. когда ты смотришь на мир вокруг себя. Вы признаете, что это всецело в вашей голове, как сон? один невролог однажды сказал: «Жизнь — это не что иное, как сон, управляемый органами чувств». Противоположная вера в то, что мы воспринимаем внешний мир непосредственно таким, какой он есть, называется наивным реализмом . Классический пример — цвет. Знаете ли вы, что цвет — это явление в вашем сознании, а не свойство объектов, на которые вы смотрите?
@Timkinsella, причина, по которой я спрашиваю, заключается в том, что наивные реалисты не думают, что теория разума должна учитывать эту внутреннюю «виртуальную реальность».
Интересно. Я думаю, что мозг создает некую модель внешнего мира, своего рода беспорядочный гомоморфизм, созданный из сенсорных данных. Так что я думаю, что это своего рода золотая середина между этими двумя позициями.
@Timkinsella, я не понимаю, что ты имеешь в виду. возьмем, к примеру, белый цвет экрана перед вами; вы думаете, что белый цвет, который вы сейчас ощущаете, является вещью вашего ума или вещью внешнего мира?
Так что, если вы не можете сказать, у меня нет никакой подготовки в области философии, не говоря уже о феноменологии, так что мы можем говорить вразрез друг с другом. Но вот что я вам скажу: когда я смотрю на что-то белое, я определенно иметь интуицию, что существует нечто, называемое «ощущением белого», которое трудно определить. Однако я не думаю, что есть много причин слишком серьезно относиться к нашим интуитивным представлениям о наших ощущениях, когда мы пытаемся разобраться в том, что происходит с разумом и мозгом. Может быть, при написании сонетов, но не в том случае, если вы действительно хотите понять познание и ощущение.
Но я не хочу быть пренебрежительным. Я понимаю, что это глубокие вопросы. Я просто не придаю большого значения человеческой интуиции относительно того, что происходит в их головах.

Пример «Китайской комнаты» Джона Сирла неуклюж и уязвим для всевозможных опровержений с чисто технической точки зрения (ответ системы, ответ симулятора мозга и т. д.).

Но это несправедливо по отношению к аргументу, потому что за неуклюжим мысленным экспериментом скрывается более глубокий эпистемологический вопрос, требующий серьезного рассмотрения. Джон Серл в своих лекциях вдается в детали и часто повторяет, что «Синтаксис — это не семантика» (см. статью SEP) :

Любой, кто изучал формальную логику, знает, что такие правила, как законы Де Моргана или законы идемпотентности (например, A ^ A = A), не зависят от значения обрабатываемых символов. Правило типа

IF A then: 
   B 
Else: 
   C

Работает независимо от значения A, B и C. Но все, что делает компьютер, — это обрабатывает правила этого типа.

Это идея о том, что синтаксис (правила) не зависит от семантики (значения), и поэтому компьютер может функционировать идеально, даже не зная значения того, что он вычисляет. Даже самый продвинутый симулятор мозга, который может пройти всевозможные тесты Тьюринга, в конечном итоге просто перетасовывает символы, даже не зная их значения.

Серл утверждает, что это показывает, что ни один компьютер, каким бы продвинутым он ни был, нельзя считать по-настоящему разумным, поскольку ему не хватает понимания значения символа.

Где-то в лекциях, на которые я ссылался выше. Однако он упоминает, что если будет создан биологический искусственный мозг, это может привести к истинному интеллекту, поскольку он будет обладать биологическими характеристиками процессов человеческого мозга и будет управляться любыми механизмами, управляющими человеческим мозгом.
См. этот вопрос для получения дополнительной информации: как можно опровергнуть аргумент Джона Сирла «синтаксис - это не семантика» против сильного ИИ?

Спасибо, посмотрю лекцию позже. А пока я просто скажу, что для меня различие между биологическим и симулированным кажется произвольным. Обладая достаточной вычислительной мощностью, вы можете воспроизвести человеческий мозг в молекулярном масштабе внутри компьютера. Он будет работать так же хорошо, как и оригинал.
@J.Doe ". С достаточной вычислительной мощностью вы могли бы воспроизвести человеческий мозг до молекулярного масштаба внутри компьютера". Я согласен с вами в некоторой степени. Я не защищаю позицию Джона Серла, а просто объясняю ее. Смотрите сообщение, на которое я ссылался, для получения дополнительной информации.
Вы пишете: «Пример китайской комнаты Джона Серла неуклюж и уязвим для всех видов опровержений». Я хотел бы знать, что в нем такого неуклюжего. Большинство, если не все, философские аргументы открыты для нападок, и тот факт, что Китайская комната существует, не делает ее хуже. Наоборот, это один из известных мысленных экспериментов в философии сознания и не случайно. Бросать в него такие оскорбления все равно, что бросать оскорбления в зеркало.
@nir что в этом такого неуклюжего, так это то, что его можно опровергнуть по чисто техническим причинам: любой, у кого есть базовые знания об архитектуре компьютера, может ответить: «Конечно, мужчина в комнате не понимает по-китайски - это комбинация [человек + книга правил + база данных китайских символов], которая понимает китайский язык». Люди увязают в этом споре и упускают из виду более важный пункт Джона Сирла «Синтаксис против семантики».

Разница в том, что мы сознательны, то есть у нас есть субъективный опыт понимания и осознания. Помните, что мы пытались объяснить в первую очередь сознание, а не способность обрабатывать ввод и производить вывод.

Есть разница между способностью давать китайские ответы на китайские вопросы и тем, чтобы услышать вопрос на китайском языке и подумать: «О, я знаю, что это значит». Последнее есть сознание.

Но откуда мы знаем, что компьютеры также не обладают субъективным опытом или иначе утверждают, что наш собственный субъективный опыт не может возникнуть чисто механическими средствами?
@DanBron: Пока они не «ведут себя» так, как будто ведут себя (показывают признаки этого), у нас нет причин предполагать это. Это было бы просто предположением, что плохо, поскольку оно открыто даже для самой легкой формы скептицизма - и это правильно. Назовите это бритвой Оккама, Селларсианским мифом о данности или как угодно: мы знаем, что нет никаких оснований предполагать это или что о сознании компьютера можно сказать что-то существенное. Почему мы должны думать о простых логических возможностях, а не о реальности, несущей истину?
@PhilipKlöcking Согласно сильному тезису церкви Тьюринга, существует машина Тьюринга, которая демонстрирует то же «поведение», что и вы или я, включая все поведение, которое заставляет вас поверить, что люди испытывают сознание.
@Timkinsella: Да, но это другая проблема. Здесь вопрос переходит к следующему: «Может ли машина демонстрировать поведение, потому что она предназначена для этого (например, с помощью программирования) или потому, что программа позволяет машине быть сознательной?» Здесь с языком сложнее, но с философской точки зрения на это уже лет 90 есть ответы, т.е. зависимость от телесного положения в телесной среде, что является предпосылкой сознания.
@PhilipKlöcking Я не совсем понимаю, что вы имеете в виду. Не могли бы вы немного пояснить «ответы»?
@DanBron Почему бы просто не предположить, что все сознательно? Тогда, конечно, китайская комната сознательна. Но в любом случае этот аргумент кажется немного абсурдным. Скажем, у вас может быть массивная справочная таблица со всеми возможными китайскими вопросами и китайскими ответами, и эта справочная таблица выполняется тривиальной машиной. Кажется абсурдным утверждать, что тривиальная машина и справочная таблица имеют субъективный опыт понимания ввода на китайском языке.
@DavidSchwartz Таблица поиска, содержащая каждое дерево диалогов небольшой длины, во много раз превышала бы размер известной вселенной. Поиск был бы невозможен из-за всеобщего ограничения скорости. В этих терминах это немного менее убедительно, по крайней мере, для меня.
@Timkinsella И, конечно, был бы сознательным только в тривиальном смысле, например, если бы вы утверждали, что все было сознательным. Дело в том, что оно сознательно только в том случае, если вы предполагаете, что оно сознательно. Это ничего не объясняет о сознании, если единственный способ утверждать, что оно вообще сознательное, — это предположить его.
@DavidSchwartz Такая установка не сможет вести разговор в реальном времени. Таким образом, он даже не демонстрирует поведение, которое, как вы хотели бы сказать, коррелирует с сознанием.
@Timkinsella Верно, но на каком основании вы можете утверждать, что между этими двумя вещами есть связь, кроме предположений?
На самом деле такой установки нет. Это практически невозможно в принципе.
Какие две вещи?

«Сознание» требует определения. Как невролог, я использую этот термин четырьмя различными способами в зависимости от обстоятельств. Давайте посмотрим, сможем ли мы включить его в рамки этого обсуждения, определив некоторые связанные понятия:

Рефлекс : простая детерминированная система. Вход -> выход. Нейроны соединены последовательно. Познание : подразумевает сложную систему, в которой понятия регулируют отношения между входом и выходом. Вход -> концепция -> вывод. Понятие — это набор связанных атрибутов в том смысле, что «волосатый», «лающий», «четвероногий» и «вонючий» могут быть связаны, чтобы сформировать понятие «собака». Связь между атрибутами представляет собой неявную теорию. Теория = смысл. (См. Бернштейн, «Основная теория нейропсихоанализа».) Нейронная сеть: вычислительная система состоит из множества простых вычислительных блоков, тесно связанных между собой. Они подключаются параллельно, а также последовательно. Познание — это характерное поведение нейронной сети. Все мозги, способные мыслить, представляют собой нейронные сети. Искусственные нейронные сети можно рассматривать как модели мозга, хотя и с важными количественными и качественными различиями. Интеллект: параметр познания. С анатомической точки зрения интеллект коррелирует со степенью связности нейронов в мозгу. У людей больше связей, чем у животных. У Эйнштейна было больше связей, чем у меня. Когда мы говорим, что что-то разумно, мы имеем в виду, что оно способно нести много информации в форме концепций и теорий. Концепции могут быть многочисленными, тонкими и иерархическими. Теории могут быть глубокими и обоснованными. Sentience : это надмножество интеллекта, которое подразумевает наличие сознания. Сознание : еще предстоит определить. На данный момент мы можем назвать это «самосознанием».


«Детерминированная» система, описанная ОП, не является ни разумной, ни сознательной. Компьютерная система, описанная в ОП, является рефлексивной.

Не все компьютеры рефлексивны. Предположим, с задачей справилась самоорганизующаяся нейронная сеть. Формирование концепций, определяющих результат, подразумевает формирование теории. Несмотря на то, что эти теории примитивны и своеобразны, мы можем сказать, что такая система обладает рудиментарным интеллектом.

Чтобы этот компьютер выглядел человеческим, нам нужно встроить достаточное количество процессоров и достаточно мощную степень подключения, чтобы приблизиться к возможностям человеческого мозга как с точки зрения емкости хранения данных, так и с точки зрения способности формировать иерархические концепции. . Нам также нужно было бы встроить эмоции. «Эмоция» может потребовать ассимиляции всего лишь трех атрибутов: валентности (наказание или вознаграждение), интенсивности и того, требуется ли реакция приближения или отстранения.

Я не знаю, возможно ли разработать такую ​​систему. Но предположим, что мы могли бы. Будет ли это сознательным?

Возможно, нет, из-за вопроса о «самосознании».

Мне не нравится термин «самосознание», потому что его слишком легко определить тривиальными или круговыми способами. Это что-то значит (возможно, немного), если вы осознаете мое « я». Все, у кого есть мозг, и любой компьютер могут это сделать. Что касается того, осознаете ли вы себя — конечно, вы осознаете. Вы ЕСТЬ сами по себе.

Тогда понятие «самосознания» имеет смысл только в том случае, если природа «я» неоднозначна.

Тогда возникает вопрос, при каких обстоятельствах компьютер столкнется с неоднозначной собственной природой?

На сегодняшний день мы явно не видим необходимости в разработке такого компьютера. Неоднозначность — это ошибка, а не фича. Чтобы было понятно, чем сложнее система, тем сложнее будет задача проектирования и тем непредсказуемее будет результат. Но, тем не менее, это будет система, которая будет идеально воспроизводить свой конкретный результат. У такой системы не будет основы для созерцания или даже определения своего «я» каким-либо осмысленным образом.

Но что, если бы мы разработали компьютер, который мог бы развиваться? Если бы он мог понять, что он меняется с течением времени, было бы достаточно двусмысленности, чтобы заставить его задуматься о природе самого себя?

Я сомневаюсь в этом. Все люди эволюционируют, в некотором смысле. Мы взрослеем со временем. Но изменения редко бывают настолько драматичными, чтобы заставить нас усомниться в нашей собственной природе.

Что касается вопроса о Я, люди борются с более серьезными проблемами. Священники говорят нам, что мы тело и душа. Философы говорят нам, что мы есть существование и сущность. Психоаналитики говорят нам, что мы — Эго и Самость. Являются ли эти загадки уникальными для людей? Или компьютеры могут участвовать в действии?

Возможно. Вопрос в том, какова природа интеллекта? Откуда это взялось?

До сих пор мы говорили об интеллекте как о форме информации, возникающей как эмерджентное свойство сложной системы в том смысле, что теории и концепции представляют собой продукт работы нейронной сети.

Мы также намекнули на лицевую сторону; другими словами, представление о том, что сложные вещи основаны на информации. Например, когда мы говорим о проектировании компьютерных систем, часть «дизайн» относится к информации. Если компьютерный дизайн основан на чертеже; мы можем рассматривать компьютер как физическое воплощение информационного пространства, намеченного в плане.

Точно так же наша солнечная система является физическим проявлением информации. Информация в форме гравитации пришла из бесконечности в материальный мир «3+1» в то время, когда Вселенная состояла из быстро расширяющихся газов. Гравитация заставила газовые облака сливаться в звезды и планеты. Структура информационного пространства, переносимого гравитацией, подразумевала структуру физической вселенной, включая наш дом.

Человеческий мозг — это проявление информационного пространства, и, что бы мы ни слышали, мы далеки от понимания природы этой информации. Мы расшифровали геном человека и обнаружили, что он мало что объясняет в структуре мозга. Наиболее важным геном, который отличает человеческий мозг от мозга животных, является ARHGAP11B, который обеспечивает дикое хаотическое разветвление нейронных связей. Принцип Хебба — «нейроны, которые активируются вместе, соединяются вместе» — объясняет развитие нейронной сети. Сказать, что это недетерминированный процесс, было бы преуменьшением. Кроме того, есть данные о том, что мозг имеет фрактальную структуру (www.stat.wisc.edu/~mchung/teaching/MIA/reading/ fractal.kiselev.NI.2003.pdf — убрать пробелы) и так далее.

Какое информационное пространство определяет мозг? И какое отношение это имеет (если вообще имеет) к нашей концепции «сознания»?

Если сознание всегда является свойством исключительно человеческого разума, я бы сказал, что мы не можем спроектировать компьютер, у которого было бы сознание, отличное от сознания его создателя. Каким бы человечным оно ни казалось, оно всегда будет puer eternis, никогда не способным отличить свое Эго от родителя. (Может, нас еще попытаются убить, но это уже другая история.)

Но. В той мере, в какой все, что мы подразумеваем под словом «сознание», предшествует человеческому разуму, у нас могут быть проблемы. Заметьте, законы термодинамики предполагают, что от звездных питомников до разумной жизни нужно спускаться вниз. Если это так, то информация, которая посредством гравитации породила первобытные звездные питомники, предшествовала человеческому разуму и подразумевала его. В этом случае мы можем ожидать, что интеллект будет оставаться в своем мясном костюме до тех пор, пока это лучший способ противостоять второму закону. Когда он найдет более эффективное решение, он сбежит с корабля.

В общем, ответ на ваш вопрос таков: 1. Мозг работает не так, как компьютер, который вы описываете. 2. Но теоретически возможно создать компьютер, который это делает. Другой вопрос, является ли такая вещь практической возможностью. 3. Мы не можем знать, может ли такой компьютер стать разумным. При некоторых обстоятельствах это было бы неизбежно.

Очень информативный ответ. Однако я удивлен, что вы не упомянули, как квантовые эффекты позволяют людям (т. е. социально сконструированным нейронным сетям) герменевтически нарушать границы, которые классические машины Тьюринга и даже релятивистские машины Тьюринга не могут.
Не могли бы вы поработать над тем, чтобы переписать этот ответ, чтобы он был более ясным и менее потоком мыслей? (ваши другие ответы на несколько вопросов были достаточно плохими, чтобы выглядеть как спам).
@Alexander S King Квантовое сознание - ерунда
@DJSims ответ уже вызывает теорию струн, я не собираюсь углубляться в кроличью нору, ссылаясь на квантовые эффекты.