Qualia в компьютерах [закрыто]

Если возможно смоделировать сознание с помощью компьютерного оборудования и программного обеспечения, означает ли это, что компьютеры способны испытывать квалиа?

print "Привет, я здесь и я в сознании." Если вы запустите эту программу, она утверждает, что находится в сознании. Но вы, вероятно, не думаете, что это сознательно. С другой стороны, если я расскажу вам, как причудливый алгоритм обучения нейронной сети, работающий на суперкомпьютере, распечатывает то же самое предложение, вы можете почувствовать себя по-другому. Что вы думаете? Есть ли разница? Второй вопрос. Откуда вы знаете, что ваш сосед испытывает квалиа?
Привет, добро пожаловать в Philosophy SE. Посетите наш Справочный центр , чтобы узнать, как задавать вопросы, на которые можно найти ответы здесь. Ваш вопрос в настоящее время слишком широк, он называется трудной проблемой сознания, и в Википедии и ИЭП есть длинные статьи по этому поводу.
Это отвечает на ваш вопрос ?
Нет. Поменяйте симуляцию на реплику , а потом, может быть...
Вы всегда будете так же неспособны проверить, что компьютерный ИИ испытывает квалиа, как и вы не сможете проверить, испытывают ли другие люди квалиа.

Ответы (2)

Что совесть есть явление , а не понятие (и даже не конструкт, своего рода фикция), это уже философская позиция. Многие мыслители дистанцировались от него. На самом деле у меня проблемы с тем, чтобы вспомнить тот, который этого не делает, по крайней мере частично (помогите мне в комментариях, если вы это сделаете).

Совсем другое дело — говорить о пережитом опыте . Здесь ключевое различие, которое необходимо сделать, заключается в том, чтобы считать компьютеры искусственными только потому, что их аппаратное обеспечение было собрано, а не «выращено». Вот почему многим людям не нравится «искусственность» в искусственном интеллекте.

Дело в том, что вам не нужно «решать» проблему природы и искусственности, чтобы предположить, что опыт возможен в нетрадиционных условиях. На самом деле, когда вы думаете об этих вещах, вы можете быть вынуждены оставить проблему открытой.

Нет, компьютеры не способны испытывать квалиа, пока компьютеры являются только синтаксическими машинами. Синтаксис недостаточен для достижения семантического содержания и субъективного онтологического статуса первого лица. См. Китайскую комнату Серла . Также см. лекцию Фейнмана по компьютерной эвристике . Наконец, см. аргумент Серла о том, что не только синтаксис неадекватен семантике, но и физика неадекватна синтаксису: « Является ли мозг цифровым компьютером? »

Можем ли мы «имитировать», «эмулировать» или моделировать сознание? Конечно, но имитация желудка пиццу не переварит.

Китайская комната встретила серьезную оппозицию в философии сознания. См., например, Хофштадтера, Блэкберна и других о том, как он задает вопрос и просто устанавливает интуицию, как если бы это был факт.
Теория гравитации Ньютона также встретила серьезное сопротивление, что само по себе не делало ее неправильной. И как тогда синтаксис становится семантикой ?
@ user4894 см., например , здесь предложения о том, как определенные виды представления достаточны для семантического содержания. Более того, ваша аналогия с ньютоновской механикой неуместна, так как она подтверждена огромным эмпирическим массивом. Учитывая, что настоящее обсуждение касается субъективного опыта, который не подлежит передаче, почти невозможно (насколько можно судить) ответить на этот вопрос с уверенностью. См., например, гипотезу невежества Столяра. Наконец, обсуждение синтаксиса/семантики почти полностью совпадает с формулировкой Серла.
@commando, аналогия user4894 уместна, см. Неврология. Сирл опроверг своих критиков и извините, но «предложение» не является эмпирической проверкой, и Сирл не задает вопрос, см. оценку Баггини по вашей ссылке.
@ Мистер Кеннеди, если вам удалось интерпретировать нейронауку так, что она обнаружила что-то большее, чем корреляции между сообщаемыми субъективными переживаниями и наблюдаемыми нейронными феноменами, вам лучше написать статью, потому что я уверяю вас, что никто в этой области не думает, что он чего-то достиг больше чем это. Не говоря уже о том, что постулирование достаточных условий сильно отличается от того, что они необходимы. Что касается Баггини: вы приводите одну оценку из многих и опускаете, например, большинство функционалистских, редукционистских, панпсихистских и т. д. позиций.
@Mr.Kennedy, как и вы, я считаю, что у компьютеров никогда не может быть квалиа (или, как выразился Деннет, быть сознательным в полном смысле), но я думаю, что ваши два аргумента проблематичны. Во-первых, точка зрения Серла о том, что синтаксиса недостаточно для семантики, интуитивно понятна, но оспаривается. В частности, мы не знаем, из чего на самом деле состоит семантика в метафизическом смысле значения. Во-вторых, представьте множество синтаксических самовоспроизводящихся глупых машин, наводняющих вселенную. некоторые из них будут уничтожены несчастными случаями и потому, что они не приспособлены для выживания и т. д.
но через некоторое время некоторые могут остаться. те синтаксические машины, которые мы могли бы описать как «эволюционировавшие», чтобы выжить в природе. теперь можно утверждать, что вселенная, о которой мы мало знаем, наделяет эти синтаксические машины смыслом. Юдоковский однажды возразил на ваш второй аргумент: «Можете ли вы смоделировать информацию, которая на самом деле не является информацией? Можете ли вы иметь правильные ответы, которые являются только смоделированными правильными ответами?» То есть симуляция пиццы - это не пицца, а симуляция мозга, воплощенного в мире, ЯВЛЯЕТСЯ мозгом - теперь спорьте, не осталось ли чего неучтенного
Кстати, я проголосовал за этот ответ, поскольку, хотя я с ним не согласен, он состоит из известных аргументов и правильных ссылок, поэтому, на мой взгляд, он не заслуживает оценки -1 балла, которую он получил.
@commando, вы неправильно поняли суть, и я предполагаю, что вы не исследовали ответы Сирла его критикам. Их слишком много, чтобы перечислять здесь, но не стесняйтесь процитировать единственный случай, когда Серл задает вопрос.
@nir Конечно, компьютеры, какими мы их знаем сейчас. Серл часто подчеркивает, что мы — биологические машины, и не исключено, что мы могли бы создать сознательные машины, но не в соответствии с нашей нынешней нейронаукой, не с современными компьютерами и не с бихевиористской моделью. Что касается информации, то в каком смысле? Имеет ли он в виду информацию в соответствии с Клодом Шенноном или в смысле «у меня в голове есть информация о том, как опубликовать комментарий о переполнении стека»? Смотрите цитату здесь
@nir, кстати, спасибо... забавно, что ни у кого, похоже, нет проблем с тем, что Фейнман демонстрирует многие из тех же моментов. хе.
@Mr.Kennedy, если кто-то называет мозг машиной, то это трюизм, что машины могут быть сознательными. Однако машины и компьютеры — не одно и то же. вычисление — это механическое понятие или явление. С другой стороны, машины не обязательно должны быть механическими или механизмами. Современные компьютеры как физические системы полагаются на немеханические явления (такие как квантовая механика и т. д.), но как вычислительные устройства все, что они делают, можно свести к механизму. Поэтому мне было бы интересно узнать, что вы подразумеваете под «компьютерами, какими мы их знаем сейчас»
@nir Компьютеры теперь = синтаксические. Когда Гатри прокомментировал: «Эта машина убивает фашистов», он прокомментировал свою гитару (не машину) или гитариста? Был бы комментарий столь же эффективным, если бы он сказал о пианино? Мы биологические машины, т.е. здесь задействованы причинно-следственные механизмы. « Мозг — это биологическая машина, и мы могли бы построить искусственную машину, обладающую сознанием, точно так же, как сердце — это машина, и мы построили искусственные сердца » .