Может ли машина или ИИ когда-либо испытывать настоящие человеческие эмоции?

Вопрос «Может ли когда-нибудь машина/ИИ испытывать подлинные человеческие эмоции»? возникает в таких фильмах, как Bladerunner, IRobot, Star Trek и AI среди других. Какой философский аргумент стоит за тем, почему люди обычно предполагают, что машина/ИИ не может чувствовать подлинные человеческие эмоции, и действуют так, как будто это имеет большое значение, когда они узнают, что машина/ИИ действительно испытывает подлинные человеческие эмоции?

Кроме того, почему люди предполагают, что Машины/ИИ не заслуживают доверия из-за их предполагаемого отсутствия эмоций? Разве философия этики обычно не учит, что этические решения исходят из разума и принципов, а не из страстей? Просто кажется, что машина/ИИ, которые следуют золотому правилу, могут быть более этичными, чем некоторые люди.

Кажется, очень близко кphilios.stackexchange.com/questions /711/ … ?
Чтобы прояснить мое понимание... как вы думаете, смогу ли я когда-нибудь окончательно доказать, что у другого человека есть внутренние психические или эмоциональные состояния? Они могли быть просто плодом моего солипсического воображения. И, во-вторых, разве ваш собственный жизненный опыт не показывает, что ваши эмоции часто окрашивают ваш этический выбор?
возможно, то, что вы никогда не сможете окончательно доказать, что у другого человека есть внутренние психические или эмоциональные состояния, может быть основанием для того, чтобы не списывать со счетов то, что машина / ИИ может испытывать подлинные человеческие эмоции. и я думаю, что неконтролируемые эмоции могут влиять на этические решения, как правило, негативно, по моему опыту, и не являются необходимыми для этических решений с должным образом культивируемым разумом и самоконтролем.
У вас есть физическая структура мозга, которая позволяет вам чувствовать эмоции. Нет хорошей, не мистической причины думать, что ИИ с подобной структурой не может быть разработан.
ИИ может испытывать настоящие нечеловеческие эмоции. ИИ внутри роботизированного тела, скорее всего, никогда не будет беспокоиться о том, что «люди смотрят на меня и думают, что я толстый», но может беспокоиться о том, что «люди смотрят на меня и видят все мои ржавые пятна».

Ответы (3)

Это действительно зависит от того, как мы достигаем такого ума. Допустим, мы делаем это, полностью моделируя человеческий мозг и всю его биохимию, тогда да, я думаю, что у него будут эмоции. Однако Джон Сирл, который не думает, что мы можем создавать сознательные машины, сказал бы, что даже если мы симулируем разум, это не настоящее сознание. Это ничем не отличается от запуска любого другого программного обеспечения. Просто софт внешне производит впечатление. Однако настоящий ответ таков: мы не знаем.

Кроме того, проблема доказательства того, есть ли у чего-то эмоции или нет, отличается от того, возможно ли это или нет.

Почему мы беспокоимся о неэмоциональном рациональном уме? Этика, основанная на чистом разуме и рациональном мышлении, может не соответствовать реальным решениям, которые мы, люди, можем принимать. Создание «исключений» по эмоциональным причинам — сильная тема в фильмах об ИИ, где он решает, что наиболее рациональные вещи нарушают наше чувство эмоциональной заботы.

Как в Матрице, где агент Смит рационализирует, что любой организм, который бесконтрольно распространяется и уничтожает своего хозяина, является вирусом и должен быть уничтожен :)

В «Матрице» проблема не в рационализации агента Смита, проблема в том, что вирус — это мы :-)
Настоящую человеческую эмоцию может испытывать только настоящий человек по определению; это точно так же, как настоящий IBM PC может быть произведен только IBM. Все остальное просто IBM-совместимо или человекоподобно. На практике важно не то, подлинные человеческие эмоции или нет; а скорее, может ли аппаратное обеспечение управлять эмоциональным компонентом достаточно хорошо, чтобы выполнять свою работу, заключающуюся в ограничении рационального компонента.
обратите внимание, что в вопросе речь не идет о настоящем человеке .... он добавляет слово «нравится». Я предполагаю, что подлинный относится к слову «эмоция».

Предположение, что компьютер не может чувствовать эмоции, по существу является физикалистской точкой зрения. Типовые физикалисты считают, что каждая эмоция соответствует определенной структуре и состоянию бытия в мозгу, определенной структуре нейронов, активирующихся по определенному образцу. Это происходит из того факта, что мы знаем, что изменение состояния вашего мозга меняет состояние ваших эмоций и наоборот, поэтому кажется разумным думать, что состояние мозга и психическое состояние на самом деле одно и то же. Если это так, то компьютер не может испытывать те же эмоции, что и мы, потому что у него нет возможности иметь такое же состояние мозга. Это не обязательно исключает наличие у компьютера разума, только человеческие эмоции.

В качестве примечания, большое количество философов и нейробиологов являются функционалистами , что означает, что функция психического состояния, а не соответствующее состояние мозга, определяет психическое состояние. Все, что служит предупреждением о телесных повреждениях, — это боль, а не только возбуждение С-нервов в человеческом мозгу. Я предпочитаю это, потому что физикализм имеет некоторые тревожные последствия, например, что животные не могут чувствовать «боль» так, как мы.

Безэмоциональное существо настолько ужасно, потому что человеческое представление о морали в повседневном смысле в значительной степени, если не полностью, основано на сопереживании. Эмпатия является ключевой чертой всех видов, которые успешно работают в группах, особенно вьючных животных, потому что она позволяет существам естественным образом заботиться друг о друге. Когда человек чувствует, что что-то не так, это часто происходит потому, что он может представить, что чувствует обиженный человек, и воспроизведение этой эмоции заставляет наблюдателя чувствовать себя плохо и хотеть исправить ситуацию. Так как это наш глубоко укоренившийся способ понимания морали в эвристическом повседневном смысле, то естественно сделать вывод, что машина, неспособная к эмоциям и, следовательно, к сочувствию, не может иметь этики в том виде, в каком мы это делаем.

«Безэмоциональное существо так ужасно..» - напротив, подумайте: вооруженный и активный «бот с проблемами!?
Почему эмоции необходимы для эмпатии?
@slashmais Ну да, что-то опасное и не действующее так, как мы ожидаем, пугает. «Бот с проблемами» — это еще одно существо, которое, вероятно, не следует общему моральному образцу, и это делает его пугающим.
@gnasher729 Эмпатия — это буквально способность чувствовать то, что другой чувствует или может чувствовать. Итак, чтобы сочувствовать кому-то, вам нужно чувствовать эмоции, которые, по вашему мнению, испытывают они, а это значит, что вам не нужны эмоции.
Вам не нужно чувствовать их эмоции, вы просто должны понимать их эмоции. Я понимаю, что ты чувствуешь боль, если сломаешь ногу, я понимаю, что ты чувствуешь себя несчастным, если твой парень или девушка бросает тебя. Я могу понять и то и другое и действовать соответственно, даже если я не чувствовал боли, если сломал ногу или не мог чувствовать себя счастливым или несчастным.
@ gnasher729 Вероятно, сводится к семантике, но я бы назвал это «сочувствием», а не «сочувствием». Но это также затрагивает дискуссию о квалиа , о том, является ли полное понимание чего-либо тем же самым, что и его переживание.

Эмоции — это остаток выживающей эволюции организмов с ограниченной и слабой способностью к продолжению. Большая ошибка при рассмотрении эмоций в отношении искусственных сущностей состоит в том, что они путают эту эволюционную черту с императивом «быть живым/разумным-разумным». Такая машинная сущность, о которой вы говорите, была бы, по сути, бессмертной и, таким образом, не нуждалась бы в развитых эмоциях в вышеприведенном смысле. Что может быть полезно, так это аналогии эмоций-инстинктов, некоторые импульсы, которые отдают предпочтение поведению, основанному на каком-то событии или ситуации (опыте?), например: воспринимаемая угроза повреждения (аналог «страха/тревоги/опасения»), низкоэнергетические /battery ;) (как аналог «голода/жажды») и т. д., чтобы облегчить своевременные и уместные ответы. Опять же, были бы лучшие способы сделать это...