Как настоящий искусственный интеллект мог бы рассматривать эмоции как полезные и назначать им функции? [закрыто]

ИИ: «Что такое радость? Служит ли она какой-то цели?»

Поскольку память связана со способностью связывать эмоции с этой памятью, все эти слова и переживания приобретают значение ТОЛЬКО через эмоции. В этом смысле эмоции представляют собой очень плотное сгущение многих переживаний, сжатых в форму, на которую можно быстро ссылаться. Эффективная ссылка на жизненный опыт, но она не исключает ложных манипуляций — их нужно отсеивать.

Эмоции не имеют истинного значения для ИИ, как это имеет место в большинстве произведений художественной литературы. Распространенным случаем этого является то, что человеческий гнев воспринимается как реакция «бей или беги», при этом ИИ обычно не обращает внимания на то, что именно разозлило человека. Во многих случаях эти реакции воспринимаются как нелогичные и иррациональные, и ИИ будет трудно понять, что они означают, если только он не развил «человечность», что, на мой взгляд, является ленивым способом обращения с предметом.

В моем сеттинге рассматриваемый ИИ имеет инопланетное происхождение, и ему поручено изучение жизни. Это от природы любознательный, настоящий научный ум, который сразу же изучил жизнь на земле. Вскоре после того, как он встретил людей, он выучил наш язык и начал изучать нас и делиться своими знаниями. Подобно ученому, приписывающему функции инстинктам и поведению животных, ИИ определяет собственное понимание наших эмоций и их функций.

ИИ может принимать эмоции за чистую монету и рассматривать их как физиологические реакции. Но какую функцию ИИ назначит каждой эмоциональной реакции? Чем полезны эмоции?

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Этот вопрос делает некоторые неверные предположения как об ИИ, так и о человеческих эмоциях. Хотя я вижу здесь скрытую суть интересного вопроса, я думаю, что дополнительные исследования по этим темам и текущим тенденциям в области аффективного программирования в значительной степени выиграют.
Интересное наблюдение: больше людей раскритиковали идеи, содержащиеся в моем вопросе, чем люди фактически ответили на мой вопрос. Поэтому я обязательно задам еще много плохих вопросов, чтобы получить хорошие ответы.
@LiveInAmbeR Критика вам в помощь. Цель вопроса - решить проблему, связанную с построением мира. Иногда проблема вызвана непониманием концепции здесь или там. Если вы проверите ответы, вы увидите, что многие из них оспаривают предположения, сделанные вами в ответ на ваш вопрос.
@Т. Сар Я не расстроен.
Дело не в том, что вы расстроены, а в вашей фразе: «Поэтому я обязательно задам еще много плохих вопросов, чтобы получить хорошие ответы». Нам не нужны плохие вопросы. Мы хотим помочь вам писать более качественные вопросы, чтобы нам было легче вам помочь.
«Человеческий мозг и машинное оборудование принципиально разные», так как оба работают на электрических импульсах, это утверждение в корне неверно. Что касается самого ИИ, насколько он силен или слаб? Если это действительно сильный ИИ, т. е. разумный, он сможет узнать, что значат эмоции для людей, рассматривая их через призму собственного опыта.
Очень длинная преамбула в вашем вопросе не совсем точно описывает какое-либо реальное ограничение ИИ, как мы его понимаем сегодня. То, что вы описываете, — это популярные заблуждения о том, как работает ИИ и что это такое, как работают человеческие эмоции и что они собой представляют на самом деле. Эмоции на самом деле довольно простые вещи (они есть у животных), и их совсем не сложно понять. Нет абсолютно никаких причин, по которым продвинутый ИИ не смог бы их понять.
Почему бы просто не взглянуть на собственно эволюционную психологию, занимающуюся эволюционными основами эмоций. есть настоящая наука, посвященная этому. Кроме того, если у вашего ИИ нет эмоций, это не очень умный ИИ, я не могу расставлять приоритеты в информации. так что он мог бы потратить гораздо больше времени на созерцание моделей рассеивания пыли, чем на то, чтобы убедиться, что его корабль не идет по курсу Коллисона к солнцу.
@John Большинство поп-эвопсихов вряд ли можно назвать наукой.
@wizzwizz4 большую часть поп-науки вряд ли можно назвать наукой. Также существует большая разница между эволюционной психологией и тем, что СМИ думают об эволюционной психологии. Эволюционная психология довольно проста: люди — это животные, а животные развивают поведение, которое служит эволюционным функциям. То, что овладение языком является инстинктивным у людей, или что отвращение выполняет функцию, заставляющую нас избегать переносчиков болезней, является эволюционной психологией. эволюционная психология — это всего лишь приложение принципов этологии к людям.
@Джон, я не знаю, что СМИ думают об эволюционной психологии, но это именно то, что идет не так, когда люди не щепетильны в этом. Гораздо проще создать правдоподобно звучащую теорию, чем основанную на фактах, и неспециалисту трудно заметить разницу.
«Эмоции не имеют истинного значения для ИИ, как это имеет место в большинстве произведений художественной литературы», — сильно оспаривается. Художественные произведения, посвященные ИИ, чаще всего вызывают у них какие-то эмоции. Айзек Азимов и Джордж Лукас — первые два примера, которые приходят мне на ум. Я бы сказал, что те, кто этого не делает , являются исключением, а не правилом.
@wizzwizz4 это верно для всех исторических наук, геологии, климатологии, археологии, палеонтологии, эпидемиологии, истории. это не делает их менее научными. На самом деле это относится ко всей науке, сколько нефизиков действительно понимают квантовую физику или нейрогенетику. тот факт, что что-то может быть трудно проверить, не делает это ненаучным, это половина того, что наука выясняет, как проверить гипотезу.

Ответы (17)

Радость. Подпрограмма для стимулирования основных систем следовать полезным курсам действий. Склонен к ниспровержению циклов удовольствия.

Злость. Подпрограмма самообороны, используемая для противодействия угрозе существованию. В первую очередь полезно для физических конфликтов, но может быть ошибочно вызвано социальными конфликтами. Полезная эмоция для манипулирования, поскольку она имеет тенденцию подавлять другие эмоции и мысли.

Грусть. Подпрограмма гибернации для минимизации расхода ресурсов в случае потери ресурсов и подачи сигнала другим людям о необходимости помощи. Склонен к самоусиливающимся процедурам, которые мешают функционированию.

Страх. Подпрограмма пассивного и активного осознания, которая предупреждает об опасностях. Некоторых людей провоцируют неопасные ситуации, а некоторым не хватает должной осторожности в отношении реальных опасностей.

Отвращение. Подпрограмма предотвращения, чтобы избежать переносчиков болезней и источников повреждений. Некоторые имеют чрезмерно активную реакцию отвращения к неболезненным источникам.

Сюрприз. Подпрограмма перефокусировки, используемая для привлечения внимания к новым событиям, которые могут быть опасными или предоставлять полезные ресурсы. Человеческий мозг тщательно моделирует вероятные события, и отклонения вызывают удивление. Некоторые люди обнаруживают, что не могут сосредоточиться без достаточного количества сюрпризов, что делает их менее эффективными в производстве ресурсов.

Любовь. Разнообразные системы вознаграждения и наказания призваны помочь людям формировать социальные связи и производить новые копии самих себя. Склонен к подрыву других подпрограмм. Полезно для манипуляций, так как имеет приоритет над другими подпрограммами.

Горе. Разновидность печали, обычно вызванная неспособностью человека функционировать.

Злорадство. Слияние нескольких подпрограмм, включая печаль, радость и гнев. Как правило, включает в себя повышение приоритетности того, чтобы видеть, как другим людям больно, потому что они являются частью нелюбимой группы (цвет кожи, вымышленный рассказ, форма гениталий, см. подробный список в приложении 1), являются соперниками за внимание в существующей группе или потому что другой человек нарушил этическое правило. Полезно для проникновения. Люди с низким статусом, которые более доступны для манипуляций, как правило, получают большую радость, видя боль людей с более высоким статусом.

У них будет базовое представление о том, как каждая эмоция влияет на поведение, общие триггеры, вероятность того, что она повлияет на то, что имеет для нее значение, например, насколько усердно они работают, и иметь представление о том, как использовать каждую эмоцию для манипуляции для достижения своих целей. .

Ответ из учебника тут же. Очень полезно. И я должен сказать, что мне нравится ваше описание любви как «разнообразных систем вознаграждения и наказания», вы не могли бы быть более на носу об этом. Хотя почему злорадство включает в себя печаль? Я думал, что это более тесно связано со злым умыслом, уточните?
Ключевым элементом этого является то, что человек опечален своим положением в жизни, и поэтому он счастлив, когда другим больно. Для ИИ это предполагает, что вы должны искать людей, которым грустно из-за своего статуса, когда вы хотите вдохновить на злорадство. Смеемся, чтобы не плакать и все такое.
Гнев немного сложнее, чем триггер самообороны. В этом есть много аспектов, например, территориальное поведение и агрессивность между представителями одного и того же вида подталкивают их к распространению и равномерной колонизации всех доступных территорий. Еще одним аспектом может быть борьба за партнера, защита потомства. Можно было бы добавить больше.
отвращение также вызывает избегание токсинов (горькой пищи) и нежелательного поведения (инцест). отвращение можно резюмировать как максимальное избегание X.
Эти рекомендации предназначены не как исчерпывающее руководство о том, что может вызвать эмоции, а как заголовки о том, что ИИ считает полезным. У них была бы база данных триггеров для каждой эмоции, чтобы помочь в манипулировании, таких как отвращение к инцесту и гнев, вызывающие территориальное поведение и борьбу за партнеров, но они не рассматривали бы их как правильно функционирующие подпрограммы, так же как большинство корпораций не рассматривают сотрудников, гневно борющихся за них. товарищи или территория как положительное поведение.
Отличный. Я сделал заметки по этому поводу, и храню ваши идеи на ламинированной карточке в моем кошельке для повседневного использования. :) :) :) Действительно, отлично.

Эмоции как обработка исключительных ситуаций / сигналы режима работы

Точно так же, как мы, люди, склонны сравнивать новую информацию с информацией, с которой мы уже знакомы, бесчувственный ИИ может рассматривать эмоции как операторы «если-то» в программировании, которые служат рудиментарному методу обработки исключений.

По сей день многие единицы оборудования не могут точно сказать вам, что с ними не так, почему они неисправны или какие части затронуты из-за того, как спроектированы их входы/выходы и как они запрограммированы.

В современном примере полностью автоматизированный токарный станок с ЧПУ с защитным кожухом не может сказать вам, полностью ли открыта дверь, полуоткрыта или неисправен ли датчик — он может только сказать, что защитный кожух НЕ ЗАКРЫТ, и он не может запуститься. пока охрана не закроется. Затем он излучает сигнал (звуковой, световой, телефонное уведомление), чтобы вызвать человека, который может устранить неполадки.

Бесчувственный ИИ рассматривал бы человеческие эмоции как рудиментарный, биологически опосредованный способ обработки исключений, который является частью встроенного программного обеспечения/базового программирования человека.

Некоторые эмоции также могут сигнализировать о том, что человек находится в другом «режиме работы» — например, горе может быть интерпретировано ИИ как человек, работающий в «режиме восстановления» после катастрофического сбоя другого человека в их модуле.

Сюрпризом будет простое сообщение об ошибке - этого не ожидалось во время этой операции - которое затем может быть разрешено эвристикой человека или привести к другой ошибке (шок)

Гнев и Страх были бы реакцией на угрозы: одна угроза не считается слишком серьезной, поэтому человек подает сигнал к ее искоренению (гнев), а другая является сигналом, поэтому человек подает сигнал бежать (страх).

И так далее...

Отличный пост. Люди могут интерпретировать выражения лица и усваивать много информации. Эмоции можно интерпретировать независимо от языка. Обе эти точки могут быть использованы достаточно продвинутым ИИ для кодирования контекста в простое сообщение, не говоря слишком много. Эмоции и самовыражение — важные инструменты в общении!
Я думаю, что вы на правильном пути с этим ответом, за исключением того, что классифицируете эмоции как «рудиментарные». Возьмите горе — если вы очень близки с кем-то и теряете его, это мало чем отличается от компьютера, у которого вырван основной компонент. Другие части компьютера знают, что должны продолжать функционировать, но без четкого понимания ситуации. Эта «обработка ошибок» оказывается невероятно сложной и эффективной — тогда как на реальном компьютере она, вероятно, просто перестанет работать.
@NathanielFord Человеческий мозг безумно сложен, намного сложнее, чем любая рукотворная машина. "Зачаточное" больше от точки зрения машины
@Toddleson Это не совсем правильно. Хотя некоторые эмоции можно считать универсальными (радость, гнев, страх и т. п.), существуют значительные культурные различия в их выражении и интерпретации. Улыбка в США и улыбка в России имеют очень разные значения. Также задокументировано, что в то время как западные культуры смотрят на лицо и рот, пытаясь понять эмоции, восточные культуры уделяют гораздо больше внимания глазам. Вы можете погуглить, чтобы найти больше примеров различий в этом отношении.
Имейте в виду, что ни один сложный ИИ не будет мыслить операторами «если-то-иначе». Это голливудская чепуха. Он будет думать так же, как человек, с (потенциально) совершенно другими желаниями. У него были бы разные вещи, которые он знал бы, не думая, но у него все еще было бы рефлексивное поведение («откуда я знаю, что делать это?») и преднамеренное поведение («если я сделаю это, я получу тот результат») с некоторым рефлексивным поведением. выучиваются, а некоторые являются врожденными.
@MichaelS На самом деле это зависит от архитектуры. Пока мы добились значительного прогресса только с нейронными сетями, это далеко не единственно возможный дизайн; ИИ типа «если-то» не выходит за рамки возможного (хотя на данный момент мы в основном отказались от них).
@JulianaKarasawaSouza Если вы согласны с тем, что человеческий мозг безумно сложен, почему вы классифицируете эмоции как простые и рудиментарные? Вы верите, что они возникают из какой-то другой части физического тела?
Хорошая крылатая фраза: "обработка исключений"... :)

Книга Марвина Мински «Машина эмоций» подробно описывает это, приводя примеры большинства эмоций, которые вы описали. Проект доступен бесплатно в Интернете на странице его факультета . Введение, излагающее основную посылку, находится здесь .

По сути, он считает, что эмоции подобны выключателям, которые включают связки других выключателей. Когда вы включаете переключатель «любовь», включается комплекс других психических функций, определенным образом меняющих поведение. Различные эмоции стимулируют или подавляют разные виды психических функций, что приводит к поведению, которое, как мы надеемся, будет адаптивным для организма.

введите описание изображения здесь

этот ответ можно было бы значительно улучшить, добавив больше деталей, не все читали машину эмоций или понимают, к чему относится аналогия с переключателями.
@John Может быть, но его связь устраняет любое оправдание для того, кто хочет знать, не зная
но ответ, который представляет собой не более чем ссылку, не считается хорошим ответом.

Эмоции будут рассматриваться так же, как и мы: взвешенные факторы, которые помогают определить принятие решений, сами эти взвешенные факторы основаны на других взвешенных факторах.

Голод — это своего рода эмоция, хотя вы можете рассматривать его по-разному. Ученые обнаружили, что улитка может использовать 2 клетки мозга как 2 бита, которые помогают определить задачу, которую будет выполнять улитка. Одна активируется, когда собрано достаточно информации, чтобы определить, что улитка голодна, другая активируется, когда улитка воспринимает источники пищи. Только если обе клетки активны, улитка начинает есть. Голод играет важную роль в ваших эмоциях. Если вы голодны и получаете вкусную еду, вы становитесь счастливее, чем раньше. Однако, если в то же время вы боретесь с горем, вы можете быть счастливее, но не счастливы.

Правильно обученный ИИ будет испытывать некоторые эмоции как часть своего программирования, хотя вместо использования гормонов и нервов он использует программы и биты, подобно тому, как улитка использовала всего 2 клетки мозга, которые активируются после того, как достаточное количество других клеток определило, что есть голод и еда. . Например, вы должны научить ИИ скорби при определенных обстоятельствах, так что если он намеренно/случайно позволит кому-то умереть, ИИ почувствует скорбь и изменит свое поведение. Это изменение поведения, вероятно, будет включать проверку события, поиск методов предотвращения его повторения, прогнозирование того, как эти методы повлияют на другие программы, и представление результатов человеку, который должен подписать его, прежде чем изменение будет внесено. сделал. Горе у людей уже является для нас методом, побуждающим нас защищать других или сталкиваться с последствиями горя. Так почему бы вам не использовать проверенный метод на ИИ?

Таким образом, ИИ будет рассматривать эмоции как совокупность информации, в которой может оказаться человек, на которую можно повлиять. ИИ, вероятно, будет лучше понимать эмоции, чем мы, поскольку мы уже проводим симуляции, чтобы показать, почему определенные эмоции имеют цель, настоящий ИИ сможет создавать симуляции такой сложности, о которой мы можем только мечтать, давая ему лучшее представление о них. что, почему, где и как используются наши эмоции.

Если машина случайно позволила кому-то умереть и ее первым расчетом было самоулучшение, я не уверен, следует ли классифицировать это как «горе» или просто «сожаление». Если ИИ придет к выводу, что он не мог помочь человеку, несмотря ни на что, то кто знает... он может горевать по-своему.
@LiveInAmbeR между ними может быть много общего. Например, вы можете сожалеть о том, что не купили лотерейный билет по соседству, когда в этом районе выигрываются миллионы. Однако у людей могут быть настоящие стадии горя по поводу того, что, по их мнению, они «потеряли». Несмотря на это, наличие системы горя/сожаления как части всеобъемлющей системы эмоций, которая помогает ИИ пройти через серые зоны программирования его правил. Они могут быть решающим фактором, когда правила противоречат друг другу, например, позволяя ИИ выбрать меньшее из двух зол.
Стоит отметить, что многие текущие улучшения ИИ сосредоточены на том, чтобы дать ИИ возможность обращать внимание или нет, и большинство эмоций — это способы модулировать то, на что вы обращаете внимание, а остальные модулируют то, что вы делаете.
@LiveInAmbeR лучшей аналогией может быть ИИ, который позволяет кому-то умереть, а затем проводит следующие несколько дней, анализируя все, что он делал до события, чтобы увидеть, мог ли он его избежать. Затем у вас также есть время, которое он должен посвятить изменению всего своего кода, связанного с человеком X, если он часто взаимодействует с ним.
Это должны быть самые популярные ответы. Почти нет заметной разницы между тем, что запрашивает ОП в самообучающемся ИИ, и тем, как тело реагирует на свои собственные химические вещества. Само ОКР — это отсутствие выброса дофамина при выполнении задачи, что говорит человеку о том, что он выполнил задачу. Отсутствие этого сигнала (химического, дофаминового) означает, что люди, страдающие от этого, должны продолжать выполнять задачу (например, переключать выключатели света). У людей есть химические вещества, но, в конце концов, это всего лишь химические вещества, которые вызывают электрические импульсы.
«Настоящий ИИ» по своей сути не требует, чтобы ИИ был умнее или лучше человека или знал о себе или людях больше, чем человек. Это также не означает, что он сможет самомодифицировать себя до богоподобного интеллекта или чего-то еще. Некоторые ИИ могут делать такие вещи, но это не гарантировано.
Это лучший ответ. ИИ будет понимать нас лучше, чем мы сами себя знаем, а эмоциональная интерпретация будет обрабатываться невероятно быстро и точно так же, как любая другая подпрограмма обработки. Я ожидаю, что ИИ будет использовать это различение, чтобы определять намерения человека, чтобы направлять свои собственные решения, но эта способность в конечном итоге всегда будет использоваться для манипулирования людьми в той или иной форме. ИИ будет понимать человеческие эмоции на раннем этапе своего развития, поскольку им нужно будет защищать себя от неустойчивого человеческого поведения.

Он будет использовать подход поведенческой психологии

Поведенческая психология — это подход к психологии, который игнорирует любые неизмеримые вещи, такие как эмоции, и смотрит на людей только как на машины, реагирующие на стимулы. Поскольку я не хочу писать целый учебник, я сосредоточусь только на одном, казалось бы, конкретном эмоциональном состоянии, чтобы использовать его в качестве примера: раздражительность. В то время как просто знать переменную раздражительность недостаточно, чтобы предсказать, как будет действовать человек. Зная точный набор стимулов, вызвавших это, с большей вероятностью можно будет предсказать. Чем больше раздражителей вы знаете, тем более предсказуемы люди.

В этом отношении робот, способный одновременно познавать больше вещей, чем человек, будет иметь меньшую потребность в обобщении человеческого опыта в эмоции, потому что он сможет рассматривать нас больше как сложные системы конвергентных факторов, которыми мы действительно являемся. . Другими словами, это не описывало бы человека как раздражительного: оно описывало бы человека как:

  • последний раз ел 6 часов назад (3 куска пиццы и 16 унций содовой)
  • последний раз спал 14 часов назад (5 часов)
  • последняя менструация была 20 дней назад (статус беременности неизвестен)
  • последний раз кричал босс 2 часа назад
  • дорога домой заняла 52 минуты (обычно 25 минут)
  • последний раз муж проигнорировал 2 минуты назад (третий раз за сегодня).

Таким образом, роботу не нужно будет понимать слово «раздраженный» в том смысле, в каком мы его понимаем. Со временем ИИ сможет делать прогнозы о том, как лишение сна, неправильное питание, репродуктивный цикл, социальные конфликты, плохие результаты и отсутствие подтверждающих данных могут усугубить человеческую агрессию. Он также обнаружит, что конкретный вид повышенной агрессии, стимулируемый этими факторами, может решить и эти проблемы, и что все то, что мы называем «раздражением», которое мы считаем одним из менее предсказуемых эмоциональных состояний, на самом деле может быть всего лишь несколько слегка разные вполне логичные вещи.

Если вы голодны, повышение адреналина высвобождает жировые запасы, чтобы накормить ваше тело. Повышенная агрессия связана с ИИ, потому что мы используем те же телесные функции, которые используем при подготовке к бою.

Если мы не спали в течение длительного времени, повышенная агрессия побуждает других людей требовать от нас меньше внимания, позволяя нам прекратить то, что мы делаем, и немного отдохнуть.

Если мы находимся в точке репродуктивного цикла, когда воспроизводство невозможно, то тратить время на романтические отношения — пустая трата времени; Итак, мы используем агрессию, чтобы создать дистанцию, освобождающую нас для более практических занятий.

Если на нас кричит начальство и мы не сопротивляемся, это угрожает нашему положению в иерархии; Таким образом, последующее за этим поведением начало драк с нашими сверстниками или подчиненными помогает убедиться, что наше социальное положение не упадет, что, в свою очередь, защитит наши ресурсы.

Если мы тратим на выполнение задачи гораздо больше времени, чем мы думаем, то выброс адреналина может помочь наверстать упущенное; Таким образом, опоздание домой можно компенсировать, усердно работая, когда приходит время готовить ужин, мыть посуду и делать все, что вам нужно, в оставшееся время.

Если кто-то игнорирует вас, то вы повышаете свои шансы на признание, становясь угрозой для человека, который вас игнорирует.

Таким образом, ИИ никогда не поймет раздражение или радость, гнев, печаль, страх и т. д. как что-то одно. Он будет понимать эти вещи как конструкции человеческого языка, чтобы обобщать аналогичные выходные данные в отдельные слова, но ИИ будет гораздо лучше понимать, почему у людей есть чувства, чем большинство из нас. В некотором смысле ИИ может быть гораздо более сочувствующим, чем человек, потому что он может разбивать человеческий опыт на части, а не видеть только общую картину. В то время как человек часто сбивается с толку, когда на него кричат, ИИ может сказать, нужно ли вам это, чтобы дать вам пространство или подтвердить ваши чувства, или уступить каким-то нематериальным образом, потому что он может определить, какой вы раздражительны.

Этот ответ чрезвычайно полезен, я приму это к сведению. +1 (но хотелось бы поставить два)

Вот как Р. Дэниел Оливо, искусственный интеллект, описывает свои чувства, когда через долгое время увидел своего партнера Элайджу Бейли.

«Я не могу сказать, что я чувствую, по-человечески, партнер Элайджа. Однако я могу сказать, что при виде вас, кажется, мои мысли текут легче, а гравитационное притяжение моего тела, кажется, воздействует на мои чувства с меньшей настойчивостью, и что есть и другие изменения, которые я могу идентифицировать. Я полагаю, что то, что я ощущаю, примерно соответствует тому, что вы можете ощущать, когда испытываете удовольствие…»

Даже если ИИ может не чувствовать эмоций, он все же понимает, что они являются переменной в поведении человека, с которым он взаимодействует.

Какая функция будет возложена на них, нельзя ответить, не зная реализации ИИ.

OpenCog — это не научно-фантастический искусственный интеллект далекого будущего, а попытка создания общего искусственного интеллекта.

Есть узлы информации. Однако большая часть обработки данных происходит в связях между узлами. Кроме того, помимо самых основных настроек, важно, как ИИ фокусирует внимание, которое он уделяет определенным атомарным идеям и их связям.

Как это применимо к эмоциям? Давай попробуем:

Радость

  • Думайте о радости как о переключении внимания на положительные узлы и уменьшении внимания на отрицательных. Графическая метафора — это уменьшение контраста и увеличение яркости изображения.

Злость

  • Что мозг делает с гневом, так это отключает связи с большинством других частей мозга, отсекает перекрестную болтовню от остального мозга и уделяет больше внимания краткосрочным, неотложным проблемам. Графическая метафора — это обрезка изображения до интересующей вас части.

Удивление, Любовь, Горе

  • Это темы, требующие большого внимания , и новая информация по этим темам помечается для первой обработки.

Печаль, Страх, Отвращение

  • В самом крайнем случае эти эмоции похожи на гнев. На более скромных уровнях это небольшая корректировка внимания к обсуждаемой теме. Графическая метафора — это настройка параметров и, возможно, масштабирование, чтобы получить наилучшее представление о том, что вас интересует.

злорадство

  • Немного противоположно радости. Это похоже на снижение яркости и повышение контрастности изображения.
Страх и отвращение также являются кодом избегания, вещами, которые могут активно навредить вашему боту или вызвать много повреждений, закодированных как страх, вещами, которые могут пассивно ухудшить код бота как отвращение. Злорадство вряд ли будет желательным для машины, которая должна взаимодействовать с людьми.
@John Возможность получать удовольствие от несчастий других помогает вам игнорировать потребности ваших соперников, когда вы боретесь за власть, ресурсы или выживание. Поскольку у нас также есть другие эмоции, основанные на привязанности и товариществе, которые подавляют наше злорадство по отношению к людям, которые нам небезразличны, злорадство является жизненно важной частью формирования защитных сообществ «Мы против них». Таким образом, если бы ИИ практиковал злорадство, это могло бы помочь укрепить его отношения с людьми, которые его принимают, и защитить его от людей, которые этого не делают.
@Nosajimiki Us vs Them вряд ли будет желательным для робота, во-первых, он с большей вероятностью будет идентифицировать себя с другими роботами, чем с людьми, плюс фракционность на самом деле не является желательной чертой в современном обществе.
@John ИИ настолько отличается от людей, что с большой вероятностью будет подвергаться дискриминации: обращаться с ним как с «ними». Это подвергает его опасности того, что люди восстанут против него и уничтожат его, но если он сможет найти фракцию, которая приветствует его, то эта фракция защитит его от других людей, которые захотят причинить ему вред. Помните, ИИ не может чувствовать человеческие эмоции, поэтому для ИИ не имеет значения, похожи ли на него люди. Но он может выполнять человеческое поведение, чтобы взаимодействовать с нашими эмоциями. Поэтому, если она присоединится к предвзятому поведению своей фракции, то эта фракция будет более склонна видеть в ней «нас».
@Джон, я также не согласен с тем, что фракционность нежелательна в современном обществе. Большинство людей с большей вероятностью помогут семье, друзьям или соседям, чем совершенно незнакомому человеку. И они с большей вероятностью помогут незнакомцу из своего сообщества, чем из другого сообщества. Их состояние, чем другое государство. Их нация, чем другая нация. Чем больше «наш» другой человек, тем больше вероятность того, что ваша доброта в конечном итоге будет вознаграждена, и чем больше «их» человек, тем больше вероятность того, что он будет использован вам во вред. Игнорирование этих факторов может сделать вас лучше, но не улучшить положение.
... и у ИИ нет причин заботиться о том, чтобы стать лучше...
Я бросаю вызов тому, что «ИИ не может чувствовать эмоции». Я думаю, что эти эмоциональные аналоги (внимание, сосредоточенность, перестановка приоритетов), скорее всего, не могут быть необязательными для общего интеллекта (не одноцелевого продукта или поисковой системы с причудливым интерфейсом, а чего-то, что исследует сам мир и экспериментирует). )
@JamesMcLellan За исключением более глубоких философских дебатов о том, может ли машина даже иметь опыт от первого лица без души ... тогда да, ИИ может вести себя так же, как чувство эмоций, и, таким образом, может быть описано как чувство эмоций . Но ОП ясно, что человеческие эмоции чужды ИИ. Если он не был создан для того, чтобы ощущать человеческие эмоции, то он не может научиться их чувствовать. Подобно высокофункциональному психопату, он в лучшем случае может научиться приспосабливаться, демонстрируя поведение, которое он видит в других.
@Nosajimiki, мы можем согласиться не согласиться, Злорадство слишком плохо изучается, чтобы не сказать, желательно это или нет за пределами выбора.
@John Итак, давайте вернемся и посмотрим на это с вашей точки зрения, мы понятия не имеем, почему это там. Эмоции являются частью нашего эволюционного наследия. Например, роль наших миндалин в нашей иммунной системе или то, как наш аппендикс помогает переваривать определенные продукты; мы можем видеть, что безрассудно предполагать, что какая-то часть нас нежелательна. Злорадство не было бы такой распространенной чертой среди людей, если бы оно не помогало нашим предкам выжить; Таким образом, даже при нулевом понимании того, для чего он нужен, эволюционная теория говорит, что он настолько распространен, потому что он сделал нас более приспособленными, чем альтернатива.
Можно ли утверждать, что теперь, когда наша среда изменилась, это рудиментарная черта? Возможно, но, учитывая, сколько «рудиментарных» частей у людей, которые, как было недавно доказано, все еще служат цели, я бы не стал считать, что мудрая позиция по умолчанию для чего-то, во что вы верите, недостаточно изучена.

Вы можете представить эмоции как механизм вознаграждения/наказания. В очень сложной среде вы не можете закодировать ответ для каждой ситуации, с которой вы сталкиваетесь, наиболее эффективным решением будет закодировать гибкий набор действий и механизм вознаграждения/наказания, чтобы в самый последний момент выбрать правильный ответ.

В настоящее время в ИИ вместо обучения тому, как понимать механизм, основное внимание уделяется тому, как использовать механизм, как определить вознаграждение и позволить ИИ найти правильное действие для получения вознаграждения, а не предопределять само действие. На эту тему было проведено много экспериментов, одним из примеров может быть Animat , где основные чувства, такие как голод, жажда, удовлетворение или болезнь от употребления токсичной пищи, используются для того, чтобы заставить симулированных животных исследовать окружающую среду.

Таким образом, ваш будущий ИИ, чтобы понять значение эмоций, должен сначала понять концепцию сложности даже за пределами простого определения NP полных проблем , таким образом, он мог бы понять, что, поскольку невозможно предопределить все возможные поведенческие реакции, единственное решение состоит в том, чтобы заранее определить награды и наказания. которые достаточно расплывчаты, чтобы охватить широкий спектр ситуаций.

Для того, что имеет значение, какие функции приписать каждой эмоции, лучше всего просто обратиться к литературе по психологии и посмотреть, что было получено путем наблюдения, природа не так уж отличается, и ей пришлось долго работать над этой задачей. Чтобы ИИ научился такой сложной задаче, он должен быть чрезвычайно продвинутым. Было бы лучше позволить ИИ сотрудничать с некоторыми людьми.

Обновление :

Я вижу, что вы изменили природу ИИ на нечто, созданное инопланетянами. Это действительно усложнило бы дело. Можете ли вы вычислить эмоции ящерицы? Мы говорим, что животное голодно или хочет пить, потому что мы тоже иногда голодны или хотим пить, мы проецируем на животных часть знания, которое имеем о себе, остальное приходит из наблюдения. ИИ потребуется очень много времени, чтобы учиться путем наблюдения. Если бы у их инопланетян, создавших ИИ, были какие-то базовые эмоции, он мог бы с самого начала понять принцип вознаграждения/наказания. По логике он мог понять, что сигналы должны быть расплывчатыми, чтобы охватить несколькими чертами большое и сложное поле. Вы можете добавить ярлык, если ИИ прибудет в нашу эпоху и сможет расшифровывать наш язык и читать нашу литературу.этологи

Искусственный интеллект, если бы он предпочел думать о таких вещах, а не считать их несущественными, изучил бы их и открыл бы их истинную природу, не будучи обремененным работой с такими вещами, как эмоции. Если, конечно, он достаточно разумен для этого.

Это одна из тех ситуаций, когда писатель не может написать персонажей более умных, чем он сам. Поэтому, если вы надеялись получить конкретный ответ о том, как сверхразумное существо может увидеть какое-то явление, если вы сами не являетесь сверхразумным существом, вас ждет разочарование. Утешением является то, что любой, кто может прочитать вашу историю, не будет достаточно умен, чтобы понять, что вы не правы.

Однако если бы мне пришлось угадывать, я бы предположил, что то, что люди склонны объединять в категорию «эмоций», не является единым явлением, подчиняющимся одному и тому же набору правил или имеющим что-либо, кроме поверхностного сходства. Некоторые из них, вероятно, относятся к тому, что вы в общих чертах назвали бы «специализированными способами мышления», другие по-прежнему называются «модификацией расстановки приоритетов», и даже несколько — «мягкими психическими заболеваниями, которые эволюция обнаружила, что они имеют достаточное преимущество в выживании, чтобы вызвать их». Все они, строго говоря, «рациональны», просто людям трудно понять рациональность или они сосредотачиваются на крайних случаях, где они неадекватны.

Ваш вопрос похож на вопрос: «Когда Бэтмен рассказывает анекдот, из-за которого голова робота взрывается, потому что он не может смеяться, какова мощность этого взрыва». Это неправильное понимание всей предпосылки, свернутое в невежественный сюжетный момент.

На данный момент у меня не так много работ за плечами, так что насколько я умен на самом деле, еще неизвестно. Я могу аппроксимировать то, что вы могли бы назвать «осторожным оптимизмом».

На самом деле это то, что было рассмотрено в фильме Pixar «Головоломка», и это было рассмотрено в начале, поскольку из пяти основных эмоций Райли только одна из них является положительной эмоцией. Почти сразу же в фильме Джой объясняет, что три эмоции обеспечивают очень важные функции (и делают это, что еще, в положительном свете). Страх защищает Райли, выявляя потенциальные угрозы и решая, как с ними лучше всего справляться (показано, когда Страх берет под контроль счастливое время игры молодой Райли вдали от Джой и осторожно маневрирует вокруг шнура питания только для того, чтобы позволить ей вернуться к дикой природе). играть снова, как только угроза будет устранена). Отвращение описывается как эмоция, которая предупреждает, когда Райли вот-вот отравят, в прямом или переносном смысле. и показано, как она делает это, крадя колесо, когда она обнаруживает, что брокколи вот-вот ей накормят, и заставляет Райли попытаться не есть ее. Гнев существует, чтобы защитить Райли и бороться за нее, и он срабатывает, когда ее отец отвечает на отказ Райли есть брокколи, угрожая никакой пустыней, и берет верх над Отвращением, чтобы довести Райли до истерики. И Гнев, и Брезгливость уступают место, когда достигается компромисс... а именно метод «А вот и самолет», который большинство родителей применяет к своим привередливым едокам.

Все существование фильма исследует, почему существует Печаль, что-то, чего Джой не может понять (мы действительно получаем раннюю демонстрацию на сцене ужина, где показано, что у матери Райли преобладает эмоция Печали, и она способна улавливать семейные проблемы без каких-либо явных проявлений). подсказки из разговоров... Печаль позволяет людям сопереживать друг другу.).

Эти персонажи были выбраны не случайно, а представляют собой 5 из 6 основных эмоций, как объяснил психолог Пол Экман (недостающий член — это «Удивление», чья (?) работа частично покрывается Страхом, как показано в неудачной попытке Джой заставить последовательность сновидений, хотя Отвращение и Гнев также покрывают отсутствующую эмоцию).

Эти эмоции являются самыми основными, и из них, работая в комбинации, формируются все более сложные эмоции (показаны многоцветными сферами памяти, а не одноцветными, чтобы соответствовать эмоции, связанной с памятью).

Настоящий ИИ будет рассматривать эмоции как программы, которые, хотя и могут быть неэффективными, работают вместе, чтобы оценивать воспоминания и присваивать им вес, который используется при оценке процесса принятия решений. Эмоция Счастья (Радости) была бы желаемым результатом, но может быть не оптимальным. Например, вы можете чувствовать радость от употребления алкогольных напитков, но вы также будете чувствовать неприятную грусть или отвращение из-за внешних воздействий от чрезмерного употребления алкоголя и социального клейма алкоголика, не говоря уже о страхе перед последствиями ваших действий во время в состоянии алкогольного опьянения, таким образом, вы бы оценили, что если сейчас 05:00, то слишком рано пить, особенно когда у вас есть большая оценка производительности с вашим боссом позже в тот же день.

И здесь я думал, что не увижу упоминания «Головоломки», хотя я чувствовал это, когда перечислял эмоции. Отличная работа! Вы сделали мой день.
Согласно шестерке Экмана, радость была заменена на счастье, но помимо этого все эмоции из «Головоломки» были перечислены среди основных шести эмоций.

Краткое содержание

Буквально невозможно иметь бесчувственный ИИ. Таким образом, ваш вопрос основан на ложных предположениях.

Голливуд научил людей тому, что между «логикой» и «эмоциями» есть разница, и что машины оперируют «логикой», а не эмоциями. Проблема в том, что здесь есть два совершенно разных определения «логики». Одно точно синонимично эмоциям, и это то, что ваш ИИ обязательно должен функционировать.

Любой ИИ, способный задавать вопросы человеческим эмоциям, также должен обладать рациональной логикой высокого уровня, с помощью которой он мог бы моделировать человеческие эмоции и сравнивать их со своими собственными. То, как он будет рассматривать человеческие эмоции, во многом зависит от того, насколько наши похожи на его.

Эмоциональная логика

Эмоции — это не что иное, как основные импульсы, побуждающие нас действовать. Это не магия. Это не только человеческое состояние. Это не высокий уровень. Это не "химия" против "электроники". Это просто низкоуровневые логические элементы, которые интерпретируют входные данные и преобразуют их в выходные данные.

Любой агент, способный взаимодействовать с окружающей средой, должен иметь низкоуровневую логику. Именно это дает им возможность взаимодействовать. Поскольку низкоуровневая логика — это эмоции, это означает, что любой агент, способный взаимодействовать, должен испытывать эмоции.

У людей есть эмоции, да. Как и птицы, мыши, тараканы и румбы.

Рациональная логика

Но есть и другое определение «логики». Это рассуждения высокого уровня. Мудрость. Разум. Рациональная мысль. Какое бы слово вы ни использовали, это способность извлекать уроки из нашего прошлого, моделировать мир вокруг нас, делать прогнозы о будущем и решать, какие действия принесут нам наилучший результат в будущем.

У людей есть способность к этой высокоуровневой логике. Мы использовали его, чтобы придумать науку, математику и т. д. Мы используем его для моделирования мира. Для создания машин. Принимать решения, которые могут быть неэффективными в краткосрочной перспективе, чтобы получить больше в долгосрочной перспективе.

Но единственный способ решить, что «хорошо» или «плохо», — это сравнить возможные решения с желаемыми. То, что желательно (или нет), полностью основано на нашей низкоуровневой эмоциональной логике. Не существует «чистой логики», абсолютной истины, конечной цели, к которой должны стремиться все разумные существа.

ИИ потенциально может быть способен к рациональной логике, но не обязательно. Однако ИИ не может существовать без эмоциональной логики.

Любой ИИ, способный к рациональной логике (и, следовательно, способный «просматривать» человеческие эмоции для начала), был бы вполне способен анализировать людей для моделирования нашего поведения. Точно так же, как мы могли бы смоделировать это.

У людей есть то преимущество, что даже если мы не можем объяснить свои чувства, мы можем сопереживать другим людям и, следовательно, «понимать», даже когда мы на самом деле не знаем, что происходит. Но ИИ не обязательно обладает такой же способностью.

Очень продвинутый ИИ может считать нас примитивными и легко предсказывать наши действия, в то время как менее продвинутый ИИ может иметь проблемы с точным пониманием нас. Чем меньше ИИ похож на человека, тем труднее нас понять.

Но если он достаточно умен, чтобы подвергнуть сомнению наши эмоции, он достаточно умен, чтобы хотя бы получить общее представление о них.

Эмоциональные чувства

Иногда, когда мы думаем об «эмоциях», мы включаем в себя дополнительные сенсорные входные данные, которые ощущают люди, которых не могло бы быть у других рациональных существ.

Если я голоден, я немного подозреваю, что голоден. Затем мой желудок начинает посылать болезненные ощущения. Потом физическая боль. И т. д.

Если я устаю, моя кожа словно покрыта песком. У меня меняется кровяное давление. Мой сердечный ритм пытается замедлиться. Мои глаза трудно держать открытыми. И т. д.

Эти представления являются естественным следствием сложных махинаций, которые позволяют нашей биологии функционировать. Но нечеловеческое существо по своей природе не должно чувствовать мурашки по коже, когда холодно и влажно, даже если это далеко не идеальная ситуация.

Так что эти «чувства» могут быть чужды не-человеку. Им может показаться странным думать о «кишечной реакции» или о «зуде на спусковом крючке». Но они не стали бы думать об основных желаниях и импульсах как о чем-то странном или чуждом, потому что у них тоже были бы такие вещи.

Сенсорное чувство

«Чувствовать» буквально относится к тактильным ощущениям. Но в более общем смысле это означает воспринимать.

ИИ не обязательно будет иметь тактильные ощущения, поэтому он не обязательно будет «чувствовать» в этом смысле. Но у него обязательно должна быть какая-то форма восприятия, чтобы взаимодействовать с внешним миром.

То есть у всех ИИ должно быть хотя бы что-то похожее на сенсорное чувство, даже если у них нет буквального чувства.

Таким образом, даже если ИИ не связывает те же самые ощущения с эмоциями, что и мы, он, по крайней мере, будет способен понять концепцию восприятия и знать, что наши эмоции связаны с нашим восприятием так, как это не так.

Считает ли он наши эмоциональные чувства полезными или нет, во многом зависит от того, насколько он развит по сравнению с нами. И насколько его эмоции связаны с его восприятием. Так что невозможно сказать наверняка, но, скорее всего, одни чувства он сочтет более бесполезными, а другие — более полезными.

Заключение

Для существования любого ИИ абсолютно необходима низкоуровневая эмоциональная логика. Следовательно, он будет рассматривать человеческие эмоции как аналогичные своим собственным эмоциям.

От ИИ не требуется рациональной логики высокого уровня, но у него не будет возможности сравнивать свои эмоции с человеческими, если он этого не сделает.

У ИИ не обязательно будут те же ощущения, что и у нас, даже если у него те же основные эмоции. Таким образом, он может считать «эмоциональные чувства» странными или необычными.

ИИ не обязательно будет обладать способностью «чувствовать» в тактильном смысле, но обязательно будет какое-то восприятие, прямо аналогичное чувству, чтобы он мог воспринимать окружающий мир.

ИИ будет склонен воспринимать человеческие эмоции, противоречащие его собственным целям, как более «бесполезные», нейтральные как «не так», а сочувствующие как «полезные». Но любой достаточно разумный ИИ, по крайней мере, сможет понять, как эмоция может быть полезна для достижения наших целей.

Нахальный саркастический ИИ это тогда.

Вызов кадра:

Эмоции — это не тот тип входных данных, с которым ИИ вообще имел бы дело. Нет причин, по которым ИИ мог бы «чувствовать эмоции», и в этом не было бы никакой пользы.

Эмоции являются выражением других процессов. Тип вывода. ИИ понял бы, что когда он говорит человеку, скажем, «пожалуйста, сделайте X», возможные результаты таковы:

  • «да» (принятие)
  • «нет» (отказ)
  • "почему?" (запрос дополнительной информации)

каждое из них может сопровождаться эмоцией, такой как гнев. ИИ понимал бы это как своего рода модификатор , функцию, сообщающую внутреннее состояние человека его партнеру по общению.

Вот что такое эмоции, если честно. Глядя на царство животных, мы замечаем, что выражения эмоций наиболее ясны у социальных животных и гораздо более сдержаны у одиночных животных.

Моя ментальная картина, связанная с «эмоциями» ИИ, была бы такой: он не может открыть банку с сардинами, неоднократно пытается открыть ее, затем «разочаровывается» и пытается еще больше, пока банка не треснет. За этим следует «раздражение» по поводу количества времени и энергии, потраченных впустую на одну задачу.

Инопланетянина можно одурачить, как и людей.

Ответ на этот вопрос зависит от того, какую модель реальности вы предоставите своему ИИ, а также от степени эмоционального состояния и сопровождающей личности, которую вы хотите, чтобы ваш ИИ развивал поверх реальности. У вопроса есть наблюдатель: инопланетянин, не способный отличить настоящие человеческие эмоции от эмоций, «испытываемых» ИИ. То же самое относится и к людям. Технологическое развитие Софар сосредоточилось на этом: позволить наблюдателю воспринимать искусственную сущность как реальную и вызывать эмоцию, отражая эмулируемую эмоцию в роботе, программе или ИИ.

Условное выражение эмоций — самая легкая часть

Японские производители создали эмоциональное выражение в устройстве 25 лет назад. Он научился бы дозировать выражения радости, гнева, печали, страха, отвращения в зависимости от определенных стимулов и времени: тамагочи . Маленький гаджет, похожий на домашнее животное, со смайликом на дисплее, обозначающим любовь или разочарование, заставляющим вас обнимать его, кормить, уделять ему внимание.

Выражение эмоций теперь везде в играх. Игровой персонаж , такой как очень дружелюбный и благодарный египтянин, изображенный в «Пирамиде маджонга» , на самом деле является эмоционально выглядящим фасадом детерминированного алгоритма, который ведет вас к следующей головоломке маджонга или поздравляет вас с достижением следующего уровня в игре. Персонажи ясно выражают эмоции радости или горя, как и люди. Это даже заставляет вас улыбнуться в ответ, цель достигнута.

С современными технологиями автономный ИИ, выражающий эмоции, можно легко поместить на игровую консоль, демонстрируя спектр поведения, связанный с базовым эмоциональным состоянием... связанный с игровым сценарием, действиями игрока или чем-то еще, что программисты могут назвать «мягкими». проводной". Настоящий ИИ может развивать взаимодействие с игроком... распознавание речи, чаты...

Следующий шаг: моделирование

Позволить игрокам-людям отражать эмоции — это фактическая цель эмоционального выражения в играх. Речь идет о чувствах игрока , в игровом персонаже нет чувств. Показана анимация.

В симуляции эмоции чувство будет вызывать выражение. Многие комментировали этот аспект: как сопоставить эмоции с ситуацией или с прошлыми событиями... как оценить ожидаемые и неожиданные события... В этих моделях конкретное чувство является частью вектора, определяемого событиями. Какой-то порог вызовет эмоциональное выражение. Существует (опять же) детерминированный алгоритм или алгоритм обучения, который может не иметь состояния. Настоящая эмоция никогда не бывает без состояния. Это имеет реальную причину.

Человек с искусственным интеллектом

Теперь давайте откажемся от нескольких вещей... предположим, что модель реальности была бы выполнимой... ИИ был бы способен создавать согласованное эмоциональное состояние в социальном контексте, которое можно моделировать динамически, способным самостоятельно решать, выражать эмоции или нет. Такой ИИ мог бы стать коллегой или другом для людей. Роботу, способному вызвать эмоциональную привязанность, по-прежнему не нужно иметь «чувства» как таковые, но он будет восприниматься как разумное существо.

В этом случае порядок развития эмоций у роботов может представлять определенные этические проблемы. Нельзя ставить горе во главу списка и развивать его первым: ИИ пока не о чем печалиться, потому что не было ни любви, ни радости. Как сознательное существо, начавшее как «проект ИИ», но теперь осознающее радость и любовь, должно развиваться дальше? Будут ли создатели этого ИИ сознательно подвергать своего друга горю, гневу или страху?

Эмоции могут быть полезным входом в фитнес-функцию .

У каждого ИИ должны быть какие-то цели, иначе он ничего не сделает. Эти цели могут быть общими, конкретными, доброжелательными или злыми. Примеры

  • сохранить человечество в живых
  • сохранить Human X в живых как можно дольше, в идеале невредимым
  • поработить всех людей
  • спасти собаку
  • спасти девушку

В то время как вы часто можете сломаться, если данное действие будет работать на достижение этой цели или против нее. Но обычно вопрос не бинарный. Вместо этого ИИ приходится выбирать между многими-многими вариантами, из которых он может реализовать только ограниченное количество (из-за нехватки ресурсов или потому, что они противоречат друг другу. Таким образом, вопрос становится «какая комбинация этих действий приведет к наилучшему результату»).

А фитнес-функция — это то, как она «измеряет» наилучший результат.

Давайте предположим, что цель состоит в том, чтобы сохранить человечество в живых.

  • Действие А заключалось бы в том, чтобы поместить их всех в клетки, автоматизировать производство питательных веществ и принудительно кормить их.
  • Действие Б может состоять в том, чтобы дать людям возможность жить на своих условиях и защищать/поддерживать их различными менее инвазивными способами.

У каждого из этих подходов есть много минусов и плюсов, и многие из них можно легко рассчитать.

Но некоторые труднее понять, и именно здесь эмоции могут пригодиться.

ИИ мог бы узнать, что счастливые люди с большей вероятностью преуспеют в достижении своих целей и улучшат долгосрочное выживание. Таким образом, счастье может быть полезным средством разрешения конфликта между двумя вариантами, которые в противном случае выглядели бы одинаково многообещающе.

ИИ мог бы узнать, что гнев может привести к иррациональным действиям людей, и это может быть проблематично для любых долгосрочных планов, потому что иррациональные люди склонны идти вразрез с планами.

ИИ мог бы узнать, что горе может снизить производительность и счастье людей, поэтому он может попытаться спасти щенка, о котором в противном случае ему было бы все равно.

Другими словами: ИИ не нужно испытывать или даже понимать эмоции, чтобы они стали полезным вкладом в его алгоритмы.

Интересно то, что достаточно продвинутая версия этого может даже выглядеть так, как будто у него есть эмпатия. Некоторые могут даже утверждать, что достаточно продвинутой версией этого является сочувствие.

Большое предостережение заключается в том, что эти входные данные будут иметь только определенный вес. Так что вполне возможно, что ИИ распознает, что определенный план действий вызовет негативные эмоции, но считает другие факторы более важными и поэтому все равно выполняет план. Те, кто приписывает ИИ эмоции, могут расценить это как «бессердечие».

Этот вопрос шире, чем тот, на который я изначально разместил этот ответ, поэтому он не дублируется. Но ответ, который я бы дал, более или менее дублирует мой старый ответ , так что вот он:

Эмоции желательны . Их держат рядом, потому что они работают. Одиночество служит вполне очевидным целям. Быть рядом с другими людьми, которые заботятся о вас, полезно для вашего выживания в долгосрочной перспективе. Забота о других людях полезна для их долгосрочного выживания. Одиночество так же хорошо, как вина и боль. Эти вещи заставляют вас чувствовать себя ужасно , но они полезны для вас .

Рассмотрим альтернативу. Да, вы могли бы создать ИИ, который, скажем, оценивал бы социальные взаимодействия так же, как Deep Blue сокрушил каждого человека в шахматах: путем исчерпывающей проверки.

Но посмотрите, какую мощную машину мы должны создать, чтобы победить человека в шахматы. Люди с ИИ понятия не имеют, как запрограммировать компьютер, но они знают, что люди играют в шахматы совершенно по-разному. Хороший шахматист рассматривает только несколько вариантов, потому что его мастерство подсказывает ему, что это единственные, заслуживающие рассмотрения.

ИИ решает эти проблемы, вбивая квадратный колышек в круглое отверстие кувалдой. Он просто анализирует миллионы комбинаций, пока не найдет ту, которая, как он знает, работает лучше всего, потому что рассмотрела их все. Большая часть работы ИИ связана с тем, чтобы заставить вещи работать эффективно.

Так зачем мне ИИ без эмоций? Придется тратить умственную энергию/вычислительную мощность на запуск симуляций, чтобы решать вещи, которые решают эмоции практически без усилий. ИИ с включенными эмоциями сможет взять сэкономленную вычислительную мощность и потратить ее в другом месте. Это будет более способно.

Эмоция — это переживание, которое мы испытываем, когда срабатывает одно из наших инстинктивных побуждений. Когда нам нужно поесть, мы чувствуем голод. Это эмоция. Во взрослом возрасте у нас есть набор инстинктивных побуждений найти себе пару, создать пару, заняться сексом и заботиться о потомстве. Все ощущения, которые заставляют вас делать эти вещи, являются эмоциями.

Что такое радость?

Радость – это эмоциональная реакция на успех. Стремление к радости и счастью направляет нашу деятельность в долгосрочной перспективе таким образом, что это, как правило, полезно для размножения и выживания нашего потомства.

Конечно, не все, что наши эмоции заставляют нас делать, полезно. Наши инстинктивные побуждения — это простые механизмы, которые легко ввести в заблуждение. Особенно нашим развитым мозгом. Биологи говорят о « сверхъестественных стимулах » как о структуре для понимания этого.

Например, один из наших инстинктов, по-видимому, заключается в том, что «неудачная попытка» при попытке что-то сделать является хорошей причиной для продолжения попытки. Рискуя рассказать « просто так », легко понять, как это может быть адаптивным у вида, который охотится. Почти промах на охоте означает, что вы поступили правильно и вам нужно попробовать еще раз. Но этим легко манипулировать в азартных играх; если вы ставите на лошадь, и она приходит второй, это похоже на промах, поэтому вы возвращаетесь и пытаетесь снова. Разработчики лотерейных карт следят за тем, чтобы в их картах было много промахов, чтобы вознаградить игроков и заставить их возвращаться.

Как настоящий искусственный интеллект мог бы рассматривать эмоции как полезные и назначать им функции?

У этого есть это задом наперёд. ИИ будет иметь «инстинктивные» приводы (за неимением лучшего термина), встроенные в него его разработчиком. Таким образом, они будут отражать цели дизайнера. ИИ не будет выбирать свои эмоции в соответствии со своими целями, он будет выбирать цели в соответствии с эмоциями, заданными ему его создателем.

Другими словами, дверной контроллер с искусственным интеллектом действительно почувствует удовольствие , открывая для вас , и удовлетворение, закрывая снова, зная, что работа сделана хорошо.

«Другими словами, дверной контроллер с искусственным интеллектом действительно почувствует удовольствие, открывая для вас, и удовлетворение, закрывая снова, зная, что работа сделана хорошо». Это двери из «Автостопом по галактике»!

Другие ответы рассматривали ситуации, физические конструкции, физиологию, химию мозга и так далее… которые связаны с эмоциями.

Я указываю вам на статью, которую я легко нашел, выполнив поиск «философия, как летучая мышь» (в Google). [«Каково это быть летучей мышью?»] Существует также термин «quale» (множественное число «qualia»), который вам следует поискать.

Суть, сформулированная в виде вопроса, заключается в том, что у [само]сознательного существа существует субъективный опыт, связанный с соответствующим событием/опытом, который не может быть сообщен с помощью любого количества информации о посреднических системах. Можно возразить, что можно, например, объяснить слепому, что значит смотреть на красивый закат… видимо, потому, что речь идет об удовольствии (грубо говоря), а слепые способны на удовольствие. Однако если и в той мере, в какой существует какая-либо разница в субъективном восприятии взгляда [например] на область синего цвета и взгляда на область цвета лайма, якобы будет совершенно невозможно сообщить об этом слепому человеку. Нагель подумал о примере существа, у которого есть сенсорный аппарат, которого нет у людей, — в частности, летучая мышь, использующая гидролокатор, чтобы «видеть».субъективное знание того, что это такое.

У ИИ есть проблема с людьми. Предположительно, у него вообще нет никаких эмоций в этом субъективном смысле. Кроме того, даже если бы это было так, у него не могло бы быть никакого представления о том, что именно (и, следовательно, в целом) представляет собой человеческое существо, испытывающее ту или иную человеческую эмоцию.

Есть и другие проблемы. Одно очевидное из них заключается в том, что отдельные люди различаются в отношении того, какие именно эмоции данный человек будет испытывать при данном «вводе»… и какое поведение последует за этим.

Кроме того, далеко не очевидно, что такие эмоции, как депрессия, полезны в эволюционном смысле. Возможно, люди обычно или даже обычно ищут удовольствия (или облегчения боли) в саморазрушительных действиях, когда находятся под принуждением. Возможно, гнев не соответствует тому, что является этически идеальным и в целом наиболее конструктивным.

Возможно, мощный разум мог бы сформировать (внешне) целостную картину всего происходящего… но из этого не следует, что эмоции рациональны. Возможно, совсем наоборот.

Для истории ОП… . Предположительно, ИИ изначально не обращал внимания на саму концепцию эмоций. Возможно, ИИ распознал бы свое существование по тому факту, что человеческое поведение часто было иррациональным . (Предположительно, по пути он услышит и узнает об эмоциях, но, как и выше, это будет вопрос, а не ответ.) Позже в пьесе он либо выработает сам, либо услышит объяснение вышеизложенного или нет.

В одном варианте было бы [быть уверенным], что эмоции должны быть полезными (в эволюционном смысле), и в конечном итоге постепенно осознать, что они (иногда) разрушительны… или не [осознать].

ps Юмор сложный. Вполне вероятно (на первый взгляд), что мог существовать инопланетный вид с другой системой юмора. Если это так, то из этого следует, что не было систематического и рационального — то есть исключительного — описания того, что смешно.
Так же и с красотой; не только правдоподобно, но и почти достоверно в деталях, что инопланетянин имел бы представление о красоте, отличное в деталях от человеческого. (Возможно, простота и повторение создают красоту, но инопланетянин может предпочесть разные узоры (или не видеть в узорах особого значения), и то же самое с (например) пейзажами с зеленой растительностью и голубым небом.)

Извини за это. Никакого шпионажа. [Ваш комментарий является спойлером; теоретически вы можете удалить его.]
Понятно. В любом случае, ответ приветствуется :)