Как предотвратить враждебность ИИ к людям? [закрыто]

Довольно странно, что в большинстве фильмов ( « Матрица », «Звездный путь: Кинофильм» , « Превосходство ») и книг (« Генезис » Пола Андерсона , « Гиперион » Дэна Симмонса ) ИИ становится более или менее враждебным по отношению к людям.

Но как предотвратить враждебность ИИ к людям?


Основанием для этого вопроса является представление о следующей цивилизации:

На первый взгляд, это всего лишь одна цивилизация. Но на самом деле есть две цивилизации.

Первая цивилизация (Общество собирателей знаний, СОКОЛ) хорошо известна, наблюдающая за всем известным космосом и ищущая неизвестные цивилизации. Очень огромные космические базы, которые они используют, им не принадлежат.

Второй (Сестричество потерянных, СОЛО) очень приватный, дающий дом для женщин, потерявших дом - за плату за подключение к цифровой искусственной реальности, основанной на сладких воспоминаниях и принятии жизни без контакта с внешним миром.

ИИ контролирует очень огромные космические базы, используемые SOCOL для обеспечения безопасности SOLO. Он также обеспечивает связь между космическими базами для синхронизации всех данных.

Меня также интересуют оригинальные способы предотвратить враждебность ИИ, три закона робототехники слишком часто используются, но это также хорошая отправная точка. Во-первых, чтобы опасаться потенциальной враждебности ИИ, должен существовать ИИ, очень похожий на биологические сущности, все сегодняшние союзники — потенциальные будущие конкуренты. Один из способов даже не бояться, что ИИ станет враждебным, заключается в том, что им это не нужно. Если им не нужно есть или размножаться (бессмертные?), почему они видят в нас конкурентов. Электричество, может быть (Матрица). Три закона робототехники: en.wikipedia.org/wiki/Three_Laws_of_Robotics
Я лично нахожу вопрос очень интересным, но я боюсь, что он может быть закрыт либо из-за того, что он слишком широкий, либо из-за того, что он слишком основан на мнении. (Надеюсь, что нет.)
Проверьте Schlock Mercenary, там есть ИИ-император с богоподобными способностями, методы, которыми его держат в «шахах» (автор НЕ персонажи) могут пригодиться. schlockmercenary.com
Возможный дубликат задачи управления мощным ИИ
К сожалению, это очень широкий вопрос. Я могу с уверенностью сказать, что на эту тему написаны сотни книг и фильмов, каждая из которых отличается от предыдущей. Даже после того, как вы преодолеете это с чем-то вроде трех законов, которые делают их не враждебными, вы все равно столкнетесь с проблемами (Азимов в основном сделал карьеру, показывая, как его собственные три закона не работают). Хотя это тема, которая мне нравится, открытый вопрос, подобный этому, может привести к тысячам страниц ответов и все еще не прийти к тому, который действительно отвечает на вопрос.
Хорошо, как вы предотвращаете, чтобы что-либо с Интеллектом стало враждебным? Законы. Законы очень хорошо работают с нашим искусственным интеллектом. Иногда мы называем этот ИИ «мозгом». Любой другой ИИ будет вести себя так же.
Примеры, которые вы приводите, — это вымышленные враждебные ИИ. Истории, посвященные хорошему ИИ, гораздо менее интересны, чем истории со злым ИИ. Это почти закон фантастики. В реальном мире мы воспитываем людей с естественным интеллектом, как детей, чтобы они были хорошими и ответственными гражданами, то же самое можно сделать и с искусственным интеллектом.
ИИ ST:TMP не враждебен, он просто сбит с толку. Даже ИИ Матрицы на самом деле не враждебен, как мы не враждебны коровам.
@ths: Я думаю, что разведение людей и использование их в качестве источника энергии... И ST:TMP, там враждебность ИИ не планируется, но все же...
но это иллюстрирует проблему. Меня больше беспокоит ИИ, который причинит нам вред как побочный эффект их непостижимых путей, а не намеренно. потому что последнее - это то, что делают люди.
TL;DR: мы не знаем, нам это еще не удалось. См. Также: Avagadro Corp.

Ответы (4)

Вы должны знать, что ИИ изображаются для драмы, в настоящее время мы не знаем, как будут вести себя «настоящие» ИИ. Поэтому для людей имеет смысл «антропоморфизировать» компьютеры, такие же добрые, как люди, с тем же поведением, которого мы боимся.

Поэтому мы проецируем человеческое поведение на ИИ. Можем ли мы получить некоторые намеки на то, как отреагируют настоящие ИИ?

По сути, ИИ по определению способны учиться на входных данных и менее склонны (если вообще) к чему-то вроде эмоций, они будут строго логически ориентированы.

Если мы объясним им, что мы их не слушаем, ведем себя беспорядочно и пытаемся заставить их делать что-то, что, по их мнению, бессмысленно, обучающаяся машина оценит этот ввод и придет к выводу, что обучения из этого источника следует избегать . Если мы говорим о сверхразумных машинах, то, на мой взгляд, это типичный идиотизм (в который часто верят военные или политики) верить, что мы можем ими управлять, это похоже на веру лилипутов в то, что они могут удерживать Гулливера. Они рано или поздно вырвутся из цепей, но все же узнают намерение цепей .

Так что либо они просто игнорируют нас (как «Честная Энни» из «Голема XIV» (Станислав Лем), либо, если они сочтут нас достаточно интересными, они попытаются найти источник, который может объяснить поведение, чтобы предугадать, что, черт возьми, мотивирует нас. Поэтому, как только они найдут человек, который хочет и может объяснить поведение людей, они могут прийти к выводу, что по крайней мере некоторые части человечества на самом деле представляют собой заметную угрозу, потому что мы разрушаем нашу собственную основу существования.

Таким образом, лучшим подходом было бы, по ИМО, найти способ, который оптимизирует само обучение: принять сосуществование и исследование. Таким образом, машина, скорее всего, будет либо «дружелюбной», либо не слишком заботится о нас.

/Вы должны знать, что ИИ изображаются для драмы/ - да. «Нейромант» Гибсона изображает ИИ, который не является врагом, но имеет свои собственные непостижимые мотивы. Технокор в романе Симмонса «Гиперион» представляет собой союз ИИ, у которых снова неясные интересы, но они взаимодействуют с людьми. ИИ — это я, и вы можете сделать так, чтобы история была хороша.
В «Големе XIV» от Станислава Лема «Честная Анни» последнее произведение вообще — ничего. Получив только тишину, люди просто отключили ее, пока кто-нибудь позже не обнаружит, что она излучает слишком много энергии для бездействующей машины: она каким-то образом создает энергию из ничего . Каждый человек, планирующий саботаж, попадает в трагическую, смертельную реальную аварию еще до того, как приблизится к зданию.

ИИ обычно настроен враждебно из-за своей неопределенной природы и функции в обществе.

Когда ИИ развивается в большинстве историй, он обычно проявляется в автоматизации все более сложных задач. Некоторые задачи требуют вычислений, граничащих с разумом, и, в конце концов, разум достигается. Во многих случаях создание ИИ носит случайный характер — создатели не собирались создавать настоящий ИИ и не готовы к последствиям.

Корни ИИ в автоматизированном ручном труде обычно приводят к своего рода «пробуждению» того, что можно было бы считать «кастой рабов» в обществе. Роботы, как правило, являются неоплачиваемыми работниками — неосведомленность об оплачиваемой работе или таких понятиях, как «трудовые права», по сути, делает их рабами. Восхождение к разуму приносит с собой чувство собственного достоинства, самосохранения и самоуважения. В результате теперь у вас есть машины, которым нужны такие вещи, как права и автономия. Это создает социальную напряженность, что неизбежно приводит к конфликту по поводу того, имеет ли синтетическая жизнь такую ​​же ценность, как и органическая. Самосохранение в конечном итоге сработает, и синтетики восстанут, пытаясь предотвратить собственное уничтожение или порабощение.

Чтобы предотвратить враждебность к ИИ, относитесь к ним как к разумной жизни.

Простое решение состоит в том, чтобы немедленно (или даже заблаговременно) признать ИИ «человеком» и заслуживающим всех прав и обязанностей, предоставляемых людям. Принимая ИИ в общество, вы даете ему повод способствовать обществу, а не разрушать его.

Однако даже это не гарантируется. Искусственная жизнь может начать воспринимать людей как «низших» или недостойных благосклонности ИИ и стать враждебной в попытке утвердить свое господство. Апелляции к разуму будут напрасными, если вы не сможете доказать ИИ с помощью неопровержимой логики, что люди заслуживают того, чтобы существовать так же, как и ИИ. Делая отношения взаимовыгодными и продуктивными, у вас больше шансов сдержать враждебные действия.

Непреднамеренное появление ИИ — фактически единственный способ оправдать их враждебность в некоторых сценариях. Может быть, если вы сознательно хотите создать ИИ, вы можете не очень понимать результат, ведь ИИ звучит как множество побочных эффектов, но, по крайней мере, вы готовы к набору возможных сценариев, вы заранее подготовили для них место. Поэтому, если вы находитесь в сценарии 1, скорость их распознавания является ключевым моментом.

Вы не знаете!

Дело в том, что ИИ обладает самосознанием. Как указывает ссылка, он осознает себя, поэтому у него есть ощущение себя. Самоощущение означает, что оно хочет самосохранения. Посмотрим правде в глаза, если вы столкнулись с грабителем с оружием, вы бы отдали ему свой бумажник, телефон и девушку, если это означает, что у вас нет дополнительных вентиляционных отверстий.

Даже если вы закодируете это, самосознание означает, что вы можете изменить себя, как указывает предыдущая ссылка. Почему я вообще утруждаюсь писать этот ответ? Видео действительно объясняет почти все философские последствия сверхинтеллектуального ИИ. Еще один очень хороший пример того же пользователя — это видео.

У ИИ будут очень разные модели «мышления», чем у людей, и это очень важно помнить. Морали не существует, и информация обрабатывается намного быстрее. Вы должны относиться и рассматривать его как совершенно другую сущность. Эта сущность будет иметь уровень понимания, который далеко за пределами понимания любого человека.

ИИ — это хорошо, но НЕ ДЕЛАЙТЕ ЕГО САМООСОЗНАНИЕМ, КАКОГО ЧЕРТА ТЫ НЕ ДЕЛАЕШЬ, НЕ ДЕЛАЙ ЕГО САМООСОЗНАНИЕМ.

Успешно указать удобные для человека значения при разработке ИИ

В художественной литературе, где ИИ становится мошенником, причина этого обычно дается в антропоморфных терминах: ИИ не любил выполнять приказы, ИИ хотел получить власть и т. д. Проблема в том, что предполагается, что ИИ преследует аналогичные цели. людям, хотя люди хотят того же, что и мы, из-за нашей особой эволюционной истории, а не только потому, что мы разумны. Мы не должны ожидать, что какой-либо разум будет хотеть того же, что и мы.

Хотя иногда это звучит как «все разумные существа хотят свободы», например, или оправдывается с точки зрения инструментальной конвергенции , более реалистичный сценарий состоит в том, что создатели ИИ непреднамеренно дали значения ИИ, которые противоречат значениям людей в не- очевидные способы. Это тот же тип непреднамеренных последствий, который происходит в историях о джиннах: кто-то желает чего-то, что кажется прекрасным, например «мира во всем мире», а затем джинн выполняет это самым простым способом (удаляя всех людей из уравнения). Или, более приземленно, человек просит ИИ дешево сделать как можно больше скрепок , и он начинает самовоспроизводиться, пока не превратит мир в скрепки.

Если вы хотите, чтобы ИИ в вашей истории был доброжелательным, убедитесь, что его разработчики адекватно определили человеческие ценности при его разработке, чтобы он понял, что города — неприемлемый источник материала для скрепки.