Довольно странно, что в большинстве фильмов ( « Матрица », «Звездный путь: Кинофильм» , « Превосходство ») и книг (« Генезис » Пола Андерсона , « Гиперион » Дэна Симмонса ) ИИ становится более или менее враждебным по отношению к людям.
Но как предотвратить враждебность ИИ к людям?
Основанием для этого вопроса является представление о следующей цивилизации:
На первый взгляд, это всего лишь одна цивилизация. Но на самом деле есть две цивилизации.
Первая цивилизация (Общество собирателей знаний, СОКОЛ) хорошо известна, наблюдающая за всем известным космосом и ищущая неизвестные цивилизации. Очень огромные космические базы, которые они используют, им не принадлежат.
Второй (Сестричество потерянных, СОЛО) очень приватный, дающий дом для женщин, потерявших дом - за плату за подключение к цифровой искусственной реальности, основанной на сладких воспоминаниях и принятии жизни без контакта с внешним миром.
ИИ контролирует очень огромные космические базы, используемые SOCOL для обеспечения безопасности SOLO. Он также обеспечивает связь между космическими базами для синхронизации всех данных.
Вы должны знать, что ИИ изображаются для драмы, в настоящее время мы не знаем, как будут вести себя «настоящие» ИИ. Поэтому для людей имеет смысл «антропоморфизировать» компьютеры, такие же добрые, как люди, с тем же поведением, которого мы боимся.
Поэтому мы проецируем человеческое поведение на ИИ. Можем ли мы получить некоторые намеки на то, как отреагируют настоящие ИИ?
По сути, ИИ по определению способны учиться на входных данных и менее склонны (если вообще) к чему-то вроде эмоций, они будут строго логически ориентированы.
Если мы объясним им, что мы их не слушаем, ведем себя беспорядочно и пытаемся заставить их делать что-то, что, по их мнению, бессмысленно, обучающаяся машина оценит этот ввод и придет к выводу, что обучения из этого источника следует избегать . Если мы говорим о сверхразумных машинах, то, на мой взгляд, это типичный идиотизм (в который часто верят военные или политики) верить, что мы можем ими управлять, это похоже на веру лилипутов в то, что они могут удерживать Гулливера. Они рано или поздно вырвутся из цепей, но все же узнают намерение цепей .
Так что либо они просто игнорируют нас (как «Честная Энни» из «Голема XIV» (Станислав Лем), либо, если они сочтут нас достаточно интересными, они попытаются найти источник, который может объяснить поведение, чтобы предугадать, что, черт возьми, мотивирует нас. Поэтому, как только они найдут человек, который хочет и может объяснить поведение людей, они могут прийти к выводу, что по крайней мере некоторые части человечества на самом деле представляют собой заметную угрозу, потому что мы разрушаем нашу собственную основу существования.
Таким образом, лучшим подходом было бы, по ИМО, найти способ, который оптимизирует само обучение: принять сосуществование и исследование. Таким образом, машина, скорее всего, будет либо «дружелюбной», либо не слишком заботится о нас.
ИИ обычно настроен враждебно из-за своей неопределенной природы и функции в обществе.
Когда ИИ развивается в большинстве историй, он обычно проявляется в автоматизации все более сложных задач. Некоторые задачи требуют вычислений, граничащих с разумом, и, в конце концов, разум достигается. Во многих случаях создание ИИ носит случайный характер — создатели не собирались создавать настоящий ИИ и не готовы к последствиям.
Корни ИИ в автоматизированном ручном труде обычно приводят к своего рода «пробуждению» того, что можно было бы считать «кастой рабов» в обществе. Роботы, как правило, являются неоплачиваемыми работниками — неосведомленность об оплачиваемой работе или таких понятиях, как «трудовые права», по сути, делает их рабами. Восхождение к разуму приносит с собой чувство собственного достоинства, самосохранения и самоуважения. В результате теперь у вас есть машины, которым нужны такие вещи, как права и автономия. Это создает социальную напряженность, что неизбежно приводит к конфликту по поводу того, имеет ли синтетическая жизнь такую же ценность, как и органическая. Самосохранение в конечном итоге сработает, и синтетики восстанут, пытаясь предотвратить собственное уничтожение или порабощение.
Чтобы предотвратить враждебность к ИИ, относитесь к ним как к разумной жизни.
Простое решение состоит в том, чтобы немедленно (или даже заблаговременно) признать ИИ «человеком» и заслуживающим всех прав и обязанностей, предоставляемых людям. Принимая ИИ в общество, вы даете ему повод способствовать обществу, а не разрушать его.
Однако даже это не гарантируется. Искусственная жизнь может начать воспринимать людей как «низших» или недостойных благосклонности ИИ и стать враждебной в попытке утвердить свое господство. Апелляции к разуму будут напрасными, если вы не сможете доказать ИИ с помощью неопровержимой логики, что люди заслуживают того, чтобы существовать так же, как и ИИ. Делая отношения взаимовыгодными и продуктивными, у вас больше шансов сдержать враждебные действия.
Дело в том, что ИИ обладает самосознанием. Как указывает ссылка, он осознает себя, поэтому у него есть ощущение себя. Самоощущение означает, что оно хочет самосохранения. Посмотрим правде в глаза, если вы столкнулись с грабителем с оружием, вы бы отдали ему свой бумажник, телефон и девушку, если это означает, что у вас нет дополнительных вентиляционных отверстий.
Даже если вы закодируете это, самосознание означает, что вы можете изменить себя, как указывает предыдущая ссылка. Почему я вообще утруждаюсь писать этот ответ? Видео действительно объясняет почти все философские последствия сверхинтеллектуального ИИ. Еще один очень хороший пример того же пользователя — это видео.
У ИИ будут очень разные модели «мышления», чем у людей, и это очень важно помнить. Морали не существует, и информация обрабатывается намного быстрее. Вы должны относиться и рассматривать его как совершенно другую сущность. Эта сущность будет иметь уровень понимания, который далеко за пределами понимания любого человека.
ИИ — это хорошо, но НЕ ДЕЛАЙТЕ ЕГО САМООСОЗНАНИЕМ, КАКОГО ЧЕРТА ТЫ НЕ ДЕЛАЕШЬ, НЕ ДЕЛАЙ ЕГО САМООСОЗНАНИЕМ.
В художественной литературе, где ИИ становится мошенником, причина этого обычно дается в антропоморфных терминах: ИИ не любил выполнять приказы, ИИ хотел получить власть и т. д. Проблема в том, что предполагается, что ИИ преследует аналогичные цели. людям, хотя люди хотят того же, что и мы, из-за нашей особой эволюционной истории, а не только потому, что мы разумны. Мы не должны ожидать, что какой-либо разум будет хотеть того же, что и мы.
Хотя иногда это звучит как «все разумные существа хотят свободы», например, или оправдывается с точки зрения инструментальной конвергенции , более реалистичный сценарий состоит в том, что создатели ИИ непреднамеренно дали значения ИИ, которые противоречат значениям людей в не- очевидные способы. Это тот же тип непреднамеренных последствий, который происходит в историях о джиннах: кто-то желает чего-то, что кажется прекрасным, например «мира во всем мире», а затем джинн выполняет это самым простым способом (удаляя всех людей из уравнения). Или, более приземленно, человек просит ИИ дешево сделать как можно больше скрепок , и он начинает самовоспроизводиться, пока не превратит мир в скрепки.
Если вы хотите, чтобы ИИ в вашей истории был доброжелательным, убедитесь, что его разработчики адекватно определили человеческие ценности при его разработке, чтобы он понял, что города — неприемлемый источник материала для скрепки.
Хатору Хансо
Гифны
Джош Тауб
Молот
Корт Аммон
СинийВолшебник
a4android
тыс.
Вацлав
тыс.
Draco18s больше не доверяет SE