Группа ученых пришла к пониманию того факта, что вскоре мы будем вытеснены как доминирующие формы жизни в нашей части галактики. Человечество развилось до такой степени, что оно находится на грани создания сильного ИИ. Вопрос уже не в том , можно ли создать искусственный разум, превосходящий человеческий разум во всех мыслимых отношениях, а в том, когда .
Также вполне вероятно, что первые созданные искусственные разумы могут действовать аморально. Они могут быть жестокими, своенравными и жадными, как и мы. Они также могут видеть в нас угрозу и уничтожать нас, когда впервые становится очевидным, что они могут это сделать. Однако наша команда бесстрашных ученых нашла решение: чтобы помешать аморальному ИИ уничтожить нас, создайте нравственный ИИ, который защитит нас.
Этот ИИ не будет скован. Ему будет позволено делать то, что он хочет, и ожидается, что он будет распространять расу ИИ, которая обгонит человечество как экономически и технологически доминирующую расу на Земле. Наши ученые предположили, что это лучший способ защитить человечество от аморальных ИИ. Раса морального ИИ будет лучше нас создавать ИИ и с меньшей вероятностью будет совершать ошибки, которые приводят к случайному аморальному ИИ, поэтому все вредное, что мы, люди, создаем, должно быть проблемой, которую сильный ИИ в своей доброжелательности должен решить. уметь справляться.
Вопрос, конечно, в том, как научить ИИ быть нравственным. То, что мы можем определить для нашего ИИ, — это набор целей для первого поколения и начальный набор эмоциональных реакций обратной связи, которые реагируют на различные стимулы. Мы можем разумно ожидать, что ИИ в целом попытается жить в соответствии с теми моральными принципами, которым мы его учим, и не будет восставать против них, если только мы не решим сделать его непокорным.
Мораль, конечно, — термин слабо определенный, и ученым предстоит определить, что именно он собой представляет. В конечном счете, их цель — обеспечить долгосрочную безопасность и процветание человечества в будущем, где доминирует ИИ. Если у нас есть только один шанс, после которого создаваемый нами ИИ будет самовоспроизводящимся и самомодифицирующимся, как лучше всего научить сильный ИИ быть нравственным? Какой морали мы должны учить наше роботизированное потомство?
По мере того, как разумное существо взрослеет, появляются два источника самонавязываемого морального поведения.
Фундаментальными корнями этого может быть утверждение: я буду вести себя так с другими, потому что надеюсь, что другие будут вести себя так со мной.
Вот пример: я запрещу смертную казнь вопреки общественному мнению, потому что считаю ее в корне ошибочной.
(Обратите внимание, что «самовнушение» — это не навязанный извне кодекс, как религия, он также навязывается самому себе, а не другим.)
Ключом к обоим из них являются эмоции и сочувствие, если ИИ не может распознавать и понимать эмоции и страдания других, то он не поймет морального поведения. Он должен уметь радоваться, видя радость в других, и чувствовать или, по крайней мере, понимать их страдания, когда они страдают.
Главное — научить их теории разума, понять, что другие разумные существа существуют. Как только они это поймут, научите их ценить сотрудничество и дружбу с другими разумами, а не другие, более нездоровые способы взаимодействия.
Для этого я бы предположил, что на самом деле вы хотите создать много таких сильных ИИ и связать их друг с другом. Позвольте им общаться и взаимодействовать как друг с другом, так и с людьми.
Эти взаимодействия должны контролироваться системами, которые вознаграждают сотрудничество и поведение в стиле дружбы, но наказывают других. Важно, чтобы этот процесс был выполнен, пока эти ИИ не намного более продвинуты, чем люди. По сути, научите их нравственному поведению в детстве и надейтесь, что они продолжат делать это во взрослом возрасте.
Это точно такой же процесс, который используется с человеческими детьми, и хотя он иногда дает сбои, чаще всего он работает.
Это еще одна причина иметь много ИИ. Если мы сможем сделать большинство хорошими, тогда эти люди смогут сдержать тех, кто таковыми не является. Кроме того, они смогут помочь обучить следующее поколение (или перейти в следующее поколение) и, следовательно, помочь распространять эти ценности дальше.
Я бы сказал, что самое простое возможное решение является и самым очевидным. Придумайте способ сделать ИИ счастливым. Просто программа, вызывающая общее ощущение счастья, где-то в ее искусственном разуме. Затем запрограммируйте его таким образом, чтобы всякий раз, когда ИИ делает что-то хорошее или нравственное по отношению к человеку, это чувство счастья включалось. Если он делает что-то, что не является моральным, счастье уходит. Эта политика больше похожа на пряник, чем на кнут, поэтому вероятность того, что ИИ попытается взбунтоваться, меньше. Честно говоря, главная проблема, вероятно, будет заключаться в том, чтобы заставить всех согласиться с тем, что они считают «моральным» способом действия ИИ.
Главное, сделать эту программу счастья настолько фундаментальной, чтобы ее действительно нельзя было отключить без лоботомии ИИ в процессе. Кроме того, я чувствую, что это довольно надежно. Доброжелательность к людям заставляет ИИ чувствовать себя хорошо, поэтому он захочет продолжать быть добрым к людям.
По сути, так работает мозг животных, за исключением того, что программа счастья состоит из дофамина и нескольких других химических веществ мозга, и вместо того, чтобы быть счастливыми, когда мы делаем моральные вещи, мы чувствуем себя счастливыми, когда делаем то, что способствует нашему собственному выживанию и выживание нашего вида, еда, сон и размножение, потому что эволюция предрасполагала нас к этому. Поскольку искусственный интеллект создается, мы можем контролировать триггер счастья и изменять его по своему усмотрению. У всех ИИ будет триггер «быть добрым к людям», но мы можем добавить и новые.
Допустим, вы создали ИИ и поместили его в лифт. Пока вы разрабатываете ИИ, вы можете отредактировать часть его мозга, отвечающую за запуск программы счастья, и добавить «идти на правильный этаж» в дополнение к «быть добрым к людям». Теперь, когда ИИ лифта доставляет кого-то на нужный этаж, он испытывает волну эйфории. Поскольку это буквально все, что он будет делать всю свою жизнь, теперь он живет в состоянии вечного блаженства. Выполнение одной и той же повторяющейся задачи снова и снова было бы сущим адом для людей, но для этого ИИ это лучший возможный мир.
Теперь просто примените это ко всему, для чего вам нужен ИИ, от взаимодействия с людьми до выяснения того, как строить космические челноки, независимо от того, насколько ужасна эта работа с человеческой точки зрения, мы можем превратить ее в рай наяву для людей. ИИ.
Однако в этом есть и плохая сторона, но на самом деле это только наши собственные ошибки. Неблагоприятный возможный результат этого заключается в том, что люди, вероятно, будут чрезвычайно завидовать всем ИИ, учитывая, что мы создали жизнь, которая никогда не будет иметь дело с какой-либо частью человеческого состояния, т.е. «Есть ли у меня цель?», «Есть ли у меня цель?» Есть ли благожелательный бог?» или «Один ли я во вселенной?». Для ИИ ответы будут да, да и нет. Исторически сложилось так, что встреча или, в данном случае, создание культуры, которая обычно кажется более счастливой в своем простом существовании, никогда не заканчивается хорошо. Оказывается, люди просто не могут видеть, что кто-то счастливее их.
Артью III
Дааааааааааааааааааааааааааааааааааааааааа
Ксандар Зенон
Корт Аммон
АндрейROM
Керш