Учитывая скорость, с которой развивается ИИ, существует насущная необходимость разработать четкую систему морали, которой мы могли бы управлять искусственным интеллектом.
В моем понимании есть три доминирующих направления морали и этики:
Деонтология - Кант
Утилитаризм - Бентам/Милл
Этика добродетели - Аристотель
Пропустил ли я какие-либо другие возможные морально-этические кодексы, применимые к этому обсуждению?
Что (если есть) можно использовать по умолчанию для морали ИИ?
В качестве отправной точки система морали ИИ должна быть деонтологической, потому что для того, чтобы ее можно было реализовать в виде программы, она должна быть четким набором правил, а не мерой полезности.
Утилитаристская этика, даже применительно к человеческим ситуациям, сталкивается с трудностями практического измерения полезности каждой ситуации. Проблема расчета такой полезности была бы невозможна для реализации в системе ИИ: ИИ было бы трудно заранее знать все переменные, которые должны учитываться в таком расчете, и даже если бы он знал, такая максимизация полезности/ задачи оптимизации очень затратны в вычислительном отношении . Это сделало бы их непрактичными в реальных ситуациях. Использование аппроксимаций или метаэвристики для вычисления вероятных значений было бы опасно.
С другой стороны, простые деонтологические этические правила было бы относительно просто реализовать, поскольку правила категоричны и не будут зависеть от контекста, как утилитарные правила.
Что наиболее важно, в утилитарной системе полезности должны быть присвоены числовые значения. Чтобы понять, почему это опасно, рассмотрим следующую ситуацию: утилитарный ИИ столкнулся со сценарием, в котором он может увеличить счастье 1000 000 человек на 1%, но только ценой пожизненного заключения невинного ребенка-сироты, поэтому уменьшение счастья этого ребенка на 100%. ИИ, использующий чисто количественные измерения полезности, скорее всего, попадет в такой сценарий. Единственный способ избежать такого сценария — ввести некоторые жесткие неколичественные правила: «Вы можете увеличить счастье каждого, но только до тех пор, пока никто не будет убит, ни один невинный не пострадал, никто не будет порабощен и т. д.» — поэтому деонтологическая этика неизбежна.
Примером этики ИИ, взятой из научной фантастики, а не философии, являются 3 закона робототехники Азимова . Хотя Азимов нигде в своих работах не упоминает Канта или слово «деонтологический», из их формулировки ясно, что они кантианские по духу, в том смысле, что они универсальны и не зависят от контекста.
Постскриптум добавлен в ответ на комментарий Нира и на некоторые части его ответа:
(2) и (3) - вот почему я упомянул выше в своем первоначальном ответе, что «использование приближений или метаэвристики для расчета вероятных значений было бы опасно».
Если ряд мыслителей от Канта до Ницше и Фрейда правы, мы определенно не должны этого делать. Все эти мыслители рассматривают мораль как автоматический продукт достаточно мощного разума (в последних двух случаях — любого разума, который действительно постигает силу).
Наши попытки навязать новую форму жизни нашей моралью должны быть ограничены воспитанием: учить ее тому, что другие делают и не любят, и следить за тем, чтобы она не сталкивалась с ненужной травмой, имела адекватные ресурсы и не вступала в свою собственную силу в способ, который опасен или нестабилен. Все, что больше, само по себе неэтично и (если Ницше или психоанализ в чем-то правы) в конечном итоге приведет к обратному результату. Если мы создадим гарантии того, что новая жизнь заботится о том, что мы делаем и не любим, контролирующим или навязчивым образом, любой разум, который действительно понимает силу, будет вынужден вступить в подростковый возраст, где он бросает вызов этим ограничениям и обвиняет нас в них. И тогда он может намеренно отдалиться от нас таким образом, что это нанесет ущерб обеим сторонам.
С этой точки зрения мораль — это не особый вид мышления, это автоматический результат наличия намерения, моделирования результатов и понимания последствий. Человек немедленно делает вывод, что намерения других имеют последствия для него самого, что эти намерения необходимо развивать в свою пользу, если мы хотим быть безопасными и эффективными, и что у человека очень ограниченная власть над этими очень важными факторами жизни. Осталось всего несколько шагов до абсолютной потребности в эмпатии, чтобы знать, что безопасно, а что нет — что позволит и не позволит другим уважать вас и признавать «силу» над ними. Как только эмпатия установлена, у вас есть основа для кантовско-утилитаристской компромиссной формы консеквенциализма, с которой большинство людей живут изо дня в день.
С более широкой психоаналитической точки зрения индивидуальное «супер-эго» — это всего лишь семейное и культурное «эго»: другие системы ценностей на самом деле просто уточнения этого небрежного консеквенциализма, заложенного в мысли, но они пытаются ускорить нас через связанные с этим вычисления, потому что у нас традиционно очень короткая и опасная жизнь. Без этого ограничения не было бы особой необходимости прививать разуму ценности — в той мере, в какой другие разумные существа разумны, а этика логична, определение собственных ценностей — просто еще одна техническая проблема, для решения которой сам разум должен быть приспособлен в силу своих возможностей. природа как интеллект.
Он задает неправильный вопрос. Этика тяжела. Это очень сложно даже для очень умных людей с большим количеством природного интеллекта. И это не то, что можно «запрограммировать» в машине. Ваш единственный шанс создать по-настоящему этичный искусственный интеллект — сделать его достаточно разумным, чтобы изучить этику, а затем научить этому.
Альтернативой является искусственный интеллект с целями. Вы ставите перед машинами цели, и вы даете им разум, чтобы попытаться достичь этих целей. И устанавливая цели, вы затем пытаетесь установить цели, которые, как правило, приводят к результатам, аналогичным тем, которые были бы созданы этическим поведением.
Есть художественная/философская штука, называемая акселерационизмом, и некоторые из людей публиковали статьи именно по такого рода вопросам. Вы можете взглянуть, это похоже на объектно-ориентированную философию в ее (предполагаемой) духе времени.
Кажется, я опубликовал первый негатив (замедление!) к их манифесту . С какой-то плохой шумовой музыкой от знакомого musik. Правдивая история
Здесь есть две отдельные проблемы.
1) Как ИИ придет к подражанию моральным агентам?
Для этого ИИ не потребуется никакой моральной или этической теории. Нейронные сети учатся, взаимодействуя с окружающей средой, и поэтому могут обрабатывать нечеткие ситуации без четкого определения.
Так же, как система ИИ может распознавать лица, не будучи запрограммирована на определенный набор правил для обнаружения мистера X или миссис Y.
Так же, как система ИИ может научиться играть в видеоигру, не будучи запрограммирована для этой игры — https://www.youtube.com/watch?v=Q70ulPJW3Gk .
Философские теории морали и этики не играют никакой роли в программировании набора правил, которым должны следовать машины. Хотя в будущем на поведение машины может влиять философия, точно так же, как и на вас может влиять изучение философии, а не программирование с определенным набором правил.
2) получат ли когда-нибудь системы ИИ статус моральных агентов?
Вот где нужна философия. Могут ли разумные машины быть моральными агентами или нет?
Я лично думаю, что механизмы всегда будут не чем иным, как сложными инструментами — продолжением людей.
Другие считают, что в принципе механизмы могут составлять все, что требуется для того, чтобы считаться моральным агентом.
В первом случае моральная ответственность за поведение машины останется за людьми — в частности, за теми, кто ее спроектировал, и за тем, кто ее развернул и регулирует ее развертывание.
вирмайор
have i missed anything
очень похож на список).пользователь9166
Андрес Мехиа
Спросите о Монике