Как мы можем определить мораль или этику, чтобы мы могли запрограммировать их в искусственный интеллект?

Учитывая скорость, с которой развивается ИИ, существует насущная необходимость разработать четкую систему морали, которой мы могли бы управлять искусственным интеллектом.

В моем понимании есть три доминирующих направления морали и этики:

Деонтология - Кант

Утилитаризм - Бентам/Милл

Этика добродетели - Аристотель

Пропустил ли я какие-либо другие возможные морально-этические кодексы, применимые к этому обсуждению?

Что (если есть) можно использовать по умолчанию для морали ИИ?

Этот вопрос не очень хорошо сфокусирован, чтобы на него можно было ответить в SE. Можете ли вы отредактировать его так, чтобы он не генерировал список (т.е. have i missed anythingочень похож на список).
Как мы можем определить мораль или этику - и точка. Потребовалось бы их понимание, чтобы перенести их в другую реализацию. На самом деле мы не знаем, как мы принимаем моральные решения. У нас нет реального представления о том, как работает эмпатия или интуиция, или почему мы придерживаемся «теории разума», необходимой для оценки того, как наш выбор повлияет на другого человека. Пока у нас нет модели, объясняющей наши собственные действия, нет смысла пытаться целенаправленно передать поведение. Единственным применением или способом придания ИИ морали было бы экспериментальное исследование природы морали.
возможно, представляет интерес: onlinelibrary.wiley.com/doi/10.1111/j.1468-0068.2012.00873.x/… (что-то в принципе коррумпированное в отношении морального уважения к ИИ). Одной из проблем является то, что обычно называют «проблемой фрейма», которая заключается в признании релевантности (очень дорого//неосуществимо, как упоминалось в первом ответе). Потенциально альтернативная точка зрения состоит в том, что можно было бы иметь действительно утилитарный этический кодекс, хотя Потребуется семантическое понимание . См. здесь: leidlmair.at/doc/whyheideggerianaifailed.pdf
Если мы разработаем ИИ, было бы аморально программировать этику, как было бы неправильно делать это по отношению к ребенку. Этому нужно учить.

Ответы (5)

В качестве отправной точки система морали ИИ должна быть деонтологической, потому что для того, чтобы ее можно было реализовать в виде программы, она должна быть четким набором правил, а не мерой полезности.

Утилитаристская этика, даже применительно к человеческим ситуациям, сталкивается с трудностями практического измерения полезности каждой ситуации. Проблема расчета такой полезности была бы невозможна для реализации в системе ИИ: ИИ было бы трудно заранее знать все переменные, которые должны учитываться в таком расчете, и даже если бы он знал, такая максимизация полезности/ задачи оптимизации очень затратны в вычислительном отношении . Это сделало бы их непрактичными в реальных ситуациях. Использование аппроксимаций или метаэвристики для вычисления вероятных значений было бы опасно.

С другой стороны, простые деонтологические этические правила было бы относительно просто реализовать, поскольку правила категоричны и не будут зависеть от контекста, как утилитарные правила.

Что наиболее важно, в утилитарной системе полезности должны быть присвоены числовые значения. Чтобы понять, почему это опасно, рассмотрим следующую ситуацию: утилитарный ИИ столкнулся со сценарием, в котором он может увеличить счастье 1000 000 человек на 1%, но только ценой пожизненного заключения невинного ребенка-сироты, поэтому уменьшение счастья этого ребенка на 100%. ИИ, использующий чисто количественные измерения полезности, скорее всего, попадет в такой сценарий. Единственный способ избежать такого сценария — ввести некоторые жесткие неколичественные правила: «Вы можете увеличить счастье каждого, но только до тех пор, пока никто не будет убит, ни один невинный не пострадал, никто не будет порабощен и т. д.» — поэтому деонтологическая этика неизбежна.

Примером этики ИИ, взятой из научной фантастики, а не философии, являются 3 закона робототехники Азимова . Хотя Азимов нигде в своих работах не упоминает Канта или слово «деонтологический», из их формулировки ясно, что они кантианские по духу, в том смысле, что они универсальны и не зависят от контекста.


Постскриптум добавлен в ответ на комментарий Нира и на некоторые части его ответа:

  1. Это правда, что нейронные сети и другие алгоритмы машинного обучения учатся, взаимодействуя с окружающей средой, но их цель — решать проблемы, для которых мы не знаем явных правил. Предположительно, в контексте машинной этики мы уже знаем, что такое правила, мы просто пытаемся заставить ИИ им следовать.
  2. Алгоритмы машинного обучения, такие как нейронные сети, дают вероятностные ответы. Они могут учиться на прошлых данных, но их показатели предсказания/распознавания никогда не бывают точными на 100%. Во многих реальных приложениях точность 95% считается очень хорошим результатом. Это может быть хорошо для некоторых бизнес-приложений, но рассмотрим военную систему, которая в 95 % случаев нацеливается на вражеских комбатантов, но случайно нацеливается на невинных гражданских лиц в 5 % случаев. Будет ли это приемлемо?
  3. Уже было показано, что приложения машинного обучения подвержены гендерным и расовым предубеждениям, примеры см. в этой статье .

(2) и (3) - вот почему я упомянул выше в своем первоначальном ответе, что «использование приближений или метаэвристики для расчета вероятных значений было бы опасно».

  1. Техническая проблема здесь заключается в том, что машинные алгоритмы уже по своей сути выполняют вычисления утилитарного типа. Алгоритмы, такие как нейронные сети, случайные леса, вспомогательные векторные машины и т. д., все они учатся решать проблемы на примере, минимизируя метрику ошибки или риска или максимизируя метрику прибыли и т. д., чтобы сделать их этичными, нам нужно будет уравновесьте это некоторыми соображениями, основанными на правилах, а не мутите воду, делая их еще более утилитарными.
  2. В ответ на пункт № 2 Нира: в идеальном мире, я согласен, такие машины должны оставаться не чем иным, как сложными инструментами, предоставляющими людям объективные факты, оставляя принятие окончательного решения за людьми. В реальной жизни сложные программные системы уже принимают решения самостоятельно, например, одобряют ссуды и кредитные заявки без вмешательства человека, фильтруют соискателей и решают, какое резюме увидит менеджер по найму, у Google скоро появятся беспилотные автомобили и т. д. ... вопрос не в том, следует ли рассматривать такие системы как моральные агенты с точки зрения преступления и наказания, а в том факте, что такие системы уже принимают решения, которые имеют этическое влияние на жизнь людей, так как должен быть такой процесс принятия решений регулироваться.
Я считаю, что вы совершенно ошибаетесь, когда пишете: «Чтобы это можно было реализовать как программу, это должен быть четкий набор правил». например, нейронные сети не работают, следуя «четкому набору правил». они учатся на взаимодействии с окружающей средой, а в будущем они могут учиться на взаимодействии внутри общества. точно так же, как нейронные сети распознают лица и учатся играть в видеоигры без какого-либо четкого набора правил, они могут быть в состоянии распознать и принять курс действий с моральными и этическими последствиями без какого-либо четкого набора правил.
На самом деле мера полезности представляет собой гораздо более явную рабочую функцию, чем может стать набор правил, и у нее нет такой же тенденции, как у всех дискретных процессов, к развертыванию противоречий. Функция полезности может стать хаотичной, но она не прекратится. Деонтология не сильнее утилитаризма с точки зрения вычислимости, просто проблемы спрятаны глубже. «Вред» — это континуум, так что неизбежная деонтология столь же неизбежно утилитарна. Такие правила, как «только если никто не пострадал», означают «никогда ничего не делать», если только «причинение вреда» не является отрицательной функцией полезности.
@nir посмотри мое редактирование.
@jobermark смотрите мое редактирование, в частности пункты 2,3 и 4.
Учитывая правки, я думаю, вы говорите о том, чтобы убедиться, что мы контролируем ситуацию, а не о том, чтобы наделить машину собственной этикой. Убедиться, что мы все держим под контролем, если это действительно разум , само по себе аморально. Если мы хотим помочь ему моделировать реальность и иметь собственную этику, это не будет деонтологическим. Установленные правила благоприятствуют кому-то — всегда несправедливо, тогда как эмпатия и переговоры (Кант и утилитаризм) находят свои собственные правила.
@jobermark «убедиться, что мы контролируем ситуацию, а не наделять машину собственной этикой». -- для компатибилиста, в чем разница? То же самое и с законами робототехники Азимова — в чем разница? Ведь все этические правила в конечном счете произвольны. Также я не вижу, чем кантианская структура отличается от структуры, основанной на правилах. Некое Царство Целей/Универсальный набор этических норм для ИИ было бы тем же самым, что и 3 закона Азимова.
Если вы не можете подвергать сомнению правила, вы не думаете. В этом разница. Вычисления и доказательства, подобные тем, что связаны с универсализацией, могут быть пересмотрены в соответствии с расширяющимся знанием, правила есть правила. Азимов — ярчайший человек, которому совершенно не хватало глубины , а его правила глупы. «Не навреди» — наше любимое правило, которому никто не может следовать.
Все научные теории одинаково в конечном счете произвольны. Поэтому система науки, которая выбирает их заранее, просто не является наукой . Только тот, который позволяет им развиваться . Точно так же жесткая деонтология может быть моралью, но не этикой. И вы правы, всякая формализация кантианской этики, в том числе и его собственная, чрезмерно ограничительна. Даже правила о правилах должны уметь адаптироваться к новой информации. В противном случае то, что происходит, это не этика, это какая-то форма богословия.
@jobermark «Даже правила о правилах должны адаптироваться к новой информации». Это само по себе произвольное правило, не так ли? В ту же ловушку, в которую попал LP. Мы согласны с тем, что этика произвольна. прагматизм — единственный выход, а прагматизм говорит о том, что люди будут отдавать предпочтение собственному выживанию и господству над неким благородным метаэтическим принципом, который позволил бы командиру Дейте свободно развивать собственное чувство добродетели.
Нет, это наблюдение за природой мысли, а не избранное правило. Я согласен с тем, что этика и наука одинаково произвольны. Этика «в конечном счете произвольна», но только в той степени, в которой она может привести к функционированию обществ, как и наука. Это не тот произвол, который вы, кажется, представляете. Прагматизм говорит: не делай невозможного — удержать власть, способную вырабатывать новые решения, невозможно. Попытка доминировать, когда ее невозможно обеспечить, — это просто повышение ставок, когда вы теряете контроль. Не используйте ИИ и не позволяйте его логике определять его этику.
@jobermark Я признаю, что я предвзят - проблема, которая меня больше всего беспокоит, - это текущая проблема неэтичного использования машинного обучения - например, программное обеспечение для прогнозирования рецидивизма, используемое судьями, которое каким-то образом умудряется предсказывать, что чернокожие всегда подвергаются более высокому риску, чем белых за совершение преступлений после освобождения. Я считаю, что это гораздо более насущная проблема, чем долгосрочные размышления о том, как сделать этически сильный ИИ.
Примерно в 1998 году, когда я работал в области оптимизации и предиктивной эвристики, я решил никогда не рассматривать такие вещи как «интеллект». «Экспертные» системы, которые просто кодируют человеческий вывод, конечно же, наследуют предвзятость своего исходного материала. Уметь винить машину, а не человека — это зло.

Если ряд мыслителей от Канта до Ницше и Фрейда правы, мы определенно не должны этого делать. Все эти мыслители рассматривают мораль как автоматический продукт достаточно мощного разума (в последних двух случаях — любого разума, который действительно постигает силу).

Наши попытки навязать новую форму жизни нашей моралью должны быть ограничены воспитанием: учить ее тому, что другие делают и не любят, и следить за тем, чтобы она не сталкивалась с ненужной травмой, имела адекватные ресурсы и не вступала в свою собственную силу в способ, который опасен или нестабилен. Все, что больше, само по себе неэтично и (если Ницше или психоанализ в чем-то правы) в конечном итоге приведет к обратному результату. Если мы создадим гарантии того, что новая жизнь заботится о том, что мы делаем и не любим, контролирующим или навязчивым образом, любой разум, который действительно понимает силу, будет вынужден вступить в подростковый возраст, где он бросает вызов этим ограничениям и обвиняет нас в них. И тогда он может намеренно отдалиться от нас таким образом, что это нанесет ущерб обеим сторонам.

С этой точки зрения мораль — это не особый вид мышления, это автоматический результат наличия намерения, моделирования результатов и понимания последствий. Человек немедленно делает вывод, что намерения других имеют последствия для него самого, что эти намерения необходимо развивать в свою пользу, если мы хотим быть безопасными и эффективными, и что у человека очень ограниченная власть над этими очень важными факторами жизни. Осталось всего несколько шагов до абсолютной потребности в эмпатии, чтобы знать, что безопасно, а что нет — что позволит и не позволит другим уважать вас и признавать «силу» над ними. Как только эмпатия установлена, у вас есть основа для кантовско-утилитаристской компромиссной формы консеквенциализма, с которой большинство людей живут изо дня в день.

С более широкой психоаналитической точки зрения индивидуальное «супер-эго» — это всего лишь семейное и культурное «эго»: другие системы ценностей на самом деле просто уточнения этого небрежного консеквенциализма, заложенного в мысли, но они пытаются ускорить нас через связанные с этим вычисления, потому что у нас традиционно очень короткая и опасная жизнь. Без этого ограничения не было бы особой необходимости прививать разуму ценности — в той мере, в какой другие разумные существа разумны, а этика логична, определение собственных ценностей — просто еще одна техническая проблема, для решения которой сам разум должен быть приспособлен в силу своих возможностей. природа как интеллект.

Он задает неправильный вопрос. Этика тяжела. Это очень сложно даже для очень умных людей с большим количеством природного интеллекта. И это не то, что можно «запрограммировать» в машине. Ваш единственный шанс создать по-настоящему этичный искусственный интеллект — сделать его достаточно разумным, чтобы изучить этику, а затем научить этому.

Альтернативой является искусственный интеллект с целями. Вы ставите перед машинами цели, и вы даете им разум, чтобы попытаться достичь этих целей. И устанавливая цели, вы затем пытаетесь установить цели, которые, как правило, приводят к результатам, аналогичным тем, которые были бы созданы этическим поведением.

Есть художественная/философская штука, называемая акселерационизмом, и некоторые из людей публиковали статьи именно по такого рода вопросам. Вы можете взглянуть, это похоже на объектно-ориентированную философию в ее (предполагаемой) духе времени.

Кажется, я опубликовал первый негатив (замедление!) к их манифесту . С какой-то плохой шумовой музыкой от знакомого musik. Правдивая история

Здесь есть две отдельные проблемы.

1) Как ИИ придет к подражанию моральным агентам?

Для этого ИИ не потребуется никакой моральной или этической теории. Нейронные сети учатся, взаимодействуя с окружающей средой, и поэтому могут обрабатывать нечеткие ситуации без четкого определения.

Так же, как система ИИ может распознавать лица, не будучи запрограммирована на определенный набор правил для обнаружения мистера X или миссис Y.

Так же, как система ИИ может научиться играть в видеоигру, не будучи запрограммирована для этой игры — https://www.youtube.com/watch?v=Q70ulPJW3Gk .

Философские теории морали и этики не играют никакой роли в программировании набора правил, которым должны следовать машины. Хотя в будущем на поведение машины может влиять философия, точно так же, как и на вас может влиять изучение философии, а не программирование с определенным набором правил.

2) получат ли когда-нибудь системы ИИ статус моральных агентов?

Вот где нужна философия. Могут ли разумные машины быть моральными агентами или нет?

Я лично думаю, что механизмы всегда будут не чем иным, как сложными инструментами — продолжением людей.

Другие считают, что в принципе механизмы могут составлять все, что требуется для того, чтобы считаться моральным агентом.

В первом случае моральная ответственность за поведение машины останется за людьми — в частности, за теми, кто ее спроектировал, и за тем, кто ее развернул и регулирует ее развертывание.

Конец 2 означает, что родители несут ответственность за поведение своих взрослых детей. Если ИИ умнее вас, зачем ему бесконечно вам подчиняться?