В рамках утилитаризма, как я должен проводить исследования, если я не знаю, этично ли они?

Позвольте мне начать с примера.

Предположим, я ученый-компьютерщик, работающий над автономным, человекоподобным (по крайней мере, в некоторых аспектах) искусственным интеллектом, который должен взаимодействовать с людьми, принимать важные автономные решения и т. д. Не вдаваясь в подробности, существует множество открыты этические вопросы в отношении этого вопроса, и некоторые люди утверждают, что (по разным причинам) создание человекоподобного ИИ было бы аморальным , и (что следует далее) само исследование (даже если оно не связано с каким-либо реальным созданием) также аморально. , так как приближает нас к ее реализации (как, скажем, исследования ядерной бомбы). Я не собираюсь обсуждать эти аргументы здесь.Однако я думаю, что мы можем согласиться с тем, что проблема очень спорная, что нет общепризнанного авторитета или этического стандарта, к которому мы могли бы обратиться, и поэтому неясно , является ли работа над ИИ моральной или нет.

Учитывая ситуацию, которую я только что описал: морально ли (для меня) работать над человекоподобным ИИ, если я не знаю, морально ли это?

Если я инженер, строящий мост, я не обязан знать точное доказательство каждого используемого мной математического уравнения; тем не менее, я должен, по крайней мере, указать на надежный учебник, где можно найти доказательство. Если я психолог-экспериментатор, то есть комиссия, которая решит, этичен мой план эксперимента или нет. Я полагаю, что существует общее мнение, что, что бы я ни делал, я должен «делать свою домашнюю работу», но в обоих упомянутых случаях есть более высокая инстанция, которой я могу доверять. Однако, если такого случая не существует, каковы мои моральные обязательства? Должен ли я сначала стать экспертом по этике ИИ, чтобы иметь возможность принять наилучшее возможное решение, прежде чем я смогу продолжить свои исследования (или отказаться от них)?


Я выбрал приведенный выше пример, потому что он имеет отношение к моей ситуации, а также представляет собой сложную и практически важную проблему. И все же я хотел бы задать свой вопрос гораздо более общим образом: морально ли делать что- либо, не зная, морально это или нет?

Для ясности: очевидно, я не утверждаю, что можно определить достоверность нормативных утверждений эмпирическим или априорным способом. Под «знанием морали» я подразумеваю получение наилучшего возможного обзора существующих аргументов и принятие наиболее взвешенного и беспристрастного решения относительно того, что кажется правильным.

Я хотел бы услышать веские аргументы за и против в рамках утилитаризма.

С вашим определением «знания морали» вопрос сводится к «Нравственно ли делать что-то, не анализируя, что другие люди думают об этой морали?» Получение наилучшего совета перед тем, как что-то сделать, если это возможно, кажется благоразумным и эффективным независимо от морали, поэтому действительно ли стоит вопрос, должны ли мы учитывать моральные мнения других людей при формировании собственного? Ответ «да» не кажется очень спорным. Более провокационным был бы вопрос, что делать, если даже после всех размышлений все еще не известно (в обычном смысле), морально это или нет.
@Conifold Если вы смотрите на вещи таким образом, вся философия сводится к тому, «что думают другие люди» (что, к счастью, не так).
Что меня озадачивает, так это то, что вы, кажется, спрашиваете, следует ли выслушать то, что говорят другие люди, а не что делать, если после этого вы все еще искренне не уверены.
Когда я не уверен из-за своего невежества, у меня есть несколько вариантов. Я могу просветить себя, но это обычно дорого обходится - поэтому выбор интересен. Когда у меня заканчиваются варианты, я не думаю, что это больше интересно. Если бы я сделал все, что мог, но все еще не уверен, все, что я мог бы сделать, это либо выбрать случайным образом, либо использовать какую-то практическую эвристику, но это уже не этическая проблема.
Вы не путаете мораль и этику?
@gnasher729 Возможно. Не могли бы вы уточнить?
Этот вопрос потребует очень длинного ответа без привязки к конкретному фреймворку. Можете ли вы выяснить, является ли ваше основное мировоззрение утилитарным, деонтологическим, этическим добродетелью или чем-то еще?
@virmaior Меня здесь больше всего интересует утилитарная точка зрения.
@machareus: После ваших разъяснений я решил оставить комментарий, но он был слишком длинным. Прошу прощения за то, что не привел существенных философских цитат, но вы можете найти много мифов о неудобных требованиях, которые приходят вместе со знанием (типичный пример в иудео-христианских традициях: Адам и Ева теряют свою невинность и утешение после того, как вкусили плод знания). Вы, вероятно, попали в точку своим замечанием , похоже, что большинство людей вообще не думают о долгосрочных последствиях своей работы . Суть такова: вопрос не в других, а в вопросе ответа
Пожалуйста, не используйте ответы для ответа. Либо поместите его в комментарий, либо отредактируйте исходный ответ.

Ответы (2)

Ясно, что вы задаете вопрос с точки зрения прикладной («практической») философии. Насколько я понимаю, вы обеспокоены проведением исследований в области, где еще неизвестно, этично это или нет. Вот как бы я подошел к делу.

  1. Если кто-то задается вопросом, следует ли « делать » (активно проводить это исследование) или « не делать » (воздерживаться), он может попасть в заблуждение: «исключенное среднее». Вероятно, есть что-то промежуточное, что можно сделать , чтобы выйти из этой ситуации нерешительности. Могу ли я лучше определить (расширить), что означает « этический » в данном конкретном случае применения? По каким критериям можно судить об этом? Например: при подходе «двух колонок» (плюс/минус) кто или что может получить пользу, а кто или что может пострадать, как и почему?

  2. Если кто-то еще не может принять решение на этой основе, следующим шагом может быть поиск: каких данных мне не хватает, чтобы принять решение ? Таким образом, нужно было бы выяснить (что является действием исследования ). Помимо изучения существующей литературы по этому вопросу (что вы, кажется, в некоторой степени сделали), вы могли бы, например, также попробовать пилотную работу : т. е. небольшой эксперимент , который позволил бы проверить, является ли он «этичным» или нет. (согласно используемому вами определению) -- и если окажется, что оно не работает, причинит как можно меньше вреда (аналогом могут быть клинические испытания нового лекарства).

  3. Предостережение заключается в том, что некоторая информация или мнения могут быть предвзятыми, необоснованными или просто ложными . Не потому, что какой-то (научный, религиозный, моральный, юридический, академический и т. д.) авторитет говорит, что «ИИ — это хорошо или плохо», нужно принимать это во внимание, если это просто не соответствует действительности. Это может быть вопросом личной неприкосновенности . В том, как вы формулируете вопрос, сила наблюдения и суждения не может принадлежать никому другому, кроме вас . Это кантовский принцип sapere aude , «смейтесь знать», или «думайте сами», путем освобождения себя от авторитета других (см. его знаменитое эссе « Что такое Просвещение? »).

  4. Вопрос о том, соответствует ли это личное суждение господствующей морали , становится второстепенным. В принципе , на личную неприкосновенность человека не должен влиять тот факт, что его позиция противоречива или нет (это может относиться к отстаиванию своих убеждений ). Однако на практике возникает вопрос, найдете ли вы общее одобрение или неодобрение своей этической позиции (в этом эссе интересно посмотреть, как Кант подходит к этому вопросу в отношении как религиозной, так и монархической власти). Если бы вы получили столько неодобрения, что это отрицательно сказалось бы на вашем благополучии, тогда вам пришлось бы решить, что делать.об этом: сдаться, выждать время или дать отпор (например, заняться защитой интересов) и т. д.? Разве не оказалось, что вам будет лучше делать (или не делать) то, что вы считаете правильным, не заботясь о мнении других людей?

Суть в том, что то, что вы лично наблюдали и оценивали , может иметь значение в первую очередь. То, что думают другие, имеет второстепенное значение с моральной (социальной) точки зрения. Тогда, напрягая их, вы можете найти выход из затруднительного положения.

То, что вы говорите, конечно, очень разумно. Но позвольте мне взять более точный пример, чтобы продемонстрировать, что я имею в виду. Предположим, я хочу построить продвинутую машину и подозреваю, что она может стать способной к сознательным чувствам (как люди); предположим, я считаю его строительство неэтичным, если это действительно так. Но откуда мне знать? Что такое сознание, как оно может появиться (если вообще появится) в машине? Должен ли я сначала изучить философию / когнитивную науку / что-то еще, чтобы сделать хотя бы обоснованное предположение, прежде чем продолжить свои инженерные исследования? А если на это уйдут годы? Это моя обязанность?
Обязательство рождается через закон или договор (или обещание). Хотя мне не хватает информации о вашей ситуации, в принципе нет причин, по которым кто-то должен был бы быть обязан выбирать карьеру или заниматься проектом. Но, возможно, вы могли бы начать с субъективной точки зрения: какова была ваша мотивация для рассмотрения этого проекта в первую очередь? Что вызвало у вас опасение , что это может иметь неблагоприятные последствия?
Я не говорю, что обязанность универсальна, но как более-менее нормальный человек, живущий в обществе (а именно, западноевропейском), я, конечно, придерживаюсь некоторых основных «стандартных» этических принципов. Ради этого обсуждения давайте также предположим, что я считаю создание сознательного существа неэтичным (может быть, по религиозным или каким-либо другим причинам), что я вообще не разбираюсь в философии, и я, скажем, инженер, нанятый для создания " машина". Поэтому я обязан не строить его, если верю, что он будет сознательным. Но что, если я недостаточно компетентен, чтобы иметь здесь какие-либо убеждения, я просто не знаю?
Я понимаю. Тогда проблема должна быть сформулирована как личная неприкосновенность. Как говорится, знание — это трудный путь, который, если кто-то встал на него, должен пройти весь путь (и это, по-видимому, довольно универсальная метафора). Поскольку вы обнаружили потенциальную проблему, теперь вы обязаны оценить ее. Другого пути, кажется, нет. Если вы не разбираетесь в философии, боюсь, вам придется восполнить этот пробел. Проблема в том виде, в каком вы ее представляете, кажется совершенно нереальной (насколько мне известно, в настоящее время мало надежды вдохнуть жизнь в ИИ), но я предполагаю, что это метафора?
Да, это просто пример, история выдумана. (Однако я не думаю, что искусственное сознание невозможно — есть несколько интересных когнитивных моделей сознания, которые в принципе могут быть реализованы; исследуются и уже строятся искусственные эмоциональные системы). Мне просто было любопытно, не придумали ли специалисты по этике аргумент, который позволил бы избежать такого резкого и, возможно, нежелательного поворота в карьере. Кажется, что большинство людей вообще не думают о долгосрочных последствиях своей работы. Но это уже другая проблема ;)

С чисто утилитарной точки зрения люди несут моральную ответственность действовать таким образом, чтобы приносить «наибольшую пользу наибольшему числу людей».

Но у утилитаристской этики есть 2 большие слабости: 1) определение добра; и 2) количественная оценка добра.

1) Массовый геноцид и чистка генофонда могут быть оправданы установлением величайшего блага человечества. Война оправдывается в этом смысле утилитаризмом.

2) Как вы это измеряете, это уже другой вопрос. Некоторые математически склонные философы пытаются присвоить числовые значения определенным действиям (положительные для хороших вещей, таких как кормление голодного человека, или отрицательные для плохих вещей, таких как убийство кого-то). Это оправдание для человека, который приносит себя в жертву выжившим после авиакатастрофы.

Я предлагаю вам поискать ответ в другом месте. Лично я аморалист... Я не верю, что мораль универсальна и нашему обществу она не нужна для функционирования. Нам особенно не нужно пытаться присвоить им математические значения, чтобы позволить компьютеру принимать эти важные решения за нас.

Что касается разработки ИИ, я вижу этические дилеммы, возникающие в тот момент, когда вы фактически начинаете писать код, который позволит машине решать, когда закончить человеческую жизнь. Если вы идете в этом направлении, я призываю вас действовать осторожно и обращаться за помощью к другим, особенно к духовному наставнику, знакомому с характером вашей работы. Я бы также посоветовал вам найти кого-нибудь, кто отнял жизнь, солдата, полицейского или кого-то в этом роде.

Надеюсь это поможет.