Позвольте мне начать с примера.
Предположим, я ученый-компьютерщик, работающий над автономным, человекоподобным (по крайней мере, в некоторых аспектах) искусственным интеллектом, который должен взаимодействовать с людьми, принимать важные автономные решения и т. д. Не вдаваясь в подробности, существует множество открыты этические вопросы в отношении этого вопроса, и некоторые люди утверждают, что (по разным причинам) создание человекоподобного ИИ было бы аморальным , и (что следует далее) само исследование (даже если оно не связано с каким-либо реальным созданием) также аморально. , так как приближает нас к ее реализации (как, скажем, исследования ядерной бомбы). Я не собираюсь обсуждать эти аргументы здесь.Однако я думаю, что мы можем согласиться с тем, что проблема очень спорная, что нет общепризнанного авторитета или этического стандарта, к которому мы могли бы обратиться, и поэтому неясно , является ли работа над ИИ моральной или нет.
Учитывая ситуацию, которую я только что описал: морально ли (для меня) работать над человекоподобным ИИ, если я не знаю, морально ли это?
Если я инженер, строящий мост, я не обязан знать точное доказательство каждого используемого мной математического уравнения; тем не менее, я должен, по крайней мере, указать на надежный учебник, где можно найти доказательство. Если я психолог-экспериментатор, то есть комиссия, которая решит, этичен мой план эксперимента или нет. Я полагаю, что существует общее мнение, что, что бы я ни делал, я должен «делать свою домашнюю работу», но в обоих упомянутых случаях есть более высокая инстанция, которой я могу доверять. Однако, если такого случая не существует, каковы мои моральные обязательства? Должен ли я сначала стать экспертом по этике ИИ, чтобы иметь возможность принять наилучшее возможное решение, прежде чем я смогу продолжить свои исследования (или отказаться от них)?
Я выбрал приведенный выше пример, потому что он имеет отношение к моей ситуации, а также представляет собой сложную и практически важную проблему. И все же я хотел бы задать свой вопрос гораздо более общим образом: морально ли делать что- либо, не зная, морально это или нет?
Для ясности: очевидно, я не утверждаю, что можно определить достоверность нормативных утверждений эмпирическим или априорным способом. Под «знанием морали» я подразумеваю получение наилучшего возможного обзора существующих аргументов и принятие наиболее взвешенного и беспристрастного решения относительно того, что кажется правильным.
Я хотел бы услышать веские аргументы за и против в рамках утилитаризма.
Ясно, что вы задаете вопрос с точки зрения прикладной («практической») философии. Насколько я понимаю, вы обеспокоены проведением исследований в области, где еще неизвестно, этично это или нет. Вот как бы я подошел к делу.
Если кто-то задается вопросом, следует ли « делать » (активно проводить это исследование) или « не делать » (воздерживаться), он может попасть в заблуждение: «исключенное среднее». Вероятно, есть что-то промежуточное, что можно сделать , чтобы выйти из этой ситуации нерешительности. Могу ли я лучше определить (расширить), что означает « этический » в данном конкретном случае применения? По каким критериям можно судить об этом? Например: при подходе «двух колонок» (плюс/минус) кто или что может получить пользу, а кто или что может пострадать, как и почему?
Если кто-то еще не может принять решение на этой основе, следующим шагом может быть поиск: каких данных мне не хватает, чтобы принять решение ? Таким образом, нужно было бы выяснить (что является действием исследования ). Помимо изучения существующей литературы по этому вопросу (что вы, кажется, в некоторой степени сделали), вы могли бы, например, также попробовать пилотную работу : т. е. небольшой эксперимент , который позволил бы проверить, является ли он «этичным» или нет. (согласно используемому вами определению) -- и если окажется, что оно не работает, причинит как можно меньше вреда (аналогом могут быть клинические испытания нового лекарства).
Предостережение заключается в том, что некоторая информация или мнения могут быть предвзятыми, необоснованными или просто ложными . Не потому, что какой-то (научный, религиозный, моральный, юридический, академический и т. д.) авторитет говорит, что «ИИ — это хорошо или плохо», нужно принимать это во внимание, если это просто не соответствует действительности. Это может быть вопросом личной неприкосновенности . В том, как вы формулируете вопрос, сила наблюдения и суждения не может принадлежать никому другому, кроме вас . Это кантовский принцип sapere aude , «смейтесь знать», или «думайте сами», путем освобождения себя от авторитета других (см. его знаменитое эссе « Что такое Просвещение? »).
Вопрос о том, соответствует ли это личное суждение господствующей морали , становится второстепенным. В принципе , на личную неприкосновенность человека не должен влиять тот факт, что его позиция противоречива или нет (это может относиться к отстаиванию своих убеждений ). Однако на практике возникает вопрос, найдете ли вы общее одобрение или неодобрение своей этической позиции (в этом эссе интересно посмотреть, как Кант подходит к этому вопросу в отношении как религиозной, так и монархической власти). Если бы вы получили столько неодобрения, что это отрицательно сказалось бы на вашем благополучии, тогда вам пришлось бы решить, что делать.об этом: сдаться, выждать время или дать отпор (например, заняться защитой интересов) и т. д.? Разве не оказалось, что вам будет лучше делать (или не делать) то, что вы считаете правильным, не заботясь о мнении других людей?
Суть в том, что то, что вы лично наблюдали и оценивали , может иметь значение в первую очередь. То, что думают другие, имеет второстепенное значение с моральной (социальной) точки зрения. Тогда, напрягая их, вы можете найти выход из затруднительного положения.
С чисто утилитарной точки зрения люди несут моральную ответственность действовать таким образом, чтобы приносить «наибольшую пользу наибольшему числу людей».
Но у утилитаристской этики есть 2 большие слабости: 1) определение добра; и 2) количественная оценка добра.
1) Массовый геноцид и чистка генофонда могут быть оправданы установлением величайшего блага человечества. Война оправдывается в этом смысле утилитаризмом.
2) Как вы это измеряете, это уже другой вопрос. Некоторые математически склонные философы пытаются присвоить числовые значения определенным действиям (положительные для хороших вещей, таких как кормление голодного человека, или отрицательные для плохих вещей, таких как убийство кого-то). Это оправдание для человека, который приносит себя в жертву выжившим после авиакатастрофы.
Я предлагаю вам поискать ответ в другом месте. Лично я аморалист... Я не верю, что мораль универсальна и нашему обществу она не нужна для функционирования. Нам особенно не нужно пытаться присвоить им математические значения, чтобы позволить компьютеру принимать эти важные решения за нас.
Что касается разработки ИИ, я вижу этические дилеммы, возникающие в тот момент, когда вы фактически начинаете писать код, который позволит машине решать, когда закончить человеческую жизнь. Если вы идете в этом направлении, я призываю вас действовать осторожно и обращаться за помощью к другим, особенно к духовному наставнику, знакомому с характером вашей работы. Я бы также посоветовал вам найти кого-нибудь, кто отнял жизнь, солдата, полицейского или кого-то в этом роде.
Надеюсь это поможет.
Конифолд
махерус
Конифолд
махерус
скрежет729
махерус
вирмайор
махерус
фралау
пользователь2953