Может ли робот, запрограммированный на 3 закона операционной системы, навредить человеку, который наносит вред другому человеку?

Мы видим, что робот может атаковать другого робота, защищая человека, но может ли запрограммированный на 3 закона робот защитить одного человека от другого человека?

Не без нарушения закона. Я бы ответил так, но я не юрист.
Лучше было бы задать такой вопрос: человек, который собирается убить другого человека, и робот может предотвратить это, только убив нападавшего. На мой взгляд, это зависит от сложности робота, согласно ответу Algernon_Asimov.
Вы все должны прочитать "Обнаженное солнце " Азимова, это многое объяснит!
Вопрос в заголовке и вопрос в теле - разные вопросы.
Различные рассказы Айзека Азимова исследуют, что происходит, когда играют с тремя законами. Сюда входят положительные и отрицательные отзывы о различных законах, включая нулевой.
Я подозреваю, что это вызовет исключение переполнения стека...

Ответы (6)

Да, оно может.

Существуют разные способы защиты одного человека от другого человека, нападающего на него.

Для начала робот мог убрать жертву с места нападения: подобрать жертву и убежать от нападавшего.

Робот мог бы просто встать между нападающим и жертвой и заблокировать атаку — пусть атакующий бьет его, а не жертву.

Робот может обездвижить злоумышленника, не причинив ему вреда, например, обхватив его руками, чтобы он не ударил жертву.

Если было задействовано оружие, такое как нож или пистолет, робот мог обезоружить нападавшего, схватив оружие. Если нападавший не выпустил свое оружие, и робот в конечном итоге причинил вред нападающему, это вызвало бы проблемы для робота, и уровень проблемы будет зависеть от размера причиненного вреда.

Есть много способов, которыми робот может защитить человека от нападения, не причиняя вреда атакующему человеку.

Однако, если робот не смог остановить атаку ни одним из вышеперечисленных способов, ему, возможно, придется предпринять более прямые действия. И робот будет защищать жертву настолько далеко, насколько это необходимо, пока не нанесет вред злоумышленнику. В этот момент факт активного причинения вреда человеку перевешивает потенциальный вред жертве, и роботу приходится иметь дело с «виной». Многие роботы просто отключаются в этот момент. Некоторые потеряют ориентацию и потребуют обслуживания. Только очень немногие высокоразвитые роботы (такие, как Дэниел Оливау, Эндрю Мартин или Гискард Ревентлов) смогут справиться с причиненным ими вредом, уравновешивая его вредом, который они предотвратили.

Насколько мне известно, сценарий защиты роботом человека от нападения другого человека встречался только один раз в любом из рассказов Азимова. Чтобы описать это, потребуется спойлерить концовку «Роботы и Империя». Если вы не читали эту книгу и не хотите, чтобы концовка была испорчена, вам придется пропустить оставшуюся часть этого ответа. Извиняюсь!

В этой книге пара людей (космонавтов) сговорилась облучить Землю. У них были разные мотивы: Левулар Мандамус хотел облучать планету медленно, в течение столетий, просто для того, чтобы заставить землян покинуть планету; Келден Амадиро хотел облучить планету быстро, всего за одно-два десятилетия, что убьет миллиарды землян, которые не смогут вовремя покинуть планету.

Два робота, Р. Дэниел Оливо и Р. Жискард Ревентлов, пытаются этому помешать. Они прибывают на место происшествия и обнаруживают, что Амадиро направляет бластер на Мандамуса (пытаясь убедить Мандамуса поступить так, как Амадиро).

Быстрее, чем мог уследить глаз, рука протянулась, чтобы схватить запястье Амадиро, парализовав его давлением, и бластер исчез.

Дэниел сказал: «Я извиняюсь за то, что мне пришлось причинить вам боль, доктор Амадиро, но я не могу позволить вам держать бластер, направленный на другого человека».

Все просто: робот причинил боль одному человеку, чтобы он не причинил вреда или не убил другого человека. По общему признанию, Дэниел был очень продвинутым роботом. Более простые роботы могли бы страдать от замораживания мозга после того, как причинили боль, чтобы предотвратить вред.

Позже Жискар вводит Амадейро в кому (у Жискара есть телепатические способности — долгая история!), когда Амадейро объясняет, что хочет убить землян. И Жискар не страдает от этого действия, но он еще один продвинутый робот. На самом деле, это робот, который изобрел Нулевой закон робототехники: «Робот не должен причинять вред человечеству или своим бездействием позволять человечеству причинять вред». (Он действительно «умирает» от чего-то другого, что он решит сделать позже, потому что он не уверен, что сделал правильный выбор для человечества.)

Это два робота, которые причиняли человеку боль и вред, чтобы помешать ему: убивали видимого и присутствующего человека; убийство многих людей, которых в то время не было и не было видно.

Отличный ответ. Я не вижу никого, кто представил бы лучший или более правильный вариант. Теперь я собираюсь прочитать эту историю для полного контекста.
Во- вторых, я хотел бы только отметить, что пусть атакующий ударил его, вместо жертвы может и, вероятно, причинит вред атакующему из более крупных роботов. Выбрав этот вариант, такой робот технически нарушил бы первый закон с обычными последствиями.
В общем, отличный ответ. Но следует подчеркнуть, что у роботов есть реальные проблемы с причинением вреда людям. В первом появлении Р. Дэниела Оливо он вооружен бластером... с удаленным блоком питания, поэтому нет никаких шансов причинить вред человеку. В «Обнаженном солнце» робот настолько сходит с ума, что его разум разрушается, когда на его глазах убивают человека. (Это действительно безупречно, но это было косвенно, и «вина» была слишком велика.)
Отличный ответ, несколько дополнений: As far as I know, the scenario of a robot defending a human against another human's attack has occurred only once in any of Asimov's stories.ранее в той же книге Жискар также поместил Василию Алиену в кому. (He does "die" from something else he chooses to do later, because he's not sure if he made the right choice for humanity.) [...] ; killing many humans, neither present nor visible at the time.Вы могли бы подробно рассказать о решении Жискара, это очень важно для вопроса.

Чтобы добавить к ответу выше, стоит помнить, что первый Закон гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред ».

Идеальное решение для робота, соответствующего трем законам, — вмешаться таким образом, чтобы предотвратить причинение вреда жертве, но не навредить злоумышленнику, вступив на путь атаки, переместив жертву и т. д.

Если это невозможно, значит, робот поставлен в положение, при котором любая возможная реакция, включая бездействие, будет нарушать Законы. Сможет ли робот пережить это, по-видимому, зависит от двух факторов: насколько сложен его «мозг» и является ли одно нарушение значительно более или менее серьезным, чем альтернатива (альтернативы). Достаточно продвинутый робот выберет образ действий, вызывающий наименьшее нарушение Законов; если его мозг слишком прост или все бреши слишком велики, он замерзнет.

Подразумевается, по крайней мере для меня, что традиционная формулировка Законов на самом деле является лишь приближением, предназначенным для того, чтобы его было легко понять неспециалистам. Реальная реализация, похоже, представляет собой некую функцию оптимизации, в которой высшие законы имеют больший вес, чем низшие. Если робот может решить уравнение для данной ситуации, все в порядке; если он не может, он начинает ломаться.

CL-123X на самом деле убил своего хозяина в рассказе Кэла , который можно найти в GOLD .
Кроме того, я считаю, что были случаи, когда роботы были недостаточно умны, чтобы продумывать ход своих действий, чтобы быстро реагировать, а потом сожалеть.
«Настоящая реализация, похоже, представляет собой некую функцию оптимизации, в которой высшие законы имеют больший вес, чем низшие». Ага. Я помню, как Дэниел объяснял это в какой-то истории. Если бы ему приказали уничтожить себя, он почти наверняка нашел бы способ обойти приказ, что противоречит упрощенному чтению второго и третьего законов.
Азимов прямо обращается к приоритетам Законов в нескольких рассказах, особенно в «Обходе».

Проблема здесь в том, что первый закон, как цитируется, написан со встроенным конфликтом из-за того, что «или» связывает вместе два разных случая. Это позволяет провести представленный здесь мысленный эксперимент.

Если мы не знаем весовой коэффициент между ними (не обязательно 1; 1) и если мы не знаем, как эта конкретная ситуация будет оценена этой конкретной реализацией мозга, мы никогда не сможем ответить на вопрос.

Пример конфликта, который нельзя решить на этом уровне, смотрите в сюжете Обход .

Это вопрос, на который Азимов постоянно давал ответ на протяжении всей жизни, пока он работал над тем, каковы были все следствия трех законов. При этом на первоначальные вопросы можно ответить только «да, но…», потому что позитронный мозг и программирование со временем стали более сложными и изощренными в ответ на события в этой вселенной. Особенно рекомендую рассказ 1941 года "Лжец": http://en.wikipedia.org/wiki/Лжец!_(short_story)

Проблема в том, что законы нужно интерпретировать, поэтому вопрос больше касается реализации (интерпретации того, что является правильным курсом действий) роботизированного интеллекта, особенно в отношении этого первого закона.

Например: Что представляет собой «вред»? Даже малейшая царапина от робота? Это не имело бы смысла для разумного человека, и это основа английского общего права (которое также является основой права США и законов многих других частей мира).

Для этого разумного человека (меня) было бы более разумно интерпретировать закон в таком случае, как вы описываете, что любой «ущерб», причиненный нападающему человеку роботом, не больше, чем тот, который, по всей вероятности, и бездействием робота были нанесены человеку-жертве, которого защищал робот... но тогда возникает дилемма... реального вреда, причиненного потенциальному злоумышленнику, и возможного/вероятного, но неосознанного вреда потенциальной жертве . Другими словами, законы, применимые к действиям роботов, будут такой же большой банкой с червями, как и законы, применимые к людям, и люди, которые получат прибыль, — это юристы. ;-)

Рассмотрим следующую ситуацию: человек А собирается причинить вред (скажем, убить) человеку Б. Робот может помешать этому, только причинив вред человеку А. Например, робот находится за решеткой, но может бросить кирпич.

Первый закон гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Если робот бросит кирпич, он ранит человека А, а если нет, то допустит, чтобы пострадал человек Б. Пока что робот стоит на заборе. Бездействие, вероятно, было бы более безопасным выбором, потому что не может быть стопроцентной уверенности в том, что А не передумает в последний момент.

Однако, если B закричит: «Помоги мне, робот!», действие будет соответствовать 50% первого Закона и второго Закона, а бездействие будет поддерживаться 50% только первого Закона. Это может изменить ситуацию и заставить робота действовать. Любой приказ, исходящий от человека А, даже кажущийся безобидным, например «держись подальше», может быть проигнорирован роботом, поскольку его намерения явно противоречат первому Закону.