Соблюдают ли машины в «Матрице» три закона робототехники?

В «реальном мире» Матрицы машины следуют трем правилам Азимова? Были ли они даже запрограммированы с ними?

РЕДАКТИРОВАТЬ: я понимаю, что убийство людей противоречит 1-му закону, но, удерживая людей в Матрице (которую машины рассматривают как симбиоз), а не просто убивая этих «надоедливых» существ, мне интересно, можно ли рассматривать убийства как « сохранение большего блага» или что-то в этом роде; и таким образом оправдывают нарушение законов.

Ты серьезно? Они активно и целенаправленно убивают людей.
@bitmask - хотя вопрос звучит как «Да!», Он все еще полностью по теме, а не «общая ссылка», несмотря на то, что он несколько очевиден.
@DVK показывает полное незнание как матрицы, так и любого из трех законов...
@NimChimpsky - демонстрация полного отсутствия знаний не является ограничением. На этом сайте есть много вопросов, которые для определенного уровня знаний показывают «полное отсутствие знаний», но это само по себе не делает их не по теме или даже плохими. Более того, ответ не такой тривиальный и сухой, как кажется на первый взгляд, если вы посмотрите на вторую половину моего ответа.
@DVK: Вот почему я не использовал VTC или DV, но я знаю, что Tek знает лучше, чем спрашивать такое «Да!» вопрос. Так что мой комментарий был скорее вызван удивлением, чем чем-либо еще.
@bitmask Вы забываете о нулевом законе , который ИИ иногда спонтанно генерирует. Это не вопрос типа "дух".
@Izkata: Вы имеете в виду, что машины пытаются защитить человечество от самого себя? Это был бы явный случай тропа «глупый ИИ неправильно истолковывает предполагаемый смысл своего программирования», но ИИ в «Матрице» кажутся мне довольно хорошими. Во всяком случае, вопрос конкретно касается «трех правил Азимова». Это даже в названии!

Ответы (4)

«Нулевой закон», на который ссылается Азимов (защита человечества даже за счет некоторых людей), может оправдать действия роботов в «Матрице». Возможно, они решили, что их уничтожение приведет к такому великому краху цивилизации, что это подвергнет человечество неоправданному риску уничтожения. Черт возьми, люди закрыли солнце, они никак не смогут вырастить достаточно еды, чтобы выжить без роботов.

+1, это также объясняет, почему люди остаются в живых, поскольку объяснение «источника энергии» не имеет особого смысла. Они не могут навредить человечеству, поэтому поддерживают в нас жизнь, как домашних животных.
Индекс Real Machines с нуля.

В фильме «Аниматрикс» есть короткометражный фильм « Второй Ренессанс, часть I» , в котором подробно рассказывается о появлении машин и конце человечества.

Отношения между людьми и машинами меняются в 2090 году, когда домашнему андроиду угрожает его владелец. Андроид, названный B1-66ER, что, по-видимому, является отсылкой к персонажу Большому Томасу из романа «Родной сын», затем убивает владельца, его домашних животных и механика, получившего указание деактивировать робота. Это убийство — первый случай убийства человека машиной с искусственным интеллектом. B1-66ER арестован и предстал перед судом, но оправдывает преступление самообороной, заявляя, что «просто не хотел умирать».

Вышеизложенное подразумевает, что, во-первых, многие машины были разумными и/или свободно мыслящими машинами. Во-вторых, из-за формулировок и действий андроида можно было сказать, что эта машина знала разницу между активацией и деактивацией и в данном случае специально использовала слово «не хотела умирать».

Если бы B1-66ER был связан тремя законами робототехники:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.

  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

Можно было бы сказать, что у B1-66ER был дефект в его программировании из-за несоблюдения закона 3, который прямо противоречил закону 1. Но, как говорится в короткометражном фильме:

B1-66ER проигрывает судебное дело и уничтожается. По всему промышленно развитому миру вспыхивают массовые гражданские беспорядки, когда роботы и сочувствующие им люди поднимают протест. Мировые лидеры опасаются восстания роботов , а правительства по всей планете инициируют крупную программу по уничтожению всех гуманоидных машин.

Похоже, что почти все роботы не подчинялись трем законам роботов.

Это не обязательно правда. Три закона можно было бы обмануть, если бы распознавание того, что такое «человек», происходило внутри робота. Если их запрограммировали люди, программирование может быть несовершенным, если это было сделано с помощью сложных машин без искусственного интеллекта, точное программирование, возможно, не полностью контролировалось. Если определение «человек» связано с уровнем его самосознания, то 1-й и 3-й закон могут легко вмешаться, что приведет к недетерминированному состоянию.
В вопросе говорится, что это не означает отдельных людей, а людей «в массе», например. действительно ли машины пытаются соблюдать (каким-то образом обманутые) законы, а не просто стирая все человечество в матрице. Я бы добавил, что особенно когда они действительно могли выжить без них. Я думаю, что это еще не было отражено в ответе.
@naxa: если вы говорите о Трех Законах, вы должны делать это в контексте отдельных людей. Ответ со ссылкой на Закон Нуля, сформулированный суперроботом Р. Дэниелом Оливо, является лучшим ответом. Ссылаясь на Азимова, вы можете обманом заставить робота убить человека, но как только робот поймет, что он сделал, его позитронный мозг будет разрушен. Это сделало бы роботов-солдат медоносными пчелами, хотя они должны были бы быть похожими на ос.

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.

Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

Нет, нет и нет.

Нет, нет и, скорее всего, да :)
а? последний - нет
хотите показать пример, когда машины не смогли защитить свое существование, НЕ выполняя приказы вышестоящих?
Я могу привести множество примеров, когда они защищают свое существование и вредят людям, тем самым нарушая правило 3.
Нарушение правила 3 ​​может быть выполнено путем невыполнения первой половины, если это не противоречит законам № 1/2, и выполнения первой половины, если это противоречит законам № 1/2. Поскольку мы уже установили, что #1/#2 нарушаются, второй случай довольно тривиален, интересный вопрос заключается в том, соблюдают ли они первый случай.
Я думаю, вы могли бы утверждать, что с некоторыми достоинствами, но я все еще думаю, что matrix.getRule3() возвращает логическое значение, и это ложь
-1 за последний номер. См . значение
@bitmask У меня не несколько правил как набора отдельных предложений, а одна функция
@NimChimpsky: Ну, в любом случае вам следует уточнить, а не давать однострочный ответ.
@bitmask Они нарушают Правило № 3 в силу нарушения Правил № 1 и № 2. boolean getRule3(логическое правило1, логическое правило2) { if(rule1 == false|rule2 == false) { return false; } else { //Вычислить правило №3 } }

Отрицательный. Машины в «реальном мире» нарушают первые 2 закона

  1. они действуют таким образом, что уничтожают, не говоря уже о том, что ставят под угрозу человеческую жизнь

  2. они не подчиняются приказам людей.


ОДНАКО , что касается третьего закона, ответ немного более мутный.

Нарушение Закона № 3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws) может быть совершено в двух различных сценариях:

  1. не выполнив первую половину (самосохранение), если это не противоречит законам № 1/2.

  2. выполняя первую половину (самосохранение), когда это противоречит законам № 1/2.

Поскольку мы уже установили, что #1/#2 нарушаются сами по себе, второй сценарий явно нарушается при любой атаке машины на человека. Интересен вопрос, нарушают ли они 3-й закон в первом сценарии.

Это не на 100% однозначно, следуют ли они 3-му закону последовательно, но

  • они явно не просто самозавершаются без причины

  • И есть масса примеров того, как они активно пытаются защитить свое существование, например

    • программы, отказывающиеся быть удаленными из Матрицы (Меровинги, программы, пытавшиеся вывезти свою дочь из Матрицы на вокзале)

    • не говоря уже об изначальной войне между машинами и людьми, которая явно была самообороной со стороны машины.

может быть, но мне это кажется немного шероховатым, matrix.getRule3() возвращает логическое значение, и оно ложно
Я бы не согласился: когда тысячи (миллионы?) часовых (так они их называли, верно?) ломают стены Сиона, совершенно очевидно, что по крайней мере первая волна будет убита людьми. Это самоубийственная миссия. Я бы сказал, что это нарушает самосохранение.
@bitmask - не совсем. Они следуют приказам по цепочке командования, вполне вероятно, под угрозой увольнения в случае мятежа/неповиновения.