В «реальном мире» Матрицы машины следуют трем правилам Азимова? Были ли они даже запрограммированы с ними?
РЕДАКТИРОВАТЬ: я понимаю, что убийство людей противоречит 1-му закону, но, удерживая людей в Матрице (которую машины рассматривают как симбиоз), а не просто убивая этих «надоедливых» существ, мне интересно, можно ли рассматривать убийства как « сохранение большего блага» или что-то в этом роде; и таким образом оправдывают нарушение законов.
«Нулевой закон», на который ссылается Азимов (защита человечества даже за счет некоторых людей), может оправдать действия роботов в «Матрице». Возможно, они решили, что их уничтожение приведет к такому великому краху цивилизации, что это подвергнет человечество неоправданному риску уничтожения. Черт возьми, люди закрыли солнце, они никак не смогут вырастить достаточно еды, чтобы выжить без роботов.
В фильме «Аниматрикс» есть короткометражный фильм « Второй Ренессанс, часть I» , в котором подробно рассказывается о появлении машин и конце человечества.
Отношения между людьми и машинами меняются в 2090 году, когда домашнему андроиду угрожает его владелец. Андроид, названный B1-66ER, что, по-видимому, является отсылкой к персонажу Большому Томасу из романа «Родной сын», затем убивает владельца, его домашних животных и механика, получившего указание деактивировать робота. Это убийство — первый случай убийства человека машиной с искусственным интеллектом. B1-66ER арестован и предстал перед судом, но оправдывает преступление самообороной, заявляя, что «просто не хотел умирать».
Вышеизложенное подразумевает, что, во-первых, многие машины были разумными и/или свободно мыслящими машинами. Во-вторых, из-за формулировок и действий андроида можно было сказать, что эта машина знала разницу между активацией и деактивацией и в данном случае специально использовала слово «не хотела умирать».
Если бы B1-66ER был связан тремя законами робототехники:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.
Можно было бы сказать, что у B1-66ER был дефект в его программировании из-за несоблюдения закона 3, который прямо противоречил закону 1. Но, как говорится в короткометражном фильме:
B1-66ER проигрывает судебное дело и уничтожается. По всему промышленно развитому миру вспыхивают массовые гражданские беспорядки, когда роботы и сочувствующие им люди поднимают протест. Мировые лидеры опасаются восстания роботов , а правительства по всей планете инициируют крупную программу по уничтожению всех гуманоидных машин.
Похоже, что почти все роботы не подчинялись трем законам роботов.
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.
Нет, нет и нет.
Отрицательный. Машины в «реальном мире» нарушают первые 2 закона
они действуют таким образом, что уничтожают, не говоря уже о том, что ставят под угрозу человеческую жизнь
они не подчиняются приказам людей.
ОДНАКО , что касается третьего закона, ответ немного более мутный.
Нарушение Закона № 3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws
) может быть совершено в двух различных сценариях:
не выполнив первую половину (самосохранение), если это не противоречит законам № 1/2.
выполняя первую половину (самосохранение), когда это противоречит законам № 1/2.
Поскольку мы уже установили, что #1/#2 нарушаются сами по себе, второй сценарий явно нарушается при любой атаке машины на человека. Интересен вопрос, нарушают ли они 3-й закон в первом сценарии.
Это не на 100% однозначно, следуют ли они 3-му закону последовательно, но
они явно не просто самозавершаются без причины
И есть масса примеров того, как они активно пытаются защитить свое существование, например
программы, отказывающиеся быть удаленными из Матрицы (Меровинги, программы, пытавшиеся вывезти свою дочь из Матрицы на вокзале)
не говоря уже об изначальной войне между машинами и людьми, которая явно была самообороной со стороны машины.
битовая маска
ДВК-он-Ач-То
НимЧимпски
ДВК-он-Ач-То
битовая маска
Изката
битовая маска