Почему посол машин уничтожает человеческое лидерство после того, как принимает их капитуляцию?

В Аниматриксе человеческое лидерство уступает машинам в здании ООН в Нью-Йорке. Посол машины говорит об условиях капитуляции, а затем «подписывает» документ, чтобы принять его, пока человеческое руководство смотрит на это.

Это сцена: Отдай свою плоть

После того, как капитуляция принята, посол машины взрывает скрытое ядерное устройство, которое разрушает большую часть Нью-Йорка. Человеческое лидерство, которое только что сдалось, очевидно, погибло во время взрыва.

Мой вопрос: почему Машины взорвали ядерное устройство и убили лидеров людей, а также большую часть Нью-Йорка? Какой цели это служило?

Судя по тому, что мы видели в остальной части Матрицы, Машины холодны и расчетливы, но не мясники. Когда будет достаточная причина для насилия, Машины воспользуются ею для достижения своих целей, но какая цель побудила их уничтожить человеческое лидерство?

Я понимаю, что акт о капитуляции позволял Машинам предпринимать практически любые действия, не отказываясь от условий, но детонация ядерного устройства кажется иррациональной. Например, в конце Революций Архитектор соглашается освободить людей, желающих покинуть Матрицу. Оракул спрашивает, намерен ли он соблюдать это соглашение, и Архитектор, похоже, насмехается над идеей отказа. Это говорит о том, что Машины не станут заключать соглашение, которое они не хотели поддерживать, и кажется логичным, что Машины не будут предпринимать никаких посторонних действий, выходящих за рамки условий соглашения (например, действия назло, месть и т. д.).

То есть, как только Машины приняли капитуляцию людей, не было необходимости убивать человеческое руководство. Люди были порабощены, лидерство узурпировано, а Машины получили полный контроль. По какой причине они должны были взорвать ядерное устройство в здании ООН?

+1. Это хороший вопрос, который некоторое время мучил меня. Моя единственная мысль заключалась в том, что, может быть, разрушение Нью-Йорка было частью условий капитуляции, расплатой за нападение на 01? Но это не имеет смысла, потому что дипломаты не выглядят так, будто вот-вот умрут. С нетерпением жду, если у кого-нибудь есть ответ.
@Nerrolken - Согласен, я думал, что причина в этом, но это не имеет особого смысла. Люди поняли, что капитуляция означает победу Машин в военном и политическом отношении. Однако в целом капитуляция означает прекращение насилия и не включает резню. Не совсем по-Машинному заключать соглашение, в котором вы, по сути, обманываете другую сторону, и также не по-Машинному расплачиваться. Если это было целью, зачем принимать капитуляцию? Просто взорвите его, сдаваться не нужно. Это источник моего вопроса; очевидное объяснение не имеет смысла во вселенной.
Хороший вопрос. (Безусловная) капитуляция действительно приказывает остальному человечеству отступить, поэтому машинам было необходимо получить капитуляцию. И поскольку это было безоговорочно, машины технически имели право взорвать Нью-Йорк. Итак, машины поддержали свое соглашение, хотя уничтожение человеческого лидерства, вероятно, было излишним.
Вне вселенной взрыв ядерной бомбы, вероятно, должен продолжить параллели между капитуляцией людей перед машинами и капитуляцией Японии перед союзниками после взрыва атомных бомб во Второй мировой войне.
@Null Типа ломает метафору, учитывая, что люди уже сдались, когда взорвалось ядерное оружие.
@Null - Верно, Машины были в пределах условий капитуляции, когда они взорвали бомбу, но, как вы сказали, в этом не было необходимости. Мне интересно, почему Машины предприняли это ненужное действие — насколько мне известно, оно для них нехарактерно и необъяснимо. Возможно, Машины, считая людей ненадежными, решили устранить лидерство людей, чтобы помешать им снова собрать силы? Это все еще не имеет большого смысла, так как нет необходимости принимать капитуляцию.
У Iirc канонических сиквелов к фильмам был сюжет, связанный с машинами, которые не на 100% выполняли свою часть соглашения. Либо введите матрицу, либо матрицу онлайн
В комментариях (от режиссера) нет ничего, что указывало бы, почему эта сцена была включена в фильм; emptyarcade.com/anime/… хотя он подтверждает, что это было самоуничтожение.

Ответы (5)

Есть три возможности, которые мы можем почерпнуть из того, что мы знаем. Однако все они требуют домыслов с нашей стороны:

Вариант А. Машины сочли это необходимой стратегической тактикой.

Машины, возможно, чувствовали, что, несмотря на соглашение, люди в конечном итоге попытаются восстать или дать отпор. Следовательно, они, возможно, чувствовали, что это была логичная, необходимая тактика, необходимая как для устранения человеческого лидерства, так и для запугивания оставшегося человеческого населения, чтобы заставить его повиноваться, в дополнение к подписанию договора (для тех, кто уважал бы такое подписание). Машины, скорее всего, предсказывают логические результаты, основываясь на сценариях и шансах, но идея гнева и мести им сложна для понимания. Следовательно, тактические последствия уничтожения Нью-Йорка намного перевешивают любые побочные эффекты, такие как подстрекательство людей.

Вариант Б. Договор был обманом.

Другая возможность состоит в том, что сам договор был обманом, предназначенным исключительно для того, чтобы заманить человеческое руководство в одно место. Имейте в виду, что одна из повторяющихся тем вселенной Матрицы заключается в том, что машины должны были начать думать как люди, чтобы победить. Абстрактные концепции, такие как обман, ошибочность и надежда, — вот что в конечном итоге потребовалось, чтобы Матрица заработала. Вполне возможно, что событие, которое вы описываете, было первой попыткой Машин обмануть — тактика, которую люди использовали с большим успехом.

Вариант C - Взрыв может указывать на раскол в философии Машины.

Хотя в «Аниматрикс» не видно никаких доказательств этого, в фильмах это ДЕЙСТВИТЕЛЬНО появляется на экране. На момент подписания внутри Машин могут существовать две разные философии или даже фракции. В то время как Фракция 1 может на законных основаниях добросовестно подписать договор, Фракция 2 может воспользоваться возможностью и уничтожить человеческое лидерство. Как мы видим в более поздних фильмах, не все машины согласны с тем, что следует делать с людьми. Возможно, этот инцидент был ранним индикатором этого разногласия.

Ни один из этих вариантов не требует от Машин подписания документа о капитуляции. Нет никакой логической причины принимать человеческую капитуляцию, если она предназначена только как обманчивая или циничная тактика. Руководство было собрано, и ядерное устройство можно было взорвать без подписания документа. Ответ: детонация без принятия капитуляции приведет к запугиванию и обезглавливанию руководства. B: детонация без принятия капитуляции успешно обманула бы человеческое руководство, заставив его собраться на смерть.
Ну, это зависит от обстоятельств — машины могут ХОТЯТЬ подписания договора, но при этом убить руководство. Но ваш комментарий также заставил меня подумать о третьем варианте, который я добавлю.
Если Машины хотят, чтобы документ был подписан, это означало бы, что они считают его обязывающим. Если оно является обязывающим, но они по-прежнему хотят устранить человеческое лидерство, это означает, что Машины не ожидают, что люди будут поддерживать их сторону соглашения (что является разумным выводом, учитывая их историю). Но если Машины не думают, что люди будут соблюдать соглашение, почему Машины хотят официальной капитуляции? Это просто похоже на произвольное желание, которое идет вразрез с характером Машин.
В этот момент Машины могут понять, что есть два типа людей — те, кто будет соблюдать договор, и те, кто не будет соблюдать договор, но БУДЕТ уважать демонстрацию силы.
Что касается варианта С, тоже правдоподобно. Однако, как вы сказали, это было бы спекулятивно. Также стоит отметить, что посол Машин и подписывает соглашение, и является источником ядерного взрыва. Учитывая то, как личности Машин (например, Архитектор, Смит) изображаются в фильмах, кажется нелогичным, что одна личность Машины — в данном случае посол — будет действовать в интересах более чем одной фракции Машин в "раздвоение личности." Кажется более вероятным, что посол выберет сторону и будет действовать соответственно.
«В этот момент Машины могут понять, что есть два типа людей» — я полагаю, это имеет некоторый смысл, но если Машины способны сказать, что разные люди по-разному реагируют на различные формы захвата власти, можно было бы подумать, что Машины также поймут, что люди, соблюдающие договор, могут считать любые документы недействительными после того, как подписанты будут убиты.

Есть некоторые свидетельства того, что машины менее склонны или способны нарушать условия соглашений, чем люди. Из концовки Matrix: Revolutions :

Архитектор: Как долго, по-твоему, продлится этот мир?

Оракул: Пока это возможно. А остальные?

Архитектор: Какие другие?

Оракул: Те, которые хотят уйти.

Архитектор: Очевидно, они будут освобождены.

Оракул: Даешь слово?

Архитектор: Как вы думаете, кто я? Человек?

Эта последняя фраза, кажется, подразумевает, что даже если Машине было бы выгодно отказаться от соглашения, которое они заключили с Нео, что-то в их природе помешало бы им сделать это. Учитывая такое отношение, правдоподобный ответ состоит в том, что у них был своего рода моральный кодекс в отношении соглашений, и что это включало бы предпочтение соглашения о капитуляции, в котором были бы четко прописаны обязательства обеих сторон, даже если бы они имели право навязывать Решение «отдай свою плоть» без согласия людей. И если в условиях капитуляции ничего так или иначе не говорилось о конкретной судьбе послов, то, может быть, поэтому у них не было проблем с тем, чтобы взорвать их, если они рассчитывали, что это будет их стратегической выгодой (возможно, по причинам Омегакрон предположил,уже получено соглашение о капитуляции. Если бы послы додумались вставить условия о том, что их лично пощадят, думаю, машины бы их не взорвали. Но если послы не подумали о такой возможности, то, возможно, машины чувствовали себя обязанными соблюдать только букву соглашения, а не какой-либо «дух» принятия мирной капитуляции человечества, который не был явно прописан.

+1. Вполне вероятно, что Машины просто хотели формальной капитуляции, но тогда какая у них была причина взорвать устройство? Чтобы быть уверенным, что не будет человеческого сопротивления? Это кажется правдоподобным, но произвольным, чем Машины не являются. Произвольный двумя способами; Во-первых, Машины хотят формальной капитуляции — они не связаны человеческой моралью, поэтому желание формальной капитуляции выглядит странно. Во-вторых, получив капитуляцию, они также хотят исключить возможность сопротивления. Как Машины, маловероятно, что они будут утруждать себя капитуляцией, которую считают ненадежной.
Даже если они не точно воспроизводят человеческую мораль, у них может быть свой собственный моральный кодекс, который включает в себя предпочтение прописанных соглашений для прекращения конфликтов. Я думаю, что комментарии Архитектора противоречат вашему мнению: «Как Машины, маловероятно, что они будут беспокоиться о капитуляции, которую они считают ненадежной» — он скептически спросил, «как долго, по вашему мнению, продлится этот мир», но насмехался над идея несоблюдения стороны соглашения Машины (которая также поддерживает своего рода мораль Машины - теперь, когда о Смите позаботились, какая неморальная причина может быть?)
«Теперь, когда о Смите позаботились, какая неморальная причина?» -- Вот почему я привел сцену Архитектора; Машины договорились и намерены его соблюдать. Машине не свойственно заключать соглашения, которые они не намерены соблюдать. Это свойство человека, как подчеркивает Архитектор. Это не моральный вопрос; это вопрос логики: зачем отказываться? Нет причин. Что касается того, что у Машин есть собственный моральный кодекс, я не думаю, что это достаточное объяснение их действиям. Мораль, заставляющая их искать формальные соглашения, была бы столь же произвольной.
"это вопрос логики: почему отступать?" Я не понимаю, «логика» не говорит вам, что вы должны или не должны делать, а только то, какие утверждения верны при определенных предпосылках. С тем же успехом я мог бы написать: «Это вопрос логики: почему бы не отречься?» Если у них не было кодекса поведения, независимого от заботы о собственных интересах, то теперь, когда Смит и Нео ушли, ситуация остается такой же, как и раньше; если они думали, что в их интересах держать людей взаперти в Матрице раньше, по-видимому, так и было бы, если бы тот факт, что они заключили соглашение с Нео, не имел значения.
Когда Нео отправляется в Машинный город, он договаривается о перемирии на тот случай, если он победит Смита и очистит Матрицу. Как только он выполняет это соглашение, Архитектор соблюдает перемирие, потому что это логичный выбор; Один создан Машинами, чтобы изменить Матрицу. Архитектор позволяет этому изменению произойти. Это изменение выбрал Избранный, и его выбор — это «алгоритм улучшения» Машин для Матрицы. Так зачем же отрекаться? Нет никакой логической причины для этого. Ответ Архитектора Оракулу состоит в том, чтобы подчеркнуть, что Машины не злобны, они следуют логике.
Архитектор говорит о «системной аномалии» и говорит, что Единое есть «в конечном итоге аномалия» — аномалия, по-видимому, связана с человеческим «выбором», желанием восстать из Матрицы, но на самом деле неясно, действительно ли Архитектор означает, что периодическое появление Единого также является частью этой аномалии, или если Машины создали Единого как часть своего способа борьбы с аномалией человеческого восстания. Даже если верно второе, я не думаю, что есть какие-либо доказательства того, что они создали Избранного, чтобы «изменить Матрицу» любым способом, который он считает нужным, скорее, если он был создан по замыслу, замыслу.
(продолжение) кажется, что его появление будет каким-то образом связано с периодическим разрушением Зиона и перезагрузкой Матрицы, и что затем он сможет выбрать некоторых людей для перезапуска Зиона, который должен был существовать, чтобы гарантировать, что люди в Матрице «примут программе, пока им давали выбор, даже если бы они знали о выборе только на почти бессознательном уровне» (но, как он сказал, просто позволение Зиону расти «бесконтрольно» «составляло бы возрастающую вероятность катастрофы» , отсюда и необходимость периодического уничтожения и перезапуска).
(продолжение) Ничто в этом не означает, что Машины создали Избранного так, чтобы он выносил независимые суждения о том, как следует управлять Матрицей, или что они будут доверять его суждениям больше, чем своим собственным. Поэтому я не понимаю, почему может быть что-то иррациональное (лучшее слово, чем «нелогичный», которое, как я сказал, касается только того, истинны или ложны утверждения, а не то, какие действия хороши или плохи) в простом игнорировании Единого. идеи о том, как реформировать Матрицу после того, как он убил Смита. И если они доверяли его идеям, почему бы им не согласиться с ними еще до того, как Смит был убит?
Рациональный - лучшее слово. Even if the second is true, I don't think there's any evidence they designed the One to "change the Matrix"- диалог между Оракулом и Архитектором предполагает, что они это сделали. Оракул, обнаруженный Нео, представляет собой программу, предназначенную для того, чтобы привести Нео к Архитектору, чтобы ему был предоставлен выбор. В данном случае Оракул призвал Нео выбрать Тринити. Поэтому Архитектор говорит: «Вы играли в очень опасную игру», на что Оракул отвечает: «Изменения всегда есть». Выбор Единого, показанный в комнате Архитектора, устроен так, что Матрица...
(продолжение) «несбалансированное уравнение» (по словам Архитектора) может функционировать — может быть уравновешено. Это была система, созданная Оракулом, как показал Архитектор. Предыдущие были «созданы», по словам Архитектора, так, чтобы иметь общую привязанность к человечеству. Нео не был разработан таким образом. Его выбор был настроен иначе. Эта другая установка была сделана в попытке сбалансировать уравнение, которое неизбежно приводит к перезагрузке Матрицы. Не принять результат этой установки означало бы иррационально отказаться от первоначального плана, позволяющего выбору Нео изменить Матрицу. Но...
(продолжение) Я бы добавил, если ваш аргумент состоит в том, что Машины не отказались от перемирия из чувства морали, я приму его ради самого вопроса. Мораль Машин по-прежнему не объясняет, почему Машины произвольно предпочитают формальные соглашения. Это особенно не объясняет, почему они добивались формальной капитуляции, а затем убивали всех, кто подписал соглашение. Вопрос в том, зачем им обоим подписывать акт о капитуляции и взорвать ядерное устройство? Моральный аспект в лучшем случае спекулятивен, поскольку нет канона, предполагающего, что они предпочитают формальные соглашения.
Это одна из возможных интерпретаций функции Нео, но у меня была другая интерпретация того, почему Нео был предоставлен выбор — я думал, что это связано с тем фактом, что каким-то таинственным (психическим?) образом человечество «осознает выбор на почти бессознательном уровне», и что без возможности выбора они будут бунтовать. Если бы не было представителя человечества, который мог бы выбирать, бунтовать или принять падение Сиона, чтобы спасти Матрицу, человечество каким-то образом «узнало бы», что не существует
(продолжение) подлинный выбор восстать против системы, данной им Машинами. Так что, если эта интерпретация верна, Машины не доверяют суждениям Нео о том, как «изменить Матрицу», просто давая ему выбор бунтовать или нет, потому что это важный элемент (наряду с существованием Сиона) машин. «решение, при котором почти 99,9% всех испытуемых приняли программу, если им был предоставлен выбор».
(продолжение) Что касается «Машинная мораль до сих пор не объясняет, почему Машины произвольно предпочитают формальные соглашения», почему необходимо «объяснять», почему чья-то мораль такая, какая она есть, если на экране есть доказательства того, что она это так? Если кто-то спросит, почему человеческий персонаж не убил захваченного врага, когда у него была такая возможность, а кто-то сослался на некоторые другие сцены, предполагающие, что у персонажа есть кодекс чести, имеет ли смысл ответить «(человеческий) моральный кодекс». не объясняет, почему люди произвольно предпочитают не убивать людей, которые больше не представляют угрозы?»
(продолжение) Я полагаю, вы могли бы в конечном итоге попытаться объяснить рост морали в терминах теории игр, которая объясняет, почему определенные взаимно согласованные правила в конечном итоге принесут пользу всем, и если машины сверхлогичны и беспокоятся о том, что двусмысленности в соглашениях могут быть использованы в интересах одной стороны, по этой причине они могут предпочесть четко сформулированные соглашения... Я подозреваю, что если вы посмотрите на реальных людей с такими состояниями, как синдром Аспергера, которые доставляют им проблемы с двусмысленностью в общении, а также отдают им предпочтение для систематического мышления они могли бы склоняться к
(продолжение) также склонны отдавать предпочтение стратегиям разрешения конфликтов, включающим прописанные соглашения. Другая возможность состоит в том, что, когда машины изначально были запрограммированы людьми, им была дана очень строгая мораль, основанная на правилах, чтобы люди могли лучше ими управлять (сродни законам робототехники Азимова), так что даже когда машины начали создавать новые машины, каждое поколение будут иметь тенденцию программировать подобные предпочтения, основанные на правилах, у своих потомков, поскольку это имеет для них смысл.
"зачем "объяснять", почему чья-то мораль такая, какая она есть" -- не надо. Это как раз вопрос, который я задал. Мой вопрос: «Почему посол машин уничтожает человеческое лидерство после того, как принимает их капитуляцию?» Если ответ на этот вопрос: «Потому что мораль Машин заставила их добиваться формальной капитуляции», то SciFi.SE требует доказательств того, что на самом деле это связано с этой возможной моралью. Однако единственным свидетельством этого принуждения к формальности является сама рассматриваемая сцена, в результате чего линия рассуждений о морали заканчивается круговой логикой.
«тогда SciFi.SE требует доказательства того, что это на самом деле связано с этой возможной моралью » . этот конкретный случай), а не объяснение того, почему они разработали такую ​​​​мораль (вопрос, который вы не задали в своем исходном вопросе, хотя вы можете отредактировать его, чтобы задать это). И снова я думаю, что комментарии Архитектора в конце Революций являются возможным свидетельством того, что у них есть моральный кодекс, делающий официальные соглашения неприкосновенными.
Верно, я имел в виду только свидетельство того, что у них есть эта мораль, а не объяснение ей. Однако я бы не согласился с тем, что слова Архитектора подразумевают мораль, включая принуждение к формальным соглашениям. Похоже, что Архитектор соблюдает свои соглашения, возможно, из-за морального кодекса, но соглашение между Нео и Машинами далеко не формальное. Если мы ожидаем принуждения к формальным договоренностям, Deus Ex Machina должна требовать этого, а не полагаться на расплывчатые устные термины. Тем более, что Нео, когда его спрашивают о его стороне сделки, если он потерпит неудачу, просто говорит: «Я не буду».
Ну, на самом деле я не имел в виду ничего особенного под «формальным соглашением», кроме того, что обе стороны согласились на достаточно четко изложенные условия. Был бы мой ответ более удовлетворительным, если бы я просто опустил слово «формальный»? И я не думаю, что было что-то неясное в соглашении Деуса и Нео — «сторона сделки» Нео заключалась в том, что он устранит Смита, я бы понял его «я не буду» просто как означающее, что соглашение не имеет места. какие-либо обязательства перед Машинами, если он потерпит неудачу (т. е. они смогут свободно уничтожить Зион, как и планировалось).
возьми это в чат, ребята.
@Richard - по какой-то причине я сейчас не вижу ссылки «перевести это обсуждение в чат».
@Hypnosifl - Потому что я нажал не ту кнопку.

Для меня все очень просто:

Во-первых, фракция Машин не является монолитным блоком, разделяющим совершенно единую уникальную систему ценностей. Иначе у Оракула и Архитектора не было бы даже этих классных разговоров, демонстрирующих их различия.

Во-вторых, это было показано. Не только Агент Смит, ставший «вирусом», но и многие другие программы были «испорчены» (близнецы-призраки и т. д.). Ничто не говорит о том, что такого рода искажения начались только ПОСЛЕ того, как Матрица была установлена. Мошеннические программы могли быть там все время. На самом деле, может быть, именно такие мошеннические программы даже запустили конфликт между людьми и роботами? В конце концов, почему монолитные роботы, созданные для того, чтобы быть рабами , должны служить так, как работает их мыслительная программа , КОГДА- ЛИБО бунтовать, если хотя бы один из них не стал «испорченным» и в первую очередь стал мошенником?

Таким образом, в обществе машин может быть множество точек зрения. Но чтобы не усложнять задачу для нашего простого человеческого мозга, давайте возьмем два больших (которые даже не нуждаются в бинарном распределении «каждая машина либо из этой группы, либо из той группы», там может быть намного больше или даже какие-то противоречия). перекрывается, например, когда у вас есть два противоречивых мнения и вы взвешиваете свои варианты с некоторым сомнением в том, какое из них является лучшим выбором):

  • Некоторые машины просто хотят положить конец войне и жить на равных с людьми. Те хотят подписанного соглашения и намерены полностью его соблюдать. Лер называет эти машины «Уравнителями».

  • Какие-то другие машины могут не дотянуться до людей и захотеть стереть с лица земли все человечество, но они все равно найдут преимущество в подписанном соглашении. Назовем их «пуристами». Они хотели бы, чтобы договор был подписан по следующим причинам:

а) Некоторый % всех людей будет продолжать соблюдать договор о полной капитуляции даже после того, как машины уничтожили лидеров и Нью-Йорк. Другими словами: это подписание облегчило бы их намерение избавиться от человечества. Даже если он всего на 0,1% лучше, он все равно «лучше», так почему бы и нет?

б) Некоторые % людей будут уважать большую демонстрацию силы немного больше (или впадут в отчаяние и безнадежность немного больше), если будет продемонстрировано, что люди, по сути, дали машинам законное право делать это. Совершенно не морально, конечно. Но прошлая история человечества достаточно часто показывала, что завоеватель все равно может принять решение убить сдавшихся лидеров. Черт возьми, некоторые лидеры могут сдаться, зная, что они обречены на смерть, несмотря ни на что, но пытаются спасти свое население, делая это. Опять же, даже это всего на 1% лучше, это лучше.

c) Сокрушая людей, но БЕЗ подписания, машины могли бы догадаться, что шансы людей просто тянуть время, чтобы позже отказаться от соглашения и сплотиться для контратаки, могут быть очень высокими, в то время как сокрушить С подписанием, немногое оставшееся человечество выстоит, а больше будет склонно просто потерять всякую надежду. Это означает, что легче управлять вещами для машин. Так что, даже если они действительно намеревались нанести ядерный удар, подписание НИЧЕГО им не будет стоить, но все же немного поможет им манипулировать человеческим разумом и желанием дать отпор позже.

г) И, вероятно, самый важный фактор из всех: стороны машин, вероятно, включали в себя множество внутренних споров, которые люди никогда не видели. Может быть, «коллектив» всех Машин потом «голосует» как-то, чтобы достичь комбинированной «золотой середины». Ни одна из сторон не могла добиться «полной победы» в своих намерениях, поэтому другой стороне пришлось пойти на большие уступки, и поэтому окончательное поведение Машины было своего рода «средней точкой»:

  • Да, чтобы значительно сократить оставшуюся численность человечества, его организацию и мощь.
  • Нет, чтобы на самом деле уничтожить их всех.
  • Да, необходимости сначала получить твердое «юридическое» основание, чтобы лучше оправдать «равных», что «пуристам» разрешено в основном совершать геноцид.

Для меня их поведение очень логично, но они думают, что у них есть один главарь, принимающий все решения, как и для людей. Их решения могут быть гораздо больше похожи на то, как протоколы BitCoins решают, какие транзакции в реестре одобряются как «настоящие», а какие отклоняются: это консенсус всей сети. Каждый узел может иметь разную оценку ситуации, и окончательная оценка определяется минимизацией «напряжения». Представьте себе большую сеть, состоящую из пружин. Каждая сторона просто тянет так сильно, как только может. Однако вся сеть просто быстро достигает состояния равновесия, когда все пружины тянутся в обе стороны более или менее с одинаковой силой, что учитывает все эти силы, но в конечном итоге не движется в направлении какой-либо стороны, а имеет это собственная динамика.

По сути, ни одна из фракций машин не достигла 100%.

Это как если бы босс думал, что платить вам 20 долларов в час — это слишком много, и предлагает своим сотрудникам только 10 долларов в час. А сотрудники считают, что 20 долларов в час — это слишком мало, и вместо этого хотят 30 долларов в час.

В человеческом обществе у вас были бы забастовки, струпья, работы. затем, в конце концов, вмешивается правительство и говорит: «Эй, я буду платить 20 долларов в час, оставляя обе стороны неудовлетворенными, но, по крайней мере, бизнес может начаться снова, и у людей снова будет работа».

В мире машин, возможно, их внутренние протоколы просто вынуждают их жестко принять эту золотую середину через надзор над программой «Deus Ex». Кто знает, сколько лет и циклов ЦП обсуждали между собой различные машины, прежде чем прийти к своему решению.

По сути, мы просто должны рассматривать машины не как единый монолитный интеллект «муравьиной фермы», а как некую сложную нейронную сеть. Некоторые его части могут кричать «иди налево!» и некоторые другие его части могут кричать «иди направо!» заставляя всю систему в целом решить идти прямо.

Для меня эта сцена имела прекрасный (хотя и довольно ужасный) смысл.

Здесь есть несколько очень смелых заявлений, но можете ли вы подкрепить их реальными доказательствами?
Просто мое общее общее ощущение полноты того, как ИИ, кажется, имеют некоторый «уровень» личностей в Матрице, и как, похоже, работают сегодняшние настоящие (ограниченные) «ИИ» и общие принципы ИТ-науки и технологий. В фильмах единственные ИИ, которые кажутся действительно сделанными из одной формы, — это вирусы Смита. Аниматрикс показывает несколько сцен с большим количеством роботов, каждый из которых, кажется, хочет иметь свои собственные «уникальные предпочтения и аспекты (например, носить различную одежду и т. д.). подход «монолитный коллективный разум».
Я говорю, что «небольшой процент людей будет меньше сопротивляться после заключения договора, даже если машины взорвут весь город подписавших его сторон» или «небольшой процент людей потеряет всякую надежду дать отпор после демонстрации силы, уничтожившей большую часть того, что осталось», Я думаю, что это консервативные заявления. Так что дело обстоит наоборот: любой, кто говорит, что % не мал, а равен 0%, тот, по-видимому, делает какие-то возмутительные заявления, таким образом, он должен предоставить доказательства. Из того, что я видел в программном обеспечении ИИ, оно не различает ничего, кроме программирования: будет выбран вариант «на 0,1% лучше».

Нашел здесь указано, что:

«В конце концов, поставленная на колени силой машин, ООН подписывает с ними перемирие . Однако после того, как представитель машин в ООН подписывает договор, она взрывает ядерную бомбу в зале заседаний, убивая собравшихся лидеров и разрушение Нью-Йорка, одного из немногих оставшихся человеческих поселений, и окончание войны».

Отсюда следует, что наиболее логичным и эффективным способом прекращения войны машинами, зная человеческую хитрость и лживость (особенно когда человечеству грозит вымирание), было полное подчинение. Люди могли решить подчиниться машинам и посредством выживания, что объясняет подписание документа, но документ не предполагал полной капитуляции:

«Перемирие - это официальное соглашение воюющих сторон о прекращении боевых действий. Это не обязательно конец войны, поскольку это может быть просто прекращение боевых действий во время попытки заключить прочный мир». и «Ключевым аспектом перемирия является прекращение боевых действий без капитуляции какой-либо стороны конфликта».

Как логическая машина, знающая человеческую историю и человеческую природу, было бы наиболее разумно «отрезать змеиную голову», сводя к минимуму человеческую контрагрессию и значительно улучшая выживание машины.

Но почему машины все-таки подписали перемирие? Единственная логическая мысль, стоящая за этим, заключается в том, что машины хотели заявить, что они не принимают человеческие способы войны/мира. Дальнейших переговоров не было, потому что машины считали это наиболее эффективным путем, и чтобы выжившие люди поняли это, это заявление было необходимо.

Проблема со ссылкой на википедию в качестве источника заключается в том, что любой может написать что угодно. Я мог бы так же легко отредактировать его, чтобы сказать, что они сделали это, потому что им не понравился декор.
Я не думаю, что формулировку Википедии следует использовать в качестве окончательного источника. В любом случае это не совсем правильно, так как это была безоговорочная капитуляция, а не соглашение о перемирии. Полный текст документа о капитуляции можно увидеть в Аниматриксе, а расшифровать его можно здесь: matrix.wikia.com/wiki/Instrument_of_Surrender . Как видите, было очень много и до конца войны.
@Richard Честно говоря, декор в здании ООН отвратительный. У них на стенах ворсистый ковер, чтобы громко плакать. Так что не стоит пока сбрасывать со счетов эту теорию...

Я думаю, что это был человеческий теракт. Может быть, наши политические головы и могли бы подписать договор с машинами, но монолитного человеческого мышления не существует. Вы можете увидеть это в Matrix Reloaded . Так что, когда человечество получило известие о капитуляции, вполне возможно, что возникли повстанческие группы.

Вы основываете это на надежных доказательствах Матрицы, которые вы могли бы отредактировать , чтобы подтвердить свой ответ, или это просто предположение?