Как Айзек Азимов придумал три закона робототехники?

Первый закон заключается в том, что робот не должен причинять вред человеку или своим бездействием допускать причинение вреда человеку. Второй закон заключается в том, что робот должен подчиняться любым инструкциям, данным ему человеком, а третий закон заключается в том, что робот должен избегать действий или ситуаций, которые могут причинить ему вред. Как Азимов это придумал?

Азимов приписывает Три закона Джону У. Кэмпбеллу из разговора, который состоялся 23 декабря 1940 года. Кэмпбелл утверждал, что Азимов уже имел в виду Три закона и что их просто нужно было четко изложить. Несколько лет спустя друг Азимова Рэндалл Гаррет приписал Законы симбиотическому партнерству между двумя мужчинами — предположение, которое Азимов принял с энтузиазмом .
Кажется, я помню, как читал где-то, что Азимов написал 3 закона, потому что он ненавидел истории о роботах, набрасывающихся на людей, которых было так много, и, по его мнению, создавал роботам плохую репутацию.
На самом деле есть 4 закона. Нулевой закон был добавлен много лет спустя. en.wikipedia.org/wiki/Three_Laws_of_Robotics
@Nu'Daq, это будет «Комплекс Франкенштейна», неоднократно упоминаемый в его рассказах о робототехнике.
@computercarguy там тоже есть предполагаемый Пятый закон, и сам Азимов создал Нулевой закон

Ответы (2)

Три закона развивались постепенно. Все началось с «Робби» , также известного как «Странный товарищ по играм», первого рассказа Азимова о роботах, который он написал в 1939 году. сказать: «Он просто не может не быть верным, любящим и добрым. Он машина, сделанная такой ». Позже Азимов назвал это «первым зародышем [...] Первого закона робототехники». («Роботы и андроиды», «Визуальная энциклопедия научной фантастики», 1977 г.).

В своем следующем рассказе о роботах Reason (написанном в 1940 году) персонаж говорит: «Эти роботы гарантированно подчиняются». По словам Азимова, «это был намек на второй закон» («Слово, которое я изобрел», журнал F&SF, октябрь 1980 г.).

Третья история о роботах, Лжец! (написано в 1941 году) упоминает Первый закон и намекает (снова) на Второй закон:

Голос Лэннинга был враждебным. — Что это такое, доктор Кэлвин?
    Она повернулась к ним и устало заговорила. — Вы, конечно, знаете фундаментальный закон, запечатленный в позитронном мозгу всех роботов.
    Двое других кивнули вместе. — Конечно, — сказал Богерт. «Ни при каких условиях человек не может быть ранен каким-либо образом, даже если такое ранение прямо заказано другим человеком».

Как выразился Азимов, «то, что было простым «сделано так» в «Странном товарище по играм», теперь стало «фундаментальным законом» робототехники». (Опус 100, 1969).

В четвертом рассказе Азимова о роботах « Робот AL-76 сбивается с пути» (написанном в 1941 г.) снова упоминаются первый и второй закон:

Его также поразило, что он где-то слышал, что роботы психически неспособны причинить вред людям.

и

Чего он не знал, так это того, что робот всегда подчинялся человеческому приказу, за исключением случаев, когда его выполнение представляло опасность для другого человека.

Но это пятая история о роботах, Runaround (написанная в 1941 году), в которой Три закона наконец-то даны полностью (хотя позже Азимов немного изменил формулировку):

«А теперь давайте начнем с трех фундаментальных правил робототехники — трех правил, которые наиболее глубоко встроены в позитронный мозг робота». В темноте его пальцы в перчатках отсчитывали каждую точку.
    «У нас есть: во-первых, робот не может причинить вред человеку ни при каких условиях — и, как следствие, не должен допускать, чтобы человек был ранен из-за бездействия с его стороны».
    «Правильно!»
    «Во-вторых, — продолжал Пауэлл, — робот должен выполнять все приказы, отданные квалифицированными людьми, если они не противоречат Правилу 1».
    "Верно!"
    «Третье: робот должен защищать свое существование, если это не противоречит Правилам 1 и 2».

Что касается того, кто придумал Три закона, Азимов или Джон Кэмпбелл, кажется, что они доверяли друг другу:

Это он [Джон Кэмпбелл] обдумал мою третью или четвертую историю о роботах, покачал головой и сказал: «Нет, Исаак, ты пренебрегаешь тремя законами робототехники, которые…» И я впервые о них услышал. […]
    Он признался, что кормил меня идеями, но сказал, что продолжает делать это только потому, что я возвращал их измененными и улучшенными. Он отрицал, что придумал три закона робототехники, и настаивал на том, что нашел их в моих рассказах и просто облек в слова.
«Отец научной фантастики», Luna Monthly # 27S, август 1971 г.

[О] 16 декабря 1940 года, когда я готовился написать «Лжец!» (который в конце концов появился в выпуске журнала Astounding за май 1941 года ), я рассказал сюжет Джону Кэмпбеллу, редактору журнала. Пока я пытался объяснить, почему мой робот работает так, как он, Джон потерял терпение и сказал:
    «Послушай, Исаак, все сводится к этому. Должны быть три закона поведения роботов: во-первых…»
    И он продолжил перечислять три закона почти в тот момент, когда я наконец их выработал. После этого он всегда утверждал, что он просто выделил три закона из того, что я пытался ему сказать, но все, что я знаю, это то, что я сначала услышал их от него, и я не имел их четко в уме, на словах, до того , как затем.
«Роботы и андроиды», Визуальная энциклопедия научной фантастики, 1977 г.

Я где-то когда-то читал, что Азимов намеренно сделал законы достаточно расплывчатыми, чтобы допустить истории, в которых соблюдение законов вызывало проблемы в особых ситуациях. Если это правда, было бы интересно узнать, какие законы он счел бы лучшими — через такие, вероятно, пришлось бы выражаться логическим языком, а не ущербной человеческой речью.
@Клаус Э. Могенсен: Да, Азимов обратил внимание на двусмысленности в своих законах, и как рассказчик он извлек из них пользу: «Двусмысленности в Трех Законах было ровно столько, чтобы создать конфликты и неопределенности, необходимые для новых историй, и, к моему большому облегчению, всегда казалось возможным придумать новый угол зрения из шестидесяти одного слова Трех Законов». («Остальные роботы», 1964). Я не знаю, пытался ли он сформулировать лучшие законы, которые можно было бы использовать в реальных приложениях, и он, вероятно, не считал себя способным сделать это.
@KlausÆ.Mogensen: Одна повторяющаяся тема в «Я, робот» , которую я заметил, заключается в том, что довольно часто Три закона носят слишком общий характер. Они применяются в ситуациях, когда они не обязательно имеют смысл или противоречат требованиям на местах в конкретной ситуации. В реальном мире вы, скорее всего, увидите конкретные меры предосторожности, принятые для каждого отдельного промышленного контекста, где используются роботы, а не единый универсальный набор законов.
@ КлаусÆ.Могенсен, есть также тот факт, что законы, как они написаны, являются «лишь приближением к математике», присущей позитронной матрице. К сожалению, сейчас я не помню, какой персонаж описал их как таковых. Скорее всего, это было где-то в «Я, робот», но это могло быть и везде, где есть роботы.
@KlausÆ.Mogensen - Кажется, я помню эту фразу из «Роботы рассвета» , которую я недавно перечитал. Однако это не значит, что его не использовали до этого.
@Kevin Только если твои роботы тупые. Как только у вас появятся разумные роботы (способные обобщать), вы, конечно, зададите им расплывчатые законы точно так же, как мы используем расплывчатые законы для людей. (Конечно, чрезмерно конкретные правила скорее вызовут проблемы. Если вы попытаетесь, например, научить беспилотный автомобиль не сталкиваться с предметами, показывая ему конкретные примеры предметов, о которых нельзя сталкиваться, то вы обречены на провал. несколько ситуаций... упс: slate.com/technology/2021/08/… )
@ user3067860: Вы должны прочитать I, Robot . Его роботы, конечно же, не глупы. Проблема не в том, что роботы не могут рассуждать или понимать законы. Проблема в том, что законы категоричны , и роботам не разрешено (или они не могут, если рассматривать это как «фундаментальную» часть позитронного мозга) применять к законам исключения или ограничения «здравого смысла». Так что, когда закон странно взаимодействует с данным набором обстоятельств, роботы ведут себя странно и делают странные вещи, а затем кто-то звонит Сьюзен Кэлвин, чтобы объяснить, почему роботы так себя ведут.
@ Кевин (я прочитал это, спасибо). Но ваше предложение иметь множество конкретных маленьких законов еще хуже. Вы бы сказали: «Если вы на фабрике, не ездите на погрузчике по людям». «Если вы на поле для гольфа, не ведите гольф-кар по людям». «Если вы водите машину, не ведите машину по людям». ? (Ну, а что, если это очень маленькая машина с дистанционным управлением, и человек держит гусеницу, чтобы она могла проехать? С другой стороны, вам не следует водить машину с дистанционным управлением по маленькому младенцу. не управлять транспортными средствами, превышающими x% чьего-либо веса над ними...?)
@ user3067860: Идея в том, что вы не пытаетесь применить один набор законов для всех обстоятельств. Вместо этого, если робот собирается водить вилочный погрузчик, вы затем обучаете его всем необходимым правилам безопасности (которые, вероятно, включают, но не ограничиваются, «не наезжать на людей» — как насчет избыточного веса и т. д.?). У вас могут быть некоторые общие принципы, которые напоминают законы, но они не могут быть категоричными, как «настоящие» промышленные меры безопасности, которые изначально предназначались для имитации законов (поскольку, как показано в «Я, робот», такие категориальные законы не работают). очень хорошо).
@ Кевин, я не знаю, как вы делаете «правила для вилочных погрузчиков» менее категоричными. Если в фабричном цеху есть террорист, угрожающий людям, может ли тогда робот его переехать (не подчиняясь правилу «не задавить людей»)? Если вы включите такое правило, как «не ехать впереди других транспортных средств», сможет ли робот выехать перед убегающим грузовиком, чтобы остановить его до того, как он врежется в автобус, полный школьников?
Роботы Азимова абсолютно нарушают (до предела) законы своего рода здравым смыслом... Он описывает их как сравнение результатов и выбор того, который лучше всего соответствует законам, например, робота можно заставить отшлепать ребенка, если это достаточно обосновано как направленное на благо ребенка. Уточнение законов никак этому не поможет.
@ user3067860: Роботы также изображены страдающими серьезными психологическими недостатками из-за такой гибкости (тогда как порка просто намекается, но никогда не показывается). См., например, «Обход», «Побег!», «Маленький потерянный робот» и (возможно) «Лжец!», Все из которых связаны со сбоями в работе или иным неправильным поведением одного или нескольких роботов в результате конфликтов между законами и сценариями. в котором они были размещены. Законы недостаточно гибки, чтобы приспособиться к этим относительно простым ситуациям.

В этом выпуске Compute! журнал Азимов обсуждает Три закона как нечто, что «очевидно с самого начала и что все знают подсознательно»; он приписывает себе не столько их изобретение, сколько то, что записал их в легко запоминающейся форме, и, в частности, проводит прямую параллель между законами робототехники и (неявными) законами, управляющими проектированием инструментов:

  • инструмент должен быть безопасным в использовании
  • инструмент должен выполнять свою задачу точно и эффективно, насколько это возможно без ущерба для безопасности
  • инструмент должен быть прочным и пригодным для повторного использования, если характер его задачи или безопасность пользователя не требуют его использования.

Википедия приписывает конкретную формулировку Законов сотрудничеству между Джоном У. Кэмпбеллом и Азимовым, говоря, что «Азимов уже имел в виду Три Закона и что их просто нужно было сформулировать явно. Несколько лет спустя друг Азимова Рэндалл Гарретт приписал Законы к симбиотическому партнерству между двумя мужчинами»; цитатой для этого является автобиография Азимова « В памяти еще зеленая» , и выдержки из нее подтверждают это, хотя у меня нет собственной копии, чтобы проверить полный текст.

Кто-нибудь на самом деле прочитал всю книгу «В памяти, но зеленой»? Я помню, как Мартин Эмис говорил о том, как он читал ее перед тем, как взять интервью у Азимова, и шутил, что ему пришлось использовать лебедку, чтобы поставить книгу на кафедру, где он мог ее прочитать.