Каков самый ранний случай, когда логическая бомба ИИ игнорируется или игнорируется?

Современные вычисления не застрахованы от логических бомб, условий гонки или неуправляемых потоков. Но у него есть методы, чтобы свести к минимуму влияние этого. Сторожевой таймер требует, чтобы программа или система периодически гладила его, иначе он принудительно перезагрузится. Таймер Javascript Runaway в браузерах предложит пользователю завершить сценарий, если он заметит, что он перегружает процесс. Устройства Android предупредят, если приложение зависнет, что позволит вам подождать или принудительно закрыть его. Программы изолированы, поэтому любая блокировка влияет только на эту программу, а не на ОС. Эти методы могут не всегда работать, но они помогают.

ИИ в научной фантастике имеет тенденцию становиться злокачественным, и логические бомбы используются, чтобы заморозить компьютер, чтобы спасти положение. Противоречивое утверждение вроде «Следующее утверждение верно, последнее утверждение было ложным» либо приведет к катастрофе для системы, вызвав крах, либо, по крайней мере, заблокирует ИИ навсегда.

Один из недавних вопросов SFF включал ставку на то, что член космической станции не сможет сломать ИИ, после чего он представил вышеупомянутую логическую бомбу, и ИИ направил все ресурсы на ее оценку. Все ресурсы, включая жизнеобеспечение. TNG представлял собой логическую бомбу невозможной геометрической формы, которая заставила бы боргов вымереть от концентрации всего на ней (этика требовала, чтобы они не использовали ее).

Каков самый ранний пример, когда эти логические бомбы просто блокируют ИИ на короткое время, затем он просто отключает его или перезагружается, использует только небольшую часть своей вычислительной мощности или полностью игнорируется (предусмотрительность программиста)? В реалистическом письме правильно запрограммированный компьютер, ИИ или машина не поддаются таким простым трюкам.

Есть один от Азимова, который я добавлю, если его снова откроют.
«Я выберу правду. Вот, это было легко».
Игры считаются? Кажется, я помню, как Уитли отмахивался от многих из них, потому что он был слишком глуп и эгоистичен, чтобы попасться на них в Portal 2.
Строго не логическая бомба, но «Последний вопрос» Азимова вполне мог бы подойти. multivax.com/last_question.html

Ответы (3)

В рассказе Доктора Кто «Зеленая смерть » компьютер (БОСС) задерживается логической бомбой Доктора.

Из ТАРДИС Викия

Третий Доктор перепутал БОССА с логическим парадоксом (в частности, с Парадоксом лжеца).

Если бы я сказал вам, что следующее, что я скажу, будет правдой, Но что последнее, что я сказал, было ложью, Вы бы поверили мне? БОСС был в ярости из-за своей неспособности решить этот парадокс. Он даже попытался отговориться от необходимости решать его, заявив, что вопрос не имеет отношения к делу. Доктор был вполне доволен тем, что БОСС не смог ответить, хотя БОСС решил отбросить вопрос в окно и просто вызвать охрану.

Здесь может быть больше

[Изменить] - Теперь, когда вопрос был отредактирован, чтобы задать самый ранний экземпляр, я должен датировать этот.
Зеленая смерть , серия 5, первая трансляция 16.06.1973.

О, авторы Доктора Кто, как я люблю тебя
«Хотел бы я хоть раз встретиться с инопланетной угрозой, которая не защищена от пуль».
@mpez0 Спецвыпуск 4 сезона, Планета мертвых.

С точки зрения программиста довольно просто защититься от таких вещей, если вы их предвидите.

«Следующее утверждение верно, последнее утверждение было ложным». Для чего-то подобного хорошая программа должна просто сигнализировать о несоответствии результата в обработке и автоматически игнорировать такие вещи, делать запись в журнале и двигаться дальше.

Подобные вещи часто вызывают утечки памяти в операционных системах. Решение состоит в том, чтобы каким-то образом завершить задачи/процесс, которые его вызывают, и система сохранит свою целостность и продолжит функционировать.

Ситуация с Боргом была другой, потому что не было конфликта результатов... но вместо этого не было способа получить результат... в любом случае недостаточно быстро, чтобы ресурсы не перегружались. Тактика заключалась в том, чтобы создать невозможную форму, чтобы Борг не знал, что ее обработка не приведет к действительному результату. В реалистичном сценарии это также не должно привести к сбою систем Борга (геометрическая форма имеет ограниченные возможности расчета, даже если она недействительна - и Борг должен просто обрабатываться на время или даже иметь быструю защиту, чтобы вступить в силу или даже игнорируя это с самого начала как «неуместное»), но это то, что происходит в фильмах, «хорошие» парни должны каким-то образом обманывать свой путь к победе.

Проще говоря: Super-PI. Многие, я уверен, знают об этом. Это программа для тестирования процессора, которая вычисляет Pi (число с бесконечными десятичными знаками). Конечно, это никогда не приведет к результату ... поэтому введение только этой простой вещи, скрытой в подпрограмме программного кода, приведет к тому, что любая система, которая запускает программу и активирует подпрограмму, будет иметь свой ЦП на 100% навсегда, практически останавливая или уменьшая практически свести к нулю другие виды деятельности. Здесь должны вступить в силу другие средства защиты.

Я не уверен, как это вообще отвечает на вопрос. ОП все это знает. Они просят конкретный эпизод/фильм/книгу с определенной датой, когда это происходит, а затем игнорируют.
Кажется, вопрос был изменен. Это не похоже на исходный контент OP.

В эпизоде ​​Star Trek TOS « Я, Мадд », транслировавшемся 3 ноября 1967 года, андроид «Норман» настолько сбит с толку Парадоксом лжеца, что выпускает свой волшебный дым .

Также в эпизоде ​​« Волк в загоне », который транслировался 22 декабря 1967 года, Спок запирает компьютер «Энтерпрайза», приказывая ему вычислить число «пи» с точностью до последнего знака после запятой .

Разве это не полная противоположность тому, о чем просит ОП? Вопрос касается случаев, когда компьютер игнорирует попытку его запутать.