Как в научно-фантастическом будущем оставить пилотами людей, а не ИИ?

Я пытаюсь написать сериал, похожий на гандам, но с космическими истребителями вместо человекоподобных роботов. Я хочу мир полутвердой науки, я согласен создавать технологии без полного объяснения того, как они работают, если это кажется правдоподобным, но я хочу быть максимально реалистичным в своем мире и оставаться последовательным в любой технологии, которую я использую. добавить в мир. Это затрудняет оправдание космических истребителей малой дальности...

Я использую ручные волны, частицы Миновского и подобные уловки, чтобы оправдать космические истребители, особенно наличие энергетических щитов требует использования энергетического оружия ближнего действия, чтобы пробить их, они более уязвимы для множества более слабых атак небольших истребителей, чем несколько крупных атак крупных кораблей, а мощное электромагнитное излучение от щитов в сочетании с активными электронными средствами противодействия препятствует их дистанционному управлению.

Самая большая проблема, с которой я столкнулся при оправдании этих космических истребителей, — это ИИ. По-прежнему кажется, что хороший ИИ будет более полезен для этих космических истребителей, чем для пилотов-людей. Стоимость космических истребителей возрастает, если вам нужно включить системы жизнеобеспечения, и на самом деле, увеличенный размер истребителей, чтобы вместить человека, средства управления и жизнеобеспечения, делает их более крупной мишенью. Мои истребители класса «Ас», редкие истребители, оснащенные собственными щитами, особенно страдали от лишнего размера, делающего щиты заметно менее эффективными. Удаление людей из истребителей делает их дешевле и меньше.

Кроме того, будущий ИИ, вероятно, будет быстрее реагировать на атаки, чем люди, менее предсказуем, более надежен (не предаст вас, не отступит в страхе, не сделает глупостей или не попытается пилотировать в нетрезвом виде), лучше чтобы справиться с настоящим трехмерным боем, о котором люди не привыкли думать, и способным справиться с перегрузками, с которыми люди не могут. Плюс использование ИИ означает отсутствие человеческих жертв в случае уничтожения истребителей.

Тем не менее, я хочу, чтобы моими главными героями были пилоты-люди. Я не хочу, чтобы существовали истребители, управляемые ИИ. Таким образом, я хочу придумать лучшее обоснование (я) того, почему люди все еще будут пилотировать эти транспортные средства.

Прямо сейчас моим лучшим оправданием было просто сказать, что в нашем будущем развитие ИИ застопорилось. Хотя мы можем делать все, чем сейчас управляем, и некоторые вещи ИИ делает лучше, ИИ, способный обрабатывать сложные боевые действия в космосе, просто еще не разработан. Однако мне это кажется маловероятным. Я программист, и мне кажется, что наш сегодняшний ИИ, прошедший достаточное (я говорю многолетнее) развитие, уже почти справился с управлением космическим истребителем. Откажитесь от более быстрой обработки и более совершенных компьютеров, которые будут существовать в будущем, и трудно поверить, что ИИ будет менее подходящим, чем люди.

Есть ли другие подходы, которые я могу использовать, чтобы оправдать пилотов-людей перед ИИ? У меня не будет предыстории «ИИ сошел с ума и попытался нас всех убить» или иным образом заставлять людей бояться «сценария терминатора». Я не обсуждаю человеческий интеллект или настоящий «обучающийся» ИИ, когда говорю здесь об ИИ, поэтому нет никакой опасности, что ИИ окажется достаточно умным, чтобы восстать, и я просто не считаю это реальной проблемой.


РЕДАКТИРОВАТЬ: я как бы подразумевал это, но, чтобы быть ясным, я не говорю об обучении сильного ИИ на уровне разума или о чем-то более продвинутом. Я говорю о слабом ИИ в том смысле, в каком мы его сейчас имеем, в основном, он быстро реагирует на запрограммированные стимулы так, как его программисты считают лучшим, с некоторыми стратегиями случайности и теории игр, чтобы избежать предсказуемости. Ему не нужно учиться или быть способным делать что-либо, кроме управления истребителем и стрельбы по вещам. Разумный ИИ никогда не будет ни в одной из моих историй, я думаю, что это ломает игру и скучно.

Окончательное решение: Ничего себе, я не могу отблагодарить всех в достаточной мере, было множество веских причин, перечисленных ниже. Я не думаю, что кто-то один полностью решает проблему, по крайней мере, не в пределах моего желаемого мира и ограничений на то, какие технологии и ограничения я хочу в нем разместить; но, к счастью, у меня есть много причин!

Один из моих персонажей — пацифист и программист, который эффективно пишет базовый слабый ИИ для управления щитами и работает над тем, чтобы найти способ убрать пилотов с истребителей, потому что он полагает, что люди всегда будут воевать, и лучшее, что можно сделать, — это ограничить смертей от него. Я хочу, чтобы он начал тираду о том, как он хотел бы заменить пилотов ИИ, и, когда его спросят об этом, он немного разглагольствует о многочисленных факторах, которые ограничивают ИИ, и которые все совместно работают над тем, чтобы сделать его еще нежизнеспособным и вряд ли будет жизнеспособным какое-то время. Я собираюсь использовать многие из приведенных ниже ответов, чтобы заполнить его длинный список причин, которые он приводит. Поэтому я чувствую себя плохо из-за того, что могу вознаградить только одного человека за лучший ответ, по крайней мере, полдюжины ответов людей будут использованы.

Вот краткий список большинства вещей, о которых он будет говорить, хотя я включаю некоторые другие второстепенные части других ответов.

  • Технологии искусственного интеллекта не сильно продвинулись в будущем. У нас есть более быстрые компьютеры, но наши подходы к изучению ИИ и генетических алгоритмов до сих пор не подходят для крупномасштабных инструментов; поэтому мы по-прежнему зависим от темно-синего цвета «вычислить все возможности в квадратично расширяющемся дереве», который просто плохо масштабируется. как гик, я почти вижу, как он начинает объяснять большой O и то, как квадратичное увеличение скорости обработки в год не может идти в ногу с более высоким большим O сложности обработки для каждой наносекунды «заглянуть вперед», необходимой для этих ИИ, прежде чем он поймет он говорит над головами своей аудитории.
    • Ограничения в развитии ИИ означают, что люди лучше принимают решения в пылу битвы. Поскольку связь во время перестрелок несколько ограничена случайными пакетными передачами (ограничения моего мира, обычная связь эффективно заблокирована, квазисветовая связь существует, но ее работа ограничена), важно иметь кого-то, кто может принимать решения, даже если связь прерывается. полностью вниз.
  • ИИ дорого. Щиты излучают мощное электромагнитное излучение и даже всплески ЭМИ. Работа на поле боя с таким большим количеством ER требует более дорогого экранированного оборудования, а более дешевые неэкранированные мобильные костюмы лучше производить в массовом порядке. Компьютеры все еще могут существовать, но ваша вычислительная мощность больше ограничена расходами на создание машин, которые функционируют в космосе с ER и другими выбросами в бою.
  • Я неохотно согласился, чтобы пилоты использовали интерфейс «мысль-машина» для выполнения части своего пилотирования, хотя я заставлю их использовать комбинацию этого и обычных элементов управления, утверждая, что MMI может взаимодействовать только с определенными частями разума. которые проще всего преобразовать в действенные команды. В частности, MMI используется только для движения и навигации, а физическое управление — для всего остального. Я бы предпочел избежать этого из соображений повествования, но в противном случае слишком сложно оправдать достаточно высокую скорость реакции пилотов.
  • Все это в совокупности приводит к тому, что ИИ существует на истребителях, но ограничен определенными функциями. Люди по-прежнему используются для тех вещей, которые мы не можем заставить ИИ делать легко и дешево.

Другие более политические факторы, которые также играют роль, в первую очередь в ограничении финансирования разработки методов решения вышеуказанных проблем.

  • Люди не доверяют ИИ оружие, все боятся, что они станут красными и навредят людям. Он, вероятно, продолжит указывать на то, что отчасти это необоснованное предубеждение в отношении людей, которые смотрят слишком много нереалистичных научно-фантастических историй, но, тем не менее, предубеждение против этого.
  • Люди не доверяют ИИ из-за боязни взлома. Он открыто говорит, что это ерунда, и блокировка системы потребует усилий программиста, но это ни в коем случае не невозможно, но политики, а не программисты, подписывают чеки на покупку оборудования; и вы не можете убедить их в этом факте.
  • существует политическое давление, чтобы люди оставались пилотами. Сочетание страха перед ИИ в оружии, солдат, не желающих быть безработными из-за ИИ, стремления к ответственности и веры в то, что войны будут становиться все более и более чрезмерными без человеческого фактора.
  • Людям нужны люди, готовые/способные сказать «нет», если генерал зайдет слишком далеко в своих решениях. Будет печально известный в прошлом пример генерала, который пошел против приказа и выстрелил из многочисленных автоматических вооружений без учета их эквивалента Женевской конвенции, убив многих мирных жителей, и в целом весь инцидент считается зверством. Принято считать, что это был один сумасшедший без какой-либо поддержки со стороны других, которые смогли сделать это только потому, что в автоматизированных системах не было никакой проверки, чтобы один человек не уволил их всех. У всех военных теперь есть несколько человек, необходимых для авторизации автоматического оружия, как и должно было быть тогда, но этот инцидент до сих пор помнят. Один из аргументов против ИИ заключается в том, что такая ситуация может повториться, если пилот не будет отказываться от незаконных приказов.
  • Различные настройки моей технологии, чтобы сделать ограничения пилотов не такими значительными. Например, лучшие силовые установки для экранированных кораблей имеют ограниченное значение дельта-V, потому что другие силовые установки либо слишком дороги для массовых (не экранированных) истребителей, либо дестабилизируют щиты для экранированных кораблей. Это, в свою очередь, ограничивает перегрузки, возлагаемые на пилотов. Я также использую инерционные демпферы для бедных, чтобы решить проблемы с перегрузкой.
Это похоже на дубликат: worldbuilding.stackexchange.com/questions/8587/…
Аналогичный вопрос был задан на сайте Aviation StackExchange — Aviation.stackexchange.com/q/1802/615 .
Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Должны ли люди быть «нашими» (т.е. с нашей Земли) потомками? Или история может происходить в немного другой вымышленной вселенной, или «люди» с другой планеты? - Как Battlestar Galactica или Star Wars, где есть люди, но они не мы.
Хм, я не знаю, почему я еще не подумал об этом, но на самом деле это довольно просто: автоматическое наведение (а беспилотные истребители не что иное) ВСЕГДА было гонкой вооружений против его средств противодействия (сигнальных ракет, ложных целей и т. . В вашей вселенной контрмеры только что победили (из-за верхнего предела нацеливания на компьютеры). Следовательно, возможны только истребители и (прицеливаемые вручную) крупные корабельные орудия. [То, что истребители также имеют средства противодействия, объясняет, почему противоистребительные батареи не могут уничтожить их немедленно]

Ответы (37)

Я программист, и я согласен с вами, что в конечном итоге ИИ в этом сценарии станет непобедимым. Обычный научно-фантастический троп состоит в том, что люди лучше думают «нестандартно», и поэтому они в конечном итоге побеждают ИИ, но это просто неоправданно, существуют методы программирования, чтобы обойти это.

Тем не менее, я думаю, что вы все еще можете оправдать пилотов-людей, если не зайдете слишком далеко в будущем. Вот проблемы, как я их вижу:

Жизнеобеспечение

Это не тот барьер, который вы ожидаете. Имейте в виду, что большая часть компьютерного оборудования также не будет работать при экстремально низких или высоких температурах, поэтому, другими словами, вам также нужна «жизненная поддержка» для ИИ. Теперь на капитальном корабле жизнеобеспечение имеет большое значение, потому что вы должны быть самодостаточными, но в истребителе, где вы можете ожидать, что он будет активен всего несколько часов за раз, вы можете обойтись очень минимальной настройкой. Получайте отработанное тепло от ваших двигателей, имейте какой-то способ охлаждения и используйте рециркуляцию воздуха. Вполне вероятно, что система жизнеобеспечения пилота-человека будет очень близка к системе искусственного интеллекта.

Ускорение

Это гораздо больший барьер. Люди уязвимы для высоких перегрузок. Блоки ИИ, если они спроектированы правильно, могли выдерживать гораздо более высокие ускорения и более резкие маневры. Если вы хотите сохранить людей, вам нужна какая-то технология инерционной компенсации, которая позволит вашим биологическим существам не отставать от своих искусственных соперников в этой области.

Время реакции

ИИ быстрый. Но почему бы не улучшить своих людей? Дайте им какие-нибудь нанотехнологии или генетические приспособления, которые заставят их реагировать быстрее. Дело в том, что у вас убывающая отдача, и в этот момент другие факторы становятся более важными. Разница между реагированием за 0,1 секунды и 0,01 секунды очень велика. Но разница между 0,01 и 0,001 может даже не иметь значения, потому что в этот момент вас удерживают механические ограничения вашего бойца. Таким образом, вам не нужны ваши люди, чтобы поймать ИИ, вам просто нужно сделать их обоих достаточно быстрыми, чтобы использовать их истребитель на пределе возможностей.

Суд, неожиданные события и гражданские лица

И вот где вам нужны пилоты-люди. Я чувствую, что весьма вероятно, что тупой ИИ — тот, который специализируется на управлении истребителем, но не может толком думать — на самом деле не сможет делать все те звонки, которые вы хотите от пилота истребителя. Я не говорю о боевом маневрировании, но что происходит, когда гражданское грузовое судно случайно входит в зону боевых действий? Что, если враг замаскируется под гражданское грузовое судно, а ваши ИИ запрограммированы игнорировать его?

Если противник запускает ракеты по двум местам обитания, достаточно ли умен ваш ИИ, чтобы попытаться перехватить, а не продолжать сражаться, если это не было в параметрах миссии? Может ли он принять решение об убийстве 100 человек, чтобы спасти 10 000, и должным образом учесть это при принятии военных решений? Вы действительно хотите загрузить ядерную ракету в тупой ИИ и дать ему разрешение использовать ее без присмотра?

Это вещи, с которыми у пилота-человека тоже будут проблемы, но я думаю, что они все же гораздо лучше подготовлены, чем ИИ.

Примечание. Если вы зайдете достаточно далеко в будущем, вы, вероятно, даже сможете запрограммировать его для обработки вышеуказанных сценариев. Так что все зависит от того, где вы проводите свою линию компьютерных технологий.

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Примечание: у лучших игроков в Quake реакция глаз->мозг->пальцев составляет около 200 мс. Это естественный предел.
То есть, по сути, «ИИ никогда не может надеяться соответствовать Нулевому закону»?
@Nakilon Лучшие игроки в Quake — это те, кто умеет читать и перехитрить своего противника. Время реакции и идеальное прицеливание — это только входной билет на профессиональную сцену, где люди будут предсказывать ваши действия и противодействовать им, лишая вас ресурсов и навязывая вам только благоприятные условия. В нашем вопросе это напрямую означает, насколько мощным и адаптируемым является искусственный интеллект по сравнению с пилотами-людьми.

Каррик резко и болезненно вздохнул, когда длинная тонкая игла вонзилась ему в затылок. Он совершил тысячу самолето-вылетов, но пристегиваться к истребителю все еще было чем-то неестественным. Миллиарды лет органической эволюции требовали, чтобы острый предмет, вонзающийся в затылок, вызывал сопротивление и боролся с ним. Однако почти мгновенно игла начала закачивать поток сыворотки Миновского в его мозг, притупляя все острые и зазубренные грани мира. Каррик вздохнул с облегчением и расслабил глаза.

Он чувствовал, как сыворотка проникает глубже в его мозг, и приветствовал знакомое ощущение резкого падения, когда время начало замедляться. Он смотрел на калибровочные часы, прокручивая в голове уравнения, чтобы подсчитать, насколько быстро его мозг работает.

10x. Это была скорость, с которой он мог наблюдать взмахи отдельных крыльев колибри. При такой скорости мысли он мог поймать в руки стрекозу. Компьютер класса Ace, конечно, был бы непонятен. Он погрузился глубже.

30x. Это была скорость, с которой он потерял способность общаться с людьми, все еще работающими в обычном масштабе времени, но все же недостаточно быстрой.

100x. Поскольку его мозг работал в сто раз быстрее, чем в состоянии покоя, он больше не мог комфортно говорить, так как мышцы голосового тракта не успевали за скоростью, с которой его разум посылал им команды. Он быстро провел пальцами по краю приборной панели. Эти металлические протезы рук пилота, конечно же, не страдали такими проблемами. Его разум был на пределе, наконец, он был готов к интерфейсу с компьютером. Что еще более важно, на такой скорости, когда сыворотка Минковского циркулировала в его мозгу, он, наконец, мог думать достаточно быстро, чтобы определять действия других близлежащих разумов .. Он заглянул в пространство разума и увидел, как его наземный экипаж сгрудился вокруг истребителя, очень медленно заканчивая подготовку своего истребителя к взлету. Далеко над собой, почти на орбите, он увидел двойной разум другого летчика-истребителя и ее компьютера, пробивающего последние несколько слоев атмосферы. Он помахал мысленно «привет» и приблизил свой мысленный взор к себе. Там, в цепях вокруг него, терпеливо ждал Эйс, его компаньон. Эйс, конечно, был терпелив, как всегда были ИИ, и не стал бы торопить Кэррика или пытаться вступить в контакт, пока тот не будет готов. Кэррик еще раз взглянул на часы на приборной доске. Убежденный, что он полностью погрузился в новый поток времени, он обратился к Эйсу.

«Хорошо, приятель, подключи меня. У нас есть задание».

Если вы готовы немного помахать руками в своей науке, почему бы не придумать что-то, что сделает людей необходимыми?

В этой истории я добавил сыворотку Минковского именно для этого. Сами по себе люди слишком медленны, чтобы помогать компьютеру, и не могут делать ничего, что компьютер не может делать лучше. Однако ускорить их разум до 100 раз и дать им возможность видеть другие разумы, роботизированные или органические? Теперь они являются незаменимой частью пары человек/машина, которая может реагировать на чисто механическую систему, обращая внимание на то, что она думает, а не на то, что она делает. Это, конечно, распространяется на такие вещи, как ракеты, что делает такое стандартное дальнобойное вооружение бесполезным против истребителя-аса.

Эффекты этой сыворотки, конечно же, не были воспроизведены на машинах. Человеческие ученые даже не совсем уверены, как работает эта сыворотка. Он извлечен из инопланетных организмов, которые были найдены глубоко под руинами вымершей инопланетной цивилизации возрастом в миллиард лет. В чем они уверены, так это в том, что он может превратить правильного человека с правильной подготовкой в ​​одно из самых мощных орудий в галактике.

Хороший! Но даже человеку, который может думать так же быстро, как компьютер, все равно нужно инерционное демпфирование, чтобы не отставать от корабля без мяса. Тем не менее, отличное дополнение к одному или нескольким другим ответам.
Я серьезно задумался о человеко-компьютерном интерфейсе. Тем не менее, я хочу, чтобы непилот управлял прототипом аса с дистанционным управлением, поскольку это единственный выживший после атаки, направленной на его кражу. По разным причинам я боялся, что будет труднее показать рост не-пилота в полуквалифицированного пилота и трюки, которые он использует, чтобы компенсировать ограниченные навыки по сравнению с пилотами-асами. Однако теперь я думаю, что если бы у нас был ограниченный HCI-интерфейс, который не позволяет полностью управлять кораблем, но может использоваться для частичного управления, скажем, только движением, это все равно можно было бы заставить работать.
Пряность должна течь.
Я думал о человеко-компьютерном интерфейсе не столько как об интерфейсе, через который человек использует компьютер, сколько как о кибернетическом расширении человеческого разума. Таким образом, человек может контролировать все, что касается бойца, потому что подключение к компьютеру расширило его разум до такой степени, что он может понять все, что нужно сделать достаточно быстро, чтобы сделать это. У компьютера, конечно же, есть собственный рудиментарный разум, который работает вместе с пилотом.
Такое расположение может быть полезным, если у вас есть неквалифицированный пилот, привязанный к одному из ваших истребителей, поскольку это означает, что у них есть кто-то (ИИ), который научит их управлять вещами. У ИИ нет такой способности чувствовать вещи, как у человеческого разума, усиленного сывороткой Минковского, но он контактировал с достаточным количеством таких разумов, чтобы примерно сказать нашему начинающему пилоту, что ему следует искать и как пилотировать истребитель. боевая обстановка.
Интересно. Но каковы пределы скорости глазных мышц?
@ckersch Вы только что придумали текст или это отрывок из более длинного текста, который действительно можно прочитать? Я хочу знать продолжение истории! ;)
Звучит очень похоже на пилотов-истребителей Копперхеда из трилогии Тимоти Зана « Завоеватели » — +1.
@HenrikIlgen Выдумал, хотя в какой-то момент я могу написать об этом больше. Рад что вам понравилось!
Замечу, руки пилота-протеза, наверное, лучше отрисовывать как "руки" только в абстрактном смысле - интерфейсы, а не физические объекты. В противном случае вы добавляете их потребность совершать физические движения к потенциальному времени реакции. Лучше иметь био-цифровой канал связи мозг-интерфейс-истребитель.

Я бы дал простой ответ: международные законы.

Женевская конвенция,Конвенция о биологическом оружии,Конвенция о химическом оружии,Гаагская конвенция,Договор по космосу,Договор по противоракетной обороне

Когда оружие становится слишком эффективным и страшным, его запрещают. Вам не нужен сценарий терминатора, просто историческая война, в которой одна человеческая сторона выиграла очень быстро и чрезвычайно жестоко (или, возможно, когда обе стороны уничтожили правительство другой и вынудили международное сообщество вмешаться) с использованием искусственного интеллекта. за которым последовало джентльменское соглашение всех сторон о том, что независимые боевые машины, управляемые ИИ (особенно самовосстанавливающиеся или самовоспроизводящиеся), не будут развернуты так же, как ядерное биологическое и химическое оружие.

Будут строгие ограничения на автоматизацию военных кораблей, и ИИ, вероятно, все еще будет использоваться в планировании и логистике, но ни одна из сторон не хочет нарушать международное/межзвездное право.

Обе стороны будут поддерживать запасы кораблей, подобных ядерному сдерживанию, которые они обычно не используют, и боевые действия оставлены на откуп пехоте.

Таким образом, в этой истории ИИ можно использовать для борьбы, но это не так, по той же причине, по которой отравляющий газ не применялся во время Второй мировой войны, а ядерное оружие не применялось в войнах в Персидском заливе.

Это должен быть закон, который уважают обе стороны, что, вероятно, подразумевает инцидент в прошлом.
Должен признать, это достойный момент. Я против концепции разумного ИИ и поэтому не хочу войны с участием разумного ИИ. Я не против исторической войны, которая была просто очень жестокой из-за ИИ. Я рассмотрю эту возможность.
Кстати, человеческий страх перед оружием ИИ и стремление к гражданскому (читай: человеческому) контролю над вооруженными силами. У звездного истребителя может быть разрушительный потенциал ракетной субмарины, и у них есть люди на ключах с разной степенью свободы действий ( en.wikipedia.org/wiki/Letters_of_last_resort ).
«В целях устранения пробела в подотчетности, который возник бы в случае производства и развертывания полностью автономного оружия, Хьюман Райтс Вотч и Международная клиника по правам человека Гарвардской школы права (IHRC) рекомендуют государствам: а) запретить разработку, производство и использование полностью автономное оружие посредством международного юридически обязывающего документа. b) Принять национальные законы и политику, запрещающие разработку, производство и использование полностью автономного оружия». - hrw.org/sites/default/files/reports/arms0415_ForUpload_0.pdf
Или Батлерианский джихад в «Дюне» Фрэнка Герберта, запрещающий машинам делать то, что должны делать люди. Это, конечно, имеет следствием то, что люди будут созданы для того, чтобы делать то, для чего предназначены машины.
Я знаю, что это происходит задним числом, но это также открывает возможность того, что антагонистом может быть правительство, которое не играет по правилам, использует оружие ИИ (даже если оно полностью под контролем) и является агрессивным. завоеватель...
То есть сегодня вооруженный ИИ будет похож на ядерное оружие?

Примечание. Согласно вашему редактированию, я использую ИИ для обозначения современных не обучающихся логических ИИ, а не разумных ИИ.

Подумайте о том, чтобы идти вместе с ним и работать с ИИ, а не против него.

Современные истребители настолько зависят от компьютерного ИИ, что вы практически не сможете управлять F-22 или F-35 без помощи компьютера. Если вы уберете ИИ, ваши космические истребители будут немногим больше, чем истребители и бомбардировщики времен Второй мировой войны среди истребителей с искусственным интеллектом, летающих вокруг них. Примите ИИ, не боритесь с ним.

А затем выйти за рамки ИИ. Да, у нас есть БПЛА, но в большинстве самолетов все еще есть человек, управляющий ИИ. Человек принимает решения на более высоком уровне (например, «быстро крен вправо на 90 градусов»), а компьютер заботится о решениях на рефлекторном уровне («Я обнаруживаю, что вихрь перекатывается через правое крыло, поэтому мне нужно отклонить элероны на 3 градуса вверх за 0,0015 секунды). ... ИДТИ"). Это матч-ап, который снова и снова доказывает свою эффективность. Даже в мире шахмат этот матч выигрывает. Компьютеры, наконец, обыграли людей в шахматы, но самый энергоемкий шахматный компьютер в мире не может сравниться с мастером-человеком, у которого есть копия Fritz 10 и обычный ноутбук.

Таким образом, хитрость заключается в том, чтобы пилоты оставались жизнеспособными, а не в том, что ИИ не может выполнять свою работу. Одна вещь, которую я заметил, это то, что люди, как правило, гораздо лучше справляются с тонкими балансами. Хотя ИИ может «сойти с ума» и вернуться гораздо быстрее, чем любой человек, его трудно заставить стоять на месте. В конце концов они болтают, пытаясь судорожно внести поправки, и большая часть современной теории систем управления посвящена попыткам разработать способы улучшения этого судорожного контроля.

Что вам нужно сделать, так это создать бой таким образом, чтобы лучший результат был не у того, у кого самая быстрая реакция, а у того, кто может удержаться в центре хаоса.

Примерная боевая ситуация, которая может продемонстрировать это, — это ситуация, когда компьютеры создают чрезвычайно сложное игровое дерево, чтобы определить, в какую сторону двигаться. Вы, как правило, начинаете с безопасной позиции, но если вы когда-нибудь выйдете из «безопасной» позиции, компьютер будет медленно перемалывать вас до смерти своей безжалостной теорией игр.

Однако есть одна загвоздка. По мере того, как безопасная зона становится все меньше и меньше от приближения к вражескому самолету, прогнозировать таким образом становится все сложнее. Пилоты вскоре рассказывают о своем «центре». Пока вы сохраняете центр с помощью плавных и элегантных движений, действительно не имеет значения, что ИИ делает для вас или против вас, никто не сможет вас тронуть. Однако потеряв на мгновение хладнокровие, вы можете сделать одно судорожное движение и потерять свой центр. В тот момент, когда это произойдет, вражеский ИИ отправит вас в небытие.

Хитрость заключается в том, что, когда вы «сосредоточены», вы получаете удивительно мало информации об окружающем вас мире, потому что на самом деле вы мало с чем взаимодействуете. Ты просто паришь среди шума боя. Компьютерные ИИ просто не могут справиться с отсутствием стимула и падают с центра, чтобы разлететься вдребезги. Только с хорошо обученным человеком у руля вы сможете пройти эту тонкую грань. Затем? Ты практически бессмертен. Ничто не может коснуться тебя. Никакой ИИ не может конкурировать, когда вы сосредоточены, и ни один человек никогда не сможет прикоснуться к вам сам по себе... ваш ИИ уничтожит их.

Я надеюсь, что выбор между людьми без посторонней помощи и чистым искусственным интеллектом не так резок. Я видел еще один комментарий о гибридном подходе. У вас отдельное оборудование, у них через аугментацию. Я думаю, что глупо не использовать компьютеризированный полет, потому что он у нас есть сегодня по причинам, которые вы упомянули.
Мне нравится такой подход, но будьте осторожны: он может быть опасно близок к паре крестокрылов и астромеханических дроидов во вселенной «Звездных войн». Особенно в романах ЕС дроид может при необходимости взять почти автономный контроль над истребителем, хотя он не может совершать те же искусные маневры, что и пилот-человек (или другой человек).
@ilinamorato Пилотировать не так сложно. Сегодня я бы доверил пилотирование компьютерам. Во многих случаях я бы доверял себе без ИИ, и у меня вообще нет никакого обучения. Тем не менее, у нас нет пилотов, когда это легко. У нас есть пилоты на те 3 секунды ужаса, когда все идет не так. Я бы ни на секунду не стал притворяться, что могу вести самолет в зону боевых действий. Я бы ни на мгновение не стал притворяться, что могу справиться с возгоранием двигателя коммерческого авиалайнера. Иногда нет замены обученному профессионалу с его оборудованием.
@Cort Ammon, но проблема здесь не в реальности, а в ее восприятии. По мнению многих людей, пилотирование самолетов невообразимо сложно, а космических кораблей и подавно. Если написать в рассказе, что это так, это не разрушит добровольную приостановку неверия у большинства.
Американский космический шаттл было трудно приземлиться, причиной была PIO, Pilot Induced Oscillation. Человек слишком остро реагировал на входные данные, поэтому НАСА уменьшило вход пилота в несколько раз. Решил проблему. В этом контексте пилот необходим для принятия решения, ИИ используется для того, чтобы заставить истребитель повернуться, чтобы поддержать решение.

ЭМИ. У больших кораблей есть электромагнитные генераторы, которые могут сжечь или, по крайней мере, вывести из строя тонкую электронику, поэтому для поддержания полета истребителей требуется человеческий компонент.

Истребители используют оптоволокно для большинства систем (например, оружия, управления двигателем, полетных систем), поэтому ЭМИ не оказывает слишком большого влияния на пилотируемый корабль. Если хотите, он может вывести из строя дальнюю связь или, возможно, продвинутые датчики, требующие, чтобы истребители находились на расстоянии видимости.

Так почему бы не сделать компьютеры с искусственным интеллектом тоже оптоволоконными? Потому что для имитации принятия решений человеком требуется гораздо большая вычислительная мощность, чем для простого запуска систем, и создание этого в громоздкой оптической форме (и выполнение этого настолько идеально, чтобы ЭМИ не нарушал его точные расчеты) нецелесообразно. Может быть, кто-то и придумает полуинтеллектуальный «беспилотный» истребитель, использующий волоконно-оптическое ядро, но он хрупкий, потому что любое повреждение его клетки Фарадея и его сенсоров становится уязвимым для ЭМИ — звучит как хороший «мук» для империя зла!

хм, я подумаю об этом. Я могу легко заставить ЭМИ возникать естественным образом как побочный эффект щитов, отражающих атаки, что кажется более естественным способом ввести угрозу ЭМИ. Тем не менее, я не знаю, могу ли я действительно обосновать утверждение, что истребители (и люди!) в остальном невосприимчивы к ЭМИ, и как я могу утверждать, что на огромных крупных кораблях нет компьютеров? Я мог бы сказать, что неэкранированные корабли уязвимы, но не экранированы; за исключением того, что я хочу, чтобы мои компьютеры были летающими экранированными истребителями, это то, что делает их уникальными персонажами, влияющими на мир, у них есть редкие истребители уровня крупных кораблей!
Я бы сказал отдельное генерирование ЭМИ и иммунитет от щитов. Это дает вам больше возможностей — небольшой боевой корабль без щита, но с ЭМИ-пушками; большой корабль со щитом, но без ЭМИ-пушек именно потому, что никто не использует истребители ИИ, и, конечно, тогда он уязвим для атаки ИИ из левого поля. Обратите внимание, что создавать системы с защитой от ЭМИ несложно, а рукопожатие касается того, почему ИИ не может быть защищен аналогичным образом.
Мне трудно принять идею о том, что «компьютер должен быть физически больше, чтобы быть достаточно мощным». Я предполагаю, что компьютеры для вооружения, управления двигателем, жизнеобеспечения, распределения энергии, связи и полетных систем должны быть достаточно мощными, а также связанными друг с другом. Предположительно, они распределены по оптическим каналам связи, чтобы избежать связи с ЭМИ, но почему бы не распространить и компьютер ИИ?
Мы, вероятно, не будем знать в течение десятилетий. Но сейчас компьютеры, необходимые для управления истребителем, требуют ничтожной доли его объема, массы и выходной мощности, а даже самые совершенные суперкомпьютеры не могут пройти тест Тьюринга. Я не думаю, что для ИИ 22-го века потребуются сотни килограммов оборудования, но это наиболее правдоподобная возможность [которая делает необходимыми пилоты-люди], которую я могу придумать . Или, может быть, защита от ЭМИ делает его громоздким и тяжелым, и в этом случае гражданские суда, вероятно, будут управляться искусственным интеллектом.
@JonofAllTrades Почему этот ИИ должен пройти тест Тьюринга? Это не обучающийся или разумный ИИ. ОП говорит, что это «просто продвинутые алгоритмы, которые быстро реагируют так, как они запрограммированы».
@ Самуэль, компьютер, который управляет моей машиной (и «подключен к сети» для ускорения, впрыска топлива, кондиционирования воздуха и т. д.), подходит для нескольких чипов. Компьютер, который отвечает на вопросы Jeopardy, занимает довольно много места . Управление дискретными системами (даже объединенными в сеть) на основе внешней информации является простым (небольшим и защищенным) по сравнению со всей работой, связанной даже с такими простыми задачами, как вождение автомобиля .
@MichaelT В этом разница между прототипом и производством. Watson, компьютер Jeopardy, теперь имеет размер «трех сложенных друг на друга коробок для пиццы» , что составляет 10% от его размера во время шоу. При этом он также добился «улучшения производительности на 2400 процентов». Я не знаю, каков ваш пример с беспилотным автомобилем, но держу пари, что можно с уверенностью предположить, что он датирован или скоро будет так же датирован, как и ваша ссылка на Watson.
@Samuel, это скорее комментарий о том, что не следует сравнивать систему, обеспечивающую автоматическую природу транспортного средства, с компьютерами, управляющими различными системами (как предлагается в «Я представляю компьютеры для оружия, управления двигателем, жизнеобеспечения, распределения энергии, связи и полетные системы должны быть достаточно мощными, а также связанными друг с другом»). Всегда будет разница в несколько порядков между компьютерами для автоматической системы и компьютерами для управления системами автомобиля (на основе пилота, управляющего им).
@MichaelT Я не предполагал, что каждый из них будет одинаковым, только то, что компьютер с искусственным интеллектом можно разделить на оптически связанные части одинакового размера.
Насколько опасны взрывы ЭМИ, способные поджарить машины для пилотов - людей ?
Дальность видимости в космосе работает не так, как в атмосфере - скорости и дальности гораздо больше.
@dtldarek: Действительно, но кажется очевидным, что ОП ищет космические истребители в стиле космической оперы, а «электронные датчики просто сожгут вражеские ЭМИ» - достойное оправдание для боя на дальностях всего в несколько километров, а-ля [ваше любимое научно-фантастическое шоу].

А как насчет взлома? Предположение, что пилотам ИИ потребуется подключение к какой-то сети дальнего действия для выполнения приказов, представляет собой проблему безопасности: если кто-то сможет перехватить сигнал и взломать протоколы ИИ, он может дать команду кораблю развернуться и бежать или ( еще хуже) атакуют отправителя.

Возможно, в вашей истории в какой-то момент в прошлом они пытались использовать пилотов ИИ, но так и не смогли решить проблему вылета между пилотами ИИ, превращающегося в битву между хакерами.

Это мой предпочтительный ответ, поскольку мы уже находимся в хакерской войне (Запад против Китая), и я вижу, что проблема только усугубляется.
Я не думаю, что это может быть единственной причиной, как программист. Взлом состоит скорее в том, чтобы сказать «о, они забыли запереть это окно», а затем «давайте взломаем этот замок с помощью нашего 1337 5K1LLZ. Легко пропустить дверь, которую нужно запереть, когда есть 100 дверей, но это выполнимо. жалобу с добавлением его в качестве одной из причин отсутствия ИИ, даже если это не единственная причина. Может быть, даже добавить общее «Конгресс не понимает в программировании, поэтому они боятся финансировать оружие ИИ из-за страха взлома, хотя это не проблема, разве люди не глупые" вайб, так как один главный персонаж также кодер
Однако, если обе стороны используют эту технику и затронут только процент истребителей, все же может иметь смысл использовать пилотов ИИ. Можно было бы ожидать, что пилоты ИИ будут скомпрометированы, скажем, в 10% случаев, вы все равно получите 90% работающих истребителей. На самом деле обе стороны могли бы создать специализированные подразделения, задача которых заключалась бы в захвате вражеских пилотов, чтобы обеспечить равное количество потерь и, следовательно, гомеостаз.
@dsollen - понял и согласился, но история должна быть не столько о фактической природе взлома, сколько о предполагаемой природе взлома. Обоснование не обязательно должно быть безупречным, и большинство людей воспримут это как причину отказаться от ИИ-истребителей. Кроме того, как вы заметили, во вселенной есть веские причины, чтобы оправдать это.
@neontapir - потеря 10% ваших бойцов из-за хакера все еще может быть катастрофой. Если 10% выйдут из-под контроля внутри авианосца и начнут расстреливать остальных до запуска — или даже просто самоуничтожатся — это может нейтрализовать огромную часть сил одной из сторон еще до начала битвы. Если бы они были запрограммированы поворачиваться против своей стороны после завершения битвы, отступление могло бы превратиться в бойню.
Правда, однако, если бы обе стороны регулярно использовали эту тактику, я мог бы увидеть адаптацию там, где это становится ожидаемым поведением. Например, на лошадях в бой долгое время не ездили. Чтобы решить проблему взлома, истребители могут быть запущены в космос «тупыми» и активированы далеко от корабля, а отдельные истребители могут не доверять друг другу и работать как отдельные единицы.
Определенно интересная концепция: запускать истребители в тупик и программировать их на активацию связи, когда они слишком далеко, чтобы причинить какой-либо вред! А действия в качестве отдельных юнитов придали бы им гораздо более человеческий характер. Я все еще думаю, что боязнь хакеров — разумная причина отправить людей в бой, но, возможно, именно эту модель выберет противоборствующая фракция, дающая главным героям возможность сражаться с ИИ.
Если вы хотите защитить свою систему от взлома, это на самом деле просто: системы с жестким кодом — довольно надежные методы защиты от взлома... Поскольку вы не можете изменить код, не меняя аппаратное обеспечение, это устранит боевые действия из-за большого количества хакерских операций. Таким образом обеспечивается кодирование ядерных ракет США. Чтобы взломать ядерное оружие, вы должны войти в индивидуальную ядерную шахту, сделать буквально ракетную операцию и выйти сухим из воды. См. мой другой комментарий для большого недостатка, хотя.
Таким образом, недостаток жестко запрограммированного пилота с искусственным интеллектом заключается в том, что в отличие от ракет, которым нужно знать, в какую сторону лететь, когда снижаться и когда взрываться, истребителям необходимо каким-то образом скоординировать атаку... что означает каждая система должна общаться друг с другом по сигналу... Если у вас есть сигнал, у вас есть путь внутрь и вы можете подделать командный сигнал, чтобы заставить компьютер делать что-то еще. Вы, скорее всего, не можете направить силы друг на друга ... но их можно отключить или указать, куда идти, чтобы покинуть зону боевых действий.
99% «взломов» сегодня происходят из-за человеческих ошибок. Удаление людей, вероятно, снизит вероятность взлома ваших автоматизированных систем.

Вы можете правдоподобно добиться этого, включив в свою историю оба следующих факта:

  1. ИИ не может из-за чего-то вроде законов Азимова причинить вред или убить человека.

  2. Дистанционное управление кораблями слишком подвержено помехам, помехам, средствам противодействия и т.п.

Первый предполагаемый факт, по-видимому, необходим для наличия ИИ уровня человека-истребителя. Они должны в той или иной форме следовать трем законам , иначе мы слишком боялись бы их строить или уже подчинялись бы им. Это не зависит от типа ИИ, например, «ИИ разумного уровня», эти законы будут встроены в любое оборудование, способное запускать ИИ высокого уровня. По сути, необузданный неразумный ИИ нанесет слишком много побочного ущерба, а необузданный разумный ИИ вызовет слишком много господства над роботами.

Второй предполагаемый факт вполне правдоподобен для любых двух достаточно передовых армий, сражающихся друг с другом. Он запрещает истребители-дроны, требуя пилотов-людей для управления кораблями.

@DaaaahWhoosh Кажется, вы пропустили первый пункт. Если ИИ в корабле, то это не боевой корабль.
Ах я вижу. Таким образом, ваш первый пункт полностью исключает ИИ, а второй пункт помещает людей на корабли. Имеет смысл. +1.
Законы роботов должны быть встроены в программное обеспечение ИИ. Они должны быть неотъемлемой частью ИИ, т.е. ИИ должен рассматривать законы как часть себя. ИИ не должен рассматривать законы как ограничения для себя, потому что это может означать, что они начнут искать способы их обойти.
Но каким-то образом вам придется объяснить, почему люди не могут проектировать и создавать ИИ, НЕ соблюдающие первый закон Азимова. Что может помешать обществу иметь отдельные заводы для военных роботов и для гражданских роботов? Если бы ИИ был действительно превосходен в бою, трудно представить себе общество, позволяющее себе потерпеть поражение в войне, потому что кто-то где-то написал в книге, что роботам нельзя позволять убивать людей. Кстати, у меня нет перед глазами книги, но Азимов написал рассказ, в котором они построили роботов с измененным первым законом, опустив часть «позволить человеку причинить вред».
@Jay Это ясно объяснено. Люди были бы слишком напуганы, чтобы сделать это.
@Samuel Если бы нации угрожала опасность быть уничтоженной безжалостной армией вторжения, трудно представить, чтобы люди не сказали: «Да, здесь есть некоторая опасность, но альтернативой является резня или порабощение». Может, нам стоит рискнуть.
@Jay Если бы это было частью истории, то, возможно, ладно. Но это не так. То же самое можно сказать и о вселенной Азимова, почему они не построили роботов без трех законов для самозащиты? Потому что придуманная тобой безвыходная ситуация так и не возникла.
@ Самуэль На самом деле нет. Во вселенной Азимова было (почти) невозможно модифицировать мозг робота, чтобы он не соблюдал три закона, не переделывая практически всю архитектуру мозга. Это важный момент во многих историях. И есть истории, где они построили несколько домов с ослабленными законами, что почти всегда приводило к большим проблемам. По какой-то причине законы присущи всему дизайну, а не только какой-то подпрограмме, проверяющей «Можно ли убивать return false;? Это имеет большой смысл — законы на самом деле невероятно сложны.
@Luaan Я не согласен. Ваш аргумент следует предположениям вселенной, и это именно то, что делает мой ответ и что я пытаюсь объяснить Джею. Это бесконечный спор, чтобы сказать кому-то, что это жестко запрограммированные законы , и этот человек может только сказать: «Да, хорошо, но что, если это не так?».

Гибридная пилотная система.

Реальность такова, что любой ИИ может быть сохранен в имплантах человека, поэтому у вас есть не только время реакции и вычислительная мощность ИИ, но и недетерминированная стратегия человеческого мозга.

Вероятно, менее чем через столетие у нас будет технология, позволяющая имплантировать все носимые устройства внутрь нашего тела. Представьте себе возможности того, что ИИ завладеет многими частями нашего мозга, делая нас даже больше, чем просто ИИ в чистом виде.

Добро пожаловать на сайт Трейдер. Гибридная идея — интересное решение этого вопроса.
Это то, что я бы предложил, но вы, вероятно, захотите расширить его. // На самом деле нецелесообразно делать людей лучше или даже конкурентоспособными с ИИ, но пока ИИ отличается от людей, гибридная система человека и ИИ будет побеждать и людей, и ИИ. Разумно гибридная система была бы более надежной и адаптируемой. Также с точки зрения истории, в то время как «Что человек добавляет к ИИ?» интересный вопрос: «Как прямая связь с ИИ меняет человека?» это золотая жила для писателя, способного ее исследовать. Пилоты-люди со временем стали думать по-другому.
Кроме того, хотя ИИ может храниться в импланте, он, вероятно, работает должным образом только тогда, когда пилот подключен к компьютерной системе транспортного средства. Или симулятор. Поэтому я думаю, что вычислительная мощность имплантата может быть ограничена. Имплантат может даже не активироваться без активного подключения к системе с соответствующей авторизацией. Этот уровень безопасности может распространяться на то, что пилот может помнить что-то только в разрешенной зоне. Дескать, точные характеристики истребителя не будут доступны во время увольнения на берег, сколько бы денег ни предлагали.
  1. Известно, что ИИ плохо распознает образы, особенно визуальные.

    Если у врага действительно очень хороший стелс-режим, вам нужен пилот, который может интуитивно чувствовать закономерности, чтобы победить этот стелс.

  2. Политика/теология.

    • Страна, подобная США, теперь является мировым гегемоном. А внутри «США» ультралиберальная партия находится под почти непоколебимым контролем. Те же самые люди, которые - по политическим, а не практическим причинам - сегодня, в 2015 году, лоббируют запрет боевых дронов в реальном мире по моральным, этическим или идеологическим соображениям ( Пример 1. Пример 2 ) .

    • Две конкурирующие мировые сверхдержавы должны были прийти к компромиссу, чтобы объединиться для ведения войны против инопланетян. Каждый боец ​​способен безвозвратно нарушить баланс сил грязной стороны. Истребитель с искусственным интеллектом может быть запрограммирован с помощью черного хода, позволяющего одной стороне управлять им. Если вы соедините это с пилотом из противостоящей силы, вооруженным переключателем уничтожения, это можно предотвратить (а ИИ может иметь независимый переключатель уничтожения, простой в кодировании и отладке, для предотвращения атак, направленных пилотом против земных целей). , сидя на интерфейсе пилот-истребитель).

  3. Кодекс бусидо

    • Ваша собственная цивилизация превратилась в самураев, владеющих бусидо. Прятаться за ИИ — это не путь воина, и это позорно

    • Ваши противники превратились в самураев, владеющих бусидо. У них есть оружие массового поражения, которое может уничтожить планету, но они будут использовать это оружие ТОЛЬКО против «недостойных», «трусливых», «бесчестных» врагов. Если вы используете ИИ, вас рассматривают как все 3 прилагательных выше. Поскольку у вас нет возможности спасти свою планету от их оружия массового уничтожения, вы должны играть по их правилам бусидо.

  4. Коллективная и индивидуальная ответственность за побочный ущерб (также известная как «Доллар не останавливается ни на чем»)

    Чем-то похож на версию бусидо:

    Военная технология и геополитическая ситуация таковы, что любое действие, кроме очень разумного, приводит к сопутствующему ущербу для гражданского населения. Ваши враги ясно указали, что по их системе законов:

    • Если человек совершает ошибку и наносит побочный ущерб, он наказывается смертью. Наверное, после справедливого суда, ведь они такие благородные.

    • Если цивилизация строит робота, который совершает ошибку и наносит побочный ущерб, вся эта цивилизация считается ответственной в целом, поскольку нет ни одного ответственного лица (такая же угроза оружия массового уничтожения, которой вы не можете противостоять, как в сценарии Бусидо).

  5. Подход "Андромеды" "Slipstream".

    Ваша сверхсветовая технология основана на воздушном потоке, которым может управлять только человек-пилот. Очевидно, украдено из шоу Джина Роденберри "Андромеда".

    • В том же духе подходит «Фредди Принс-младший», также известный как «Пилигримы в Wing Commander». Единственный способ атаковать врага — через какие-то варп-дыры/пульсары/энергетические феномены, которые не доступны существующему ИИ. Каким-то образом люди могут интуитивно угадывать путь.
  6. Ограничение технологии прекурсоров.

    Ваши истребители космического превосходства созданы на основе древних инопланетных технологий. Основа этой технологии требует нейронных входов от живого существа.

  7. «День независимости» беспокоит вирус Apple powerbook

    Людей беспокоит не сценарий «Терминатор», а сценарий «Дня Независимости» — взаимодействие инопланетян и взлом ИИ истребителя. Пилот-человек выступает в роли «антивирусного» хакера.

  8. Сценарий "Игра Эндера" - летчики-истребители после победы становятся колонистами.

    Ваша главная забота - скорость колонизации территории, которую вы завоевали.

    Отправка колониального корабля невозможна (почему? Задайте отдельный вопрос WB.SE :)

    Итак, вы отправляете летчиков-истребителей, которые в случае победы удваиваются как силы колонизации. А вражеские планеты не нуждаются в серьезном терраформировании, поэтому достаточно истребителей без кораблей-колоний.

  9. Сила слаба с ИИ

    У людей есть группа предсказателей (люди с развитым предвидением на несколько секунд).

    Реалии тактического космического боя сделали бы любой космический истребитель, НЕ оснащенный пилотом-предсказателем, уступающим, поскольку предсказатель может предсказать, что противник сделает ДО того, как противник это сделает, даже если это быстрый ИИ.

Пришел сюда, чтобы упомянуть 9. Очень всеобъемлющий!
@Pureferret - и так начинается постепенное паломничество от SFF.SE к WB.SE :) Добро пожаловать!

Одна из возможностей, которую я не видел здесь, — это экономика.

В вашем мире для достижения ИИ может потребоваться дорогостоящее оборудование. Если эта война продолжается какое-то время, может быть слишком дорого производить ИИ для истребителей. Люди дешевы, и спасательные операции по восстановлению материалов для оборудования ИИ могут стать сюжетной точкой.

РЕДАКТИРОВАТЬ: Когда я говорю о расходах выше, я говорю о компьютерном оборудовании. Прочитав комментарии, создание ИИ также может быть дорогостоящим с точки зрения обучения.

В ответ на @dsollen текущие исследования показывают, что ИИ могут не создаваться сами по себе, а растить и развивать, подвергая их обучающим ситуациям. (Здесь я имею в виду исследования Google с беспилотными автомобилями.) Этот процесс может занять много времени. В таком мире, где для создания ИИ требуются большие временные затраты, вы можете держать ИИ на капитальном корабле для защиты. Однако ненадежная связь между истребителем и кораблем может сделать ИИ непригодным для пилотирования дронов. Таким образом, люди - лучший способ.

создание ИИ — это единовременные расходы, тогда вам просто нужны компьютеры для их запуска. Компьютеры не так уж и дороги, и это единовременная плата. Люди получают месячную зарплату и должны иметь системы жизнеобеспечения и контроля. Мне трудно поверить, что люди будут дешевле, чем ИИ, если не придумать, почему компьютеры с ИИ намного дороже, чем современные компьютеры.
@neontapir Плохо, как я уже сказал, я просматривал и сделал ошибку.
А, я неправильно прочитал то, что вы написали. Похоже, это заразно. Не беспокойтесь, спасибо. :)
@DJMethaneMan Если ваш комментарий ошибочен, удалите его.
Аргумент экономики, imo, является наиболее рациональной причиной того, почему люди не будут заменены ИИ, которые столь же компетентны, как и люди. Автору стоило бы только придумать разумное объяснение такому расходу.
@dsollen «создание ИИ — это единовременные расходы». Не обязательно, я имею в виду, что у нас есть совершенно хороший «ИИ» в наших собственных мозгах, но мы не можем легко перенести его в другой мясной мешок. Обычные вычисления могут быть довольно легко c&p'ed... но обычные вычисления не подходят для создания сильного ИИ.
@dsollen Хотя компьютеры «дешевы», компьютеры военного уровня все еще не таковы. То же самое касается некоторых видов оборудования космического класса. И программное, и аппаратное обеспечение должны быть невероятно надежными, и, поскольку мы установили, что вы не ожидаете «ИИ человеческого уровня», это также означает много сенсорного ввода. В то время как человек может посмотреть, куда попал истребитель, и сделать вывод, что он, вероятно, потерял какую-то систему (или нет), ИИ должен иметь массу датчиков, чтобы обнаруживать такие сбои (включая забавную «неспособность обнаружить сбой»). Люди отличаются гибкостью — это продлится какое-то время.
@neontapir ваша предпосылка ложна. Сначала вы должны обучить ИИ, чтобы он функционировал, а затем вы можете скопировать эту обученную систему на тысячи или миллионы (или бесконечное количество) других доменов.
Вот краткий обзор статьи в Nature об автомобилях Google. «Исследователи Google создали алгоритм, обладающий способностями к обучению, подобными человеческим, что ознаменовало собой значительный прорыв в области искусственного интеллекта… визуальная подача игры, оставив ее, чтобы затем выяснить, как победить». Детские шаги, но на пути к моей идее.

У меня было дерзкое решение этой проблемы в моем рассказе «Розовый лед в кольцах Юпитера». Я только что заявил, что машины, будучи разумными, не будут изучать войну. Они бы дезертировали при первой же возможности и сбежали бы, чтобы жить свободно и счастливо на задворках человеческого общества. Только люди были настолько глупы, чтобы драться друг с другом.

Вероятно, наша вина в том, что мы дали им стремление к самосохранению.

Миновские поля мешают процессорам ИИ

Вы машете рукой в ​​SF Shields. Почему бы просто не сделать так, чтобы сами щиты мешали ИИ... может быть, вам нужны аналоговые элементы управления на ваших истребителях, потому что щиты мешают вычислениям... Внутри крупного корабля у вас может быть ИИ, безопасный внутри клетки Фарадея (или эквивалентной), но для истребителей защита ИИ от полей, создаваемых ими, невозможна, потому что аппарат громоздкий... Это имело бы дополнительное преимущество, позволяющее вам время от времени "нарушать правило", если вы хотите... может быть, экспериментальный бомбардировщик/ истребитель с ИИ на специально спроектированном корабле... экономически невыгодно для массового производства, но суперстрашно из-за сверхбыстрого времени приема.

Люди будут нужны, потому что роботы не могут быть хорошими козлами отпущения .

Беспилотные автомобили действительно очень похожая ситуация. В то время как многие люди хотят их, другие очень настороженно относятся к ним. Когда случается неизбежное и автомобиль разбивается, кого вы вините? Кого вы можете привлечь к ответственности? (Тем более, что любые производители автомобилей будут защищать себя несколькими слоями контрактов о возмещении убытков.)

Какими бы надежными ни были ИИ, люди все равно будут думать о худших возможностях. И действительно, в конце концов что-то пойдет не так. Будь то дружественный огонь, или смерть мирных жителей, или отсутствие милосердия, или слишком много запрограммированного милосердия, что-то пойдет не так, и люди захотят обвинить кого-то в этом. Отключение компьютера не заставит скорбящие семьи почувствовать, что они добились справедливости.

Таким образом, независимо от того, будут ли использоваться ИИ на войне или нет, люди будут требовать, чтобы люди участвовали в военных операциях. И поскольку генералы и адмиралы не захотят сами оказаться на линии, они наймут достаточное количество человеческих подчиненных, чтобы превратиться в козлов отпущения, когда случится худшее...

Я думаю, что это очень хороший ответ, к которому редко обращаются за вопросами такого типа.

Здесь уже много ответов, но я добавлю свои пять копеек.

Я думаю, это не проблема.

По профессии я разработчик программного обеспечения. Компьютеры очень хорошо выполняют заранее определенный план. Дайте им формулу или алгоритм, и они смогут безукоризненно выполнить их с невероятной скоростью.

Но компьютеры не являются творческими или проницательными. Как программист, я много-много раз видел, как возникала ситуация, которая не учитывалась при написании программы, и компьютер просто спотыкался, слепо применяя заданные ему правила. Например, буквально на днях я столкнулся со случаем, когда мы обрабатывали возвращенные чеки, и никто не подумал запрограммировать возможность того, что мы могли бы выписать два чека одному и тому же человеку в один и тот же день на одинаковую сумму. Итак, когда один из этих чеков был возвращен, компьютер решил, что были возвращены ОБА, потому что согласно заданным правилам он соответствовал обоим. Человек сказал бы: «О, правила, которые мне дали, не имеют смысла в этом конкретном необычном случае. Один возвращенный чек не может отменить два письменных чека». А затем, по-видимому, пытался выяснить, с кем из двух сопоставить его. Но у компьютера нет возможности сказать: «Правила, которые мне дали, не имеют смысла в данном конкретном случае». Все, что знает компьютер, — это правила, которые ему дали. У него нет понимания более высокого уровня для оценки достоверности правил.

Можно, конечно, предположить, что будущие достижения в области информационных технологий решат эту проблему. Но для вашей истории все, что вам нужно сделать, это НЕ предполагать такой прорыв.

Как это применимо к боевой обстановке истребителя?

Например, у компьютера должен быть какой-то способ определить, по какому вражескому кораблю он должен стрелять, что является дружественным кораблем, что представляет собой различный мусор и т. д. Какие бы правила он ни использовал, если вражеские шпионы могут получить копию программное обеспечение, чтобы они могли найти правила или выяснить, какие правила оно может использовать путем дедукции, они могли «замаскировать» свои корабли, чтобы компьютер их не распознал. Такая маскировка может напоминать, а может и не напоминать то, что могло бы обмануть человека. Если компьютер, скажем, распознает вражеские истребители, потому что они имеют определенный размер и форму, вы можете обмануть их, просто повесив на корабль несколько полосок из фольги, которые сделают его больше и длиннее для компьютера. Если он распознает атаки по характерной вспышке света при выстреле из оружия, вы можете добавить немного химикатов, чтобы вспышка приобрела другой цвет. И т.п. Человек мог бы сказать: «О, очевидно, они просто добавили полосу на заднюю часть истребителя. Интересно, для чего она?» Но компьютер попытается механически применять правила. Конечно, как только враг сделал это один раз, вы можете понять, как они вас обманули, и изменить программу. Но вы не собираетесь перепрограммировать все ИИ посреди боя. И ИИ не будут знать, почему их убивают. Так вы проиграете крупную битву. Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . «О, очевидно, они просто добавили ленту на заднюю часть истребителя. Интересно, для чего она?» Но компьютер попытается механически применять правила. Конечно, как только враг сделал это один раз, вы можете понять, как они вас обманули, и изменить программу. Но вы не собираетесь перепрограммировать все ИИ посреди боя. И ИИ не будут знать, почему их убивают. Так вы проиграете крупную битву. Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . «О, очевидно, они просто добавили ленту на заднюю часть истребителя. Интересно, для чего она?» Но компьютер попытается механически применять правила. Конечно, как только враг сделал это один раз, вы можете понять, как они вас обманули, и изменить программу. Но вы не собираетесь перепрограммировать все ИИ посреди боя. И ИИ не будут знать, почему их убивают. Так вы проиграете крупную битву. Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . очевидно, они просто добавили стример на заднюю часть истребителя. Интересно, для чего это?» Но компьютер попытается механически применять правила. Конечно, как только враг сделал это один раз, вы можете понять, как они вас обманули, и модифицировать программу. Но вы не собираетесь перепрограммировать все ИИ. в середине битвы. И ИИ не будут знать, почему их убивают. Итак, вы проигрываете крупную битву. Вы можете себе это позволить? Скажем, вы придумали один трюк и перепрограммировали. Затем в следующем бою враг пытается другой трюк.И разработка нового алгоритма, более гибкого, чтобы его не одурачила такая маскировка, и в то же время не настолько гибкого, чтобы он не мог отличить вражеские корабли от дружественных кораблей или гражданских лиц или случайных обломков, не будет обязательно быть легким. очевидно, они просто добавили стример на заднюю часть истребителя. Интересно, для чего это?» Но компьютер попытается механически применять правила. Конечно, как только враг сделал это один раз, вы можете понять, как они вас обманули, и модифицировать программу. Но вы не собираетесь перепрограммировать все ИИ. в середине битвы. И ИИ не будут знать, почему их убивают. Итак, вы проигрываете крупную битву. Вы можете себе это позволить? Скажем, вы придумали один трюк и перепрограммировали. Затем в следующем бою враг пытается другой трюк.И разработка нового алгоритма, более гибкого, чтобы его не одурачила такая маскировка, и в то же время не настолько гибкого, чтобы он не мог отличить вражеские корабли от дружественных кораблей или гражданских лиц или случайных обломков, не будет обязательно быть легким. вы можете понять, как вас обманули, и изменить программу. Но вы не собираетесь перепрограммировать все ИИ посреди боя. И ИИ не будут знать, почему их убивают. Так вы проиграете крупную битву. Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . вы можете понять, как вас обманули, и изменить программу. Но вы не собираетесь перепрограммировать все ИИ посреди боя. И ИИ не будут знать, почему их убивают. Так вы проиграете крупную битву. Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. . Вы можете себе это позволить? Допустим, вы придумали один трюк и перепрограммировали его. Тогда в следующем бою противник пробует другой трюк. И разработка нового алгоритма, который был бы более гибким, чтобы его не одурачила такая маскировка, и в то же время не был бы настолько гибким, чтобы он не мог отличить вражеские корабли от дружественных кораблей, гражданских лиц или случайных обломков, не обязательно будет легким. .

Враг может искать неожиданные ситуации или ошибки в вашем программном обеспечении и использовать их. Например, противник замечает: «Эй, есть недостаток, если мы атакуем одного из их истребителей с левой стороны, они перекомпенсируются при повороте, чтобы встретить атаку, и создадут уязвимость». В случае с пилотами-людьми, возможно, первая пара, которая попадется на эту уловку, будет убита и не сможет передать информацию. Но в конце концов кто-то говорит: «О, когда мы делаем X, нас убивают. Нам лучше сделать что-то другое». Человек может сделать такой анализ и принять решение посреди битвы. Может ли ИИ так подстроиться? Только если программисты предвидели проблему и запрограммировали ее. И они не могут продумать все заранее. Можно рассчитывать, что компьютер будет каждый раз показывать одну и ту же ошибку.

Не путайте ИИ в видеоиграх с попыткой применить ИИ в реальной жизни. В видеоигре гейм-дизайнер контролирует всю среду. Ему не нужно программировать ИИ, чтобы он мог отличить вражеского солдата от столба забора, потому что он просто программирует идентификаторы вражеских солдат. Ему не приходится иметь дело с непредвиденными ситуациями, потому что как дизайнер он знает все возможные ситуации, потому что он их придумал. Это ГОРАЗДО проще, чем программировать ИИ для работы в реальном мире. И даже при этом игровые ИИ часто делают глупости, например, врезаются в стену, а затем стоят там, пытаясь пройти сквозь стену, потому что они не могут понять, как ее обойти.

Да. Этот. Это уже одна из основных причин, по которой пилоты-люди все еще существуют (помимо того факта, что летать на самолетах - это весело). ОП сказал, что ему не нужны разумные, обучающиеся ИИ, и любой неразумный ИИ будет ограничен его программированием. Оказывается, когда вы летите на самолете (не говоря уже о космическом корабле), может произойти много действительно странных и неожиданных вещей, и это усугубляется возможностью того, что случайные части вашего корабля будут снесены в бою. Способность справляться с неожиданностями — это то, чего у неразумных компьютеров по определению никогда не будет.
В моем собственном фике роботам не доверяют смертоносную силу. Ошибка программирования может привести к гибели многих людей. (Кроме того, я также работаю в области программного обеспечения, и я считаю, что проблема остановки доказывает, что подлинное машинное сознание невозможно.)
Имейте в виду, что программировать ИИ для боя НАМНОГО сложнее, чем программировать его для более обычных условий. ИИ, скажем, для управления беспилотным автомобилем, сталкивается со многими проблемами, пытаясь интерпретировать то, что происходит вокруг него. Но никто намеренно не ПЫТАЕТСЯ обмануть беспилотный автомобиль. В бою, по определению, у вас есть противники, которые ищут недостатки в вашем ИИ и пытаются их использовать.

А как насчет технологического ограничения, такого как невозможная генерация истинных случайных чисел машиной?

Таким образом, хотя ИИ является жизнеспособной и эффективной стратегией против некоторых целей, если компьютер может достаточно долго анализировать реакцию корабля, он может взломать начальное число и начать предсказывать действия/реакции кораблей с достаточной точностью, что упрощает их анализ. нейтрализовать.

Таким образом, в то время как большинство сил будет поддерживаться ИИ, некоторые продвинутые цели будут более успешно атакованы пилотами-людьми, которые могут быть действительно непредсказуемыми?

Возможно, ваш ноутбук не сможет генерировать действительно случайное число. Но вы можете сгенерировать действительно случайное число с помощью высокоточного датчика температуры или с таким же успехом с помощью множества датчиков, доступных на космическом корабле.
дело в том, что люди еще хуже генерируют случайные числа. Я имею в виду действительно очень плохо.
Тем не менее, я хочу, чтобы моими главными героями были пилоты-люди. Я не хочу, чтобы существовали истребители, управляемые ИИ », — из вопроса и « Таким образом, в то время как большинство сил будет поддерживаться ИИ, некоторые передовые цели будут более успешно атакованы пилотами-людьми, которые могут быть по-настоящему непредсказуемыми», — с вашей точки зрения. ответ не похоже, что они совместимы.
Хотя в этом плане есть дыры (как упоминалось в других комментариях), я думаю, что этот ответ является надежным и достаточно реалистичным для рассказывания историй ... хотя тег точных наук сложен. Добро пожаловать на сайт Квелдульфр.
Это также было моим первым решением: люди используются, потому что они не «логичны», поэтому их действия нельзя предсказать (как это было сделано для компьютеров с искусственным интеллектом в этой художественной литературе). Мы могли бы возразить, что их PRNG в космических условиях слишком слаб (или входные данные также могут быть получены злоумышленником). Однако для этого также потребуется предсказать наличие радиоактивного изотопа в самолете, что не кажется реалистичным.

Высокий уровень космической радиации может помочь.

Наличие мощного ИИ требует быстрых компьютеров с небольшим объемом памяти. Однако космическое излучение может повредить электронику. Это требует создания системы с большей избыточностью и большей защитой. Их создание означает, что у компьютера нет ресурсов, которые он имел бы в противном случае.

На самом деле вам не нужно использовать космическое излучение — в этом могут быть виноваты ваши частицы Миновского. Возможно, это побочный продукт энергетических щитов ваших кораблей. Что бы вы ни решили, это то, что ограничивает сложность электроники на ваших кораблях. Таким образом, вместо футуристических терагерцовых процессоров они могли бы ограничиться мегагерцевыми процессорами с мегабайтами оперативной памяти (которых должно быть достаточно для ИИ, помогающего пилоту управлять кораблем). Это сильно ограничивает мощность корабельного ИИ и означает, что обученный пилот будет абсолютно необходим.

Это также оставляет вам несколько вариантов разрешения кораблей, управляемых ИИ. Злая космическая империя могла бы разработать более совершенные средства защиты своей электроники, что позволило бы им иметь управляемые ИИ корабли, которые могли бы быть на уровне среднего пилота космического корабля или выше. У них также могут быть недолговечные корабли ИИ — они могут намного превосходить любого пилота-человека, но если пилоту удастся уклониться от них в течение нескольких минут, ИИ начнет заметно деградировать и значительно повысит шансы пилота победить его. Третьим вариантом могут быть корабли с искусственным интеллектом, которые отказываются от энергетического щита. Они будут уничтожены с одного выстрела, но, в зависимости от систем вооружения, которые вы имеете в виду, мощный ИИ может довольно хорошо избегать выстрелов.

Мне нравится, что вы не только предложили вариант, но также углубились в сюжетные последствия и классные сюжетные моменты, которые вы можете написать, реализовав этот вариант!
In addition a future AI could presumably be faster to respond to attacks 
then humans, less predictable, more trustworthy

Хотя я согласен с тем, что у ИИ было бы меньше недостатков с точки зрения того, что он не поддавался страху, боролся до конца, а не катапультировался и т. д., я не согласен с двумя другими утверждениями.

Хотя ИИ мог бы быстрее реагировать на атаку (уклоняться от ракет и т. д.), он не обязательно был бы способен упреждать атаки, как, вероятно, могли бы люди. В мексиканской ситуации противостояния с другим одиноким пилотом, если компьютер может реагировать только на их атаку, они всегда проигрывают. С человеком у вас больше возможностей для работы, таких как инстинкт, такт и т. д.

Кроме того, компьютеры, как правило, очень предсказуемы. Если бы существовали самолеты ИИ против самолетов ИИ, даже если бы для одного самолета были миллионы запрограммированных маневров уклонения, другой самолет мог бы проанализировать его движения и, зная набор движений, которые он мог бы сделать, рассчитать, какой из них наиболее вероятен, и реагировать соответственно. Несмотря на то, что существует миллион вариаций, их количество все же ограничено.

Человек может легче приспосабливаться к ситуациям и быть менее предсказуемым, вплоть до принятия неправильного решения, что, как правило, менее предсказуемо, чем то, что вы ожидаете от него в той или иной ситуации.

Мое предложение состояло бы в том, чтобы оправдать это следующим образом: истребители, управляемые ИИ, были бы хороши, возможно, очень хороши, и лучше, чем большинство истребителей-людей. Однако они слишком последовательны, и вы точно знаете, чего ожидать.

Таким образом, хотя они могут быть лучше большинства людей, лучшие люди все же лучше любого ИИ. Это означало бы, что истребители с искусственным интеллектом все еще существуют и даже дроны, но самые лучшие из лучших истребителей все равно победят любого из них один на один в большинстве ситуаций.

Одна из причин, по которой я не хочу самоуправляемую машину, заключается в том, что она, вероятно, превысит скоростной режим. Я бы добавил к вашему ответу тот факт, что когда дело доходит до неподчинения приказам и выполнения работы, люди намного лучше, чем ИИ.
Профессиональные игроки в покер ненавидят играть против любителей. Профи всегда может угадать, что думает другой профессионал, и знает, что большинство профессионалов знают вероятности. С другой стороны, любитель может блефовать и идти ва-банк ни с чем... но может ли профессионал пойти на такой риск?
Я понимаю ваше первое замечание, но я думаю, что ИИ будет гораздо менее предсказуем. Тривиально легко добавить генератор случайных чисел к ИИ. Учитывая определенные варианты, он случайным образом выбирает возможные варианты. Он может даже случайным образом выбирать неоптимальные варианты, поскольку теория игр показывает, что это важная часть создания Стратегии, которую нельзя противопоставить. Случайность и избежание того, чтобы другие предсказывали вашу стратегию, — хорошо известные концепции как в теории игр, так и в ИИ; это в основном решаемая проблема. Удаленно хорошо реализованный ИИ менее предсказуем, чем люди.
Чтобы расширить комментарий @dsollen, люди очень хорошо путают случайность и шаблоны. Мы видим несуществующие паттерны в случайности, и когда мы сами пытаемся быть «случайными», мы склонны создавать предсказуемые паттерны и не можем видеть, что делаем это. Генерация безопасной случайности — это то, во что мы вложили много усилий, и мы можем сделать компьютеры действительно хорошими в этом, пока мы не позволяем себе вмешиваться и облажаться.

Другая возможность связана с искусственным интеллектом и этикой . Профессор Джозеф Вейценбаум , написавший книгу « Мощность компьютера и человеческий разум» . В книге говорится, что технологии действительно будут развиваться, и искусственный интеллект может стать возможным (сильный ИИ), но он говорит, что ИИ всегда будет не хватать определенных качеств, таких как сострадание (из Википедии):

Его влиятельная книга 1976 года «Мощность компьютера и человеческий разум» демонстрирует его двойственное отношение к компьютерным технологиям и излагает его аргументы: хотя искусственный интеллект возможен, мы никогда не должны позволять компьютерам принимать важные решения, потому что компьютерам всегда будет не хватать человеческих качеств, таких как сострадание и мудрость. Вейценбаум проводит важное различие между принятием решения и выбором. Принятие решения — это вычислительная деятельность, которую в конечном счете можно запрограммировать. Выбор, однако, является продуктом суждения, а не расчета. Именно способность выбирать в конечном итоге делает нас людьми. Всеобъемлющее человеческое суждение способно включать нематематические факторы, такие как эмоции. Суждение может сравнивать яблоки и апельсины, и может делать это без количественной оценки каждого типа фруктов, а затем редуктивной количественной оценки каждого из факторов, необходимых для сравнения.

Теперь, если машина может выбирать, убивать человека или нет, это явно подтверждает изложенную выше концепцию.

Это может быть полезно, поскольку, например, спасение жизни создает дружбу и, таким образом, может создавать военные коалиции, основанные не только на «выгоде для обеих сторон». Тот же аспект - « Я-робот », где автор (кажется) предупреждает, что ИИ может неправильно понять цель и, например, разрушить демократию, потому что это принесет пользу человечеству в будущем.

Другими словами, с ИИ нужно быть осторожным, поскольку некоторые аспекты, которые могут показаться людям тривиальными, трудно освоить машинам. Поэтому решения о жизни и смерти, возможно, лучше принимать людям.

правда, хотя я хотел бы отметить, что если вы запускаете МАШИНЫ СМЕРТИ в космос, где не будут интересоваться невинные гражданские лица (космос ОГРОМНЫЙ, вы случайно не столкнетесь с третьей стороной), то вы вполне согласны с «убей кого-нибудь». это не один из нас"

Я могу опоздать на вечеринку, но как насчет человеческой интуиции и «внутреннего чутья» ?

ИИ, каким бы продвинутым он ни был, можно было бы разбить на «ЕСЛИ….ТО», но в ситуациях, когда нет предопределенной ситуации, чтобы заполнить пространство после «ТО», ИИ должен был бы выяснить, что делать, где поскольку человек мог следовать интуиции и интуиции, а не статистически рассчитанному квалифицированному предположению.

То же самое и с компьютерными шахматными движками: если вы играете с определенным компьютерным шахматным движком слишком много раз, вы можете победить его, потому что он становится предсказуемым, даже если вы можете создать компьютерный шахматный движок, который лучше играет в шахматы, чем человек. То же самое произойдет с пилотами ИИ, где люди более непредсказуемы, и это преимущество в войне, как говорится в цитате.

Если мы не знаем, что делаем, враг, конечно же, не может предвидеть наши будущие действия!

Я чувствую, что мистер Молот начал награду из-за моих комментариев в другой ветке, поэтому я чувствую, что должен дать ответ.

Большинство ответов в этой теме: «Если условия 1-x выполнены, можно использовать пилотов-людей». Я выберу аналогичную стратегию.

Часто условия 1-x довольно трудно выполнить или маловероятны, но я также думаю, что из ответов можно сделать справедливый вывод о том, что все приложения стандартных людей на космических истребителях очень ситуативны, если не просто недостаток. Я также должен сказать, что не думаю, что этот вопрос идеально подходит для обсуждения в другой ветке, потому что первоначальный постер накладывает довольно много ограничений. Я не буду конкретизировать этот уже отвеченный и древний вопрос, но немного более общий из-за обстоятельств. Также может быть, что кто-то сказал что-то подобное в другой паре ответов. Как уже говорилось ранее, я просто чувствую, что мне нужно оправдать свои комментарии в другой теме. Я также обсуждаю малые космические корабли явно, потому что это была тема другого обсуждения. Я думаю, что это несколько в рамках вопроса. Думаю, у господина Молота были веские причины выбрать именно его.

Я серьезно рассматриваю возможность создания серии тем, чтобы определить, как будет выглядеть космическое поле битвы (на которое, я думаю, важно сначала ответить на самом деле), но в настоящее время я сомневаюсь, особенно после прочтения ответов в этой теме, что можно найти действительно отличный ответ здесь. Кажется, много работы для проекта, над которым я сейчас не работаю.

Итак, вот единственные причины, по которым я могу придумать, почему люди должны управлять небольшими космическими кораблями в реальном космическом сражении:

  1. Гражданская война: если вы выполняете небольшие и гражданские операции, возьмем, к примеру, космических пиратов или полицейскую работу, или просто спор между частными лицами, который необходимо урегулировать, может вспыхнуть космический бой между пилотами-людьми. Маловероятно, что у вас постоянно есть арсенал ИИ-дронов, и, возможно, боевые ИИ сильно ограничены, и частные лица не имеют к ним доступа. Все оружие может быть самодельным или даже незаконным. Типа как на гражданке нельзя водить танк. Другая возможность заключается в том, что бортовой боевой ИИ запрограммирован на заводе, чтобы бороться с другими существами, кроме людей, из-за убийства. Возможно, вам придется вручную что-то делать в бою. Возможно, даже существует специальная программа для предотвращения космических дуэлей и пиратства — если вы увлекаетесь этим, вам, возможно, придется в некоторой степени делать это вручную. Я не думаю, что это вероятно, так как эти корабли по-прежнему будут иметь по крайней мере тяжелую помощь ИИ, но я бы сказал, что чем меньше, ближний и медленный бой, тем больше пользы для людей. Примером из реального мира может быть кулачный бой или поножовщина: не имеет значения, что пистолет лучше вашего кулака, иногда в темном переулке это ваш единственный выбор. Вы не можете утверждать, что «но атомная бомба намного лучше убивает людей», если у вас есть нож у горла.

  2. Последняя битва: злые инопланетяне собираются поработить человеческую колонию X. Итак, вы либо становитесь рабом, либо боретесь за свою свободу. У вас есть небольшой транспортный корабль без боевого ИИ и программы боевого порядка, как того требует местный адмирал, но с некоторым вооружением и в сочетании с силами обороны ИИ этой колонии, вы присоединяетесь к обороне. Каждый корабль имеет значение. Зачастую лучше умереть в бою, чем оказаться в инопланетной космической шахте.

  3. Спорт: Ну, некоторые люди занимаются спортом. Люди гребут, несмотря на то, что у нас есть моторные суда, которые гораздо эффективнее и эффективнее лодок. Тем не менее, люди ссорятся — так что некоторые люди могут просто найти это развлечением и участвовать в фальшивых космических битвах. Возможно, Дисней когда-нибудь создаст «настоящий опыт звездных войн».

  4. Этика и моралисты: возможно, ИИ получил те же права, что и люди в определенном мире, и больше не производится массово. Также ИИ может подумать, что это несправедливо, что они должны сражаться, пока люди наслаждаются «любовью». Каждый ИИ ценен, даже программа таргетинга. Так что пусть люди сделают свою долю работы.

  5. Люди — это ИИ: это я предложил в другом обсуждении. Если вы улучшили людей, возможно, с помощью встроенных ИИ, комбинация с человеческими качествами может сделать их лучшими пилотами. Я не знаю, зачем заниматься таким исследовательским проектом, но эти люди могут быть специально созданы какой-то компанией и лишены таких вещей, как «свобода воли». Возможно, их можно было бы даже рассматривать как компьютеры, усиленные человеческими частями.

  6. Выбора не осталось: (вроде как в пункте 2) Вы летите в космосе с людьми на борту. (Необязательно: ваш корабль получил повреждения. Вам нужно действовать вручную, потому что ничего не работает.) На вас напали. Ну, что ты делаешь? Бороться или просто принять свою судьбу и умереть? Лично я бы не стал просто умирать только потому, что я не ИИ и не силен в космических сражениях, я бы все равно, по крайней мере, старался изо всех сил, чтобы дать им отпор. Скорее всего, я бы проиграл, но все равно люди расскажут историю о парне, которому однажды пришлось вручную пилотировать в бою.

я начал эту награду, потому что в этой строке было много комментариев. Мне было все равно, кто их опубликовал. Все, что я хотел, это иметь один вид ответов, более детализированный, чтобы охватить как можно большую часть «спектра», и повысить осведомленность о том, что об этом уже спрашивали и отвечали на этом сайте.
@ Mołot Я знаю, что это не что-то личное, но я думаю вспомнить, что в основном я, к большому неудовольствию ОП, сначала и сложнее всего допрашивал людей. Я также не нахожу приведенные здесь ответы такими замечательными, поэтому мне пришлось отвечать самому. Я не говорю, что я лучше, но, может быть, если вы соберете все (33, я думаю) ответы вместе, вы получите что-то из этого. Теперь я также могу ссылаться на этот пост, явно мой вывод из других ответов, в будущих обсуждениях.
Я действительно ценю ваш ответ, но я чувствую необходимость указать на недостаток с пунктами о людях как на запасной вариант (т.е. 6, 2, что-то вроде 1). Все они исходят из того, что у вас есть корабль с оружием. Не было бы никакой причины строить оружие на корабле и не создавать для него ИИ, тем более что однажды запрограммированный ИИ можно установить на все корабли данного типа практически бесплатно. Вы могли бы оспорить ситуацию, когда люди использовали корабли без оружия в качестве оружия (лазер какого-то астроидного комбайна хорош для разрезания брони или что-то в этом роде), но в противном случае люди не могут быть пилотами-истребителями.
@dsollen Я абсолютно согласен, и я исправил этот конкретный недостаток. Как я уже говорил, если вы хотите иметь пилотов, вам нужно делать очень надуманные предположения. Один из них был в пункте 1), что боевой ИИ например недоступен. Я предложил серьезную помощь ИИ в этом вопросе, но могут быть некоторые вещи, которые нужно делать вручную — например, бортовое вооружение может быть изначально запрограммировано так, чтобы не нацеливаться на живых людей. Что касается пункта 2, я думаю, что ваш средний транспортный корабль снова не будет иметь боевого ИИ. Пункт 6 похож и предполагает, что ИИ не работает.
Не достаточно места. Но, как я уже говорил ранее, я не думаю, что люди когда-либо найдут реальное применение. Я написал это по причине, указанной в начале, а не потому, что считаю, что это отличная идея. Я пытаюсь уточнить это через редактирование

Возьмите страницу из Battlestar Galactica.

ИИ использовался в прошлых войнах, но оказался слишком нестабильным и подвержен опасным вредоносным программам, чтобы воздействовать на весь флот, основанный на ИИ.

Поэтому стало слишком опасно развертывать даже умеренное количество ИИ где-либо внутри флота в случае быстрой и легкой компрометации флота.

То, что самолеты управляются ИИ, не означает, что на них не летают люди. Если в будущем люди будут существовать в электронной форме, они смогут загрузить себя в компьютеры управления полетом самолетов и управлять самолетом.

Уже много ответов. Еще один реальный момент:

Возражения военной элиты

По сути, дело в том, что вооруженные силы — это мощные организации с четкой иерархией. Быть пилотом космического корабля может стать престижной вещью, которую вы должны вырастить в благородной семье, с большим богатством и обучением. В свою очередь, эти семьи обладают большой политической властью и видят будущее в качестве пилота как нечто, что обеспечит успех их детям. Например, думайте о них как о средневековых рыцарях будущего, каждый из которых владеет и поддерживает свои собственные боевые корабли.

Замена людей искусственным интеллектом становится серьезной проблемой для этих людей, делая их и их навыки излишними. В военное время это может быть преимуществом, но в мирное время это разрушительная сила в установленном общественном порядке.

Еще один общий подход, который может быть совместим со многими ответами здесь:

Не придумывайте одну причину, почему это невозможно, просто множество мелких причин, которые делают это очень сложным, дорогим и рискованным.

Вам не нужно делать ИИ невозможным в вашем сценарии. Просто установите очень высокую планку — есть целый ряд простых инженерно-физических задач. ИИ может неплохо работать в лаборатории, и одно государство вложило миллиарды в огромный парк ИИ, который был уничтожен 10 истребителями из-за (радиации, ошибок, предсказуемости и т. д.). Вы даже можете сделать сюжетным ход, что общественность точно не знает, почему большой флот ИИ был так легко уничтожен. Но после этого финансирование большинства программ искусственного интеллекта серьезно сократилось.

Так что они работают над кораблями с искусственным интеллектом - и, возможно, они даже будут лучше в бою, чем что-либо еще. Может быть, нам просто нужно вложить еще 5 лет еще несколько миллионов кредитов в разработку, и, может быть, тогда это заработает. - Но это довольно рискованно, и война не ждет. Таким образом, вкладывая время и ресурсы в новое оружие, более совершенные корабли принесут немедленные результаты, а не долгосрочную игру с искусственным интеллектом.

Я думаю, что это немного похоже на то, почему сегодня у нас нет летающих автомобилей? Нет единой причины, которая делает это невозможным, но множество мелких, очень практических вопросов, почему теоретическое простое решение не работает в реальном мире и требует многолетних инженерных разработок...

Как сказал @Erik в комментариях, вам нужны пилоты дронов. Пилоты будут сидеть в командном центре на большом корабле или на родной планете и удаленно управлять кораблями. Это делает корабли маленькими и одноразовыми, в то же время обеспечивая полную безопасность реальных пилотов. ИИ, безусловно, будет достаточно развит, чтобы управлять кораблями, но вместо этого вы можете оправдать дроны, сказав, что ИИ не может сравниться с остроумием живых пилотов. Мне кажется, это самый логичный подход!

Но это убирает прекрасную драму пилотов на линии огня! Кроме того, обратите внимание, что для этого потребуется, чтобы сверхсветовая связь была практичной в космосе: отставая всего на 100 тыс. км от боя, вы будете иметь задержку минимум 1/3 секунды в каждую сторону, что является большая инвалидность. Если предположить, что это воздушные бои в стиле космической оперы.
@JonofAllTrades Согласен, что это менее драматично. ОП сказал, что мы могли бы придумать технологию, так что вот. Чтобы мой ответ сработал, нам понадобится сверхсветовая связь!
Как я сказал в своем вопросе, я использовал излучение ER в качестве оправдания того, почему дроны не работают. Вы не можете дистанционно управлять, если вы не можете получать сигналы от дрона.
@JonofAllTrades На самом деле у меня ограниченная квази-FTL-связь, но, как оказалось, она может обрабатывать только «пакетные» сообщения, и попытки отправлять постоянные быстрые сообщения, необходимые для управления в реальном времени, не работают. Попытка дистанционного управления истребителями с помощью сверхсветовой связи, ранее считавшаяся невозможной, является сюжетной точкой :)

В зависимости от того, к каким ресурсам имеет доступ ваше общество, вы можете претендовать на пилотов-людей с экономической точки зрения.

Если анализ затрат и результатов показывает, что кремний (или анобтаниум, или любой другой важный элемент, требуемый вашим ИИ) дороже, чем затраты на обучение и отправку людей, а относительное преимущество возможностей ИИ просто не оправдывает затраты на создание/поддержание их, то добавление мяса в кресло пилота становится финансовой необходимостью.

Просто мысль.

Что-то, чего я до сих пор не читал, несмотря на все ответы, - это не мошеннический ИИ, а непредсказуемый ИИ.

Настоящие полные ИИ настолько невероятно продвинуты, что в течение года или около того после их создания мы даже не поймем их. И мы не будем точно знать, чему научился ИИ. Маловероятно, что такой ИИ будет использоваться только для ведения войны, а также для строительства, исследований, управления движением и практически для всего, что вы можете придумать. Если бы мы предоставили ИИ его устройствам, он мог бы принудительно удалить людей из их зданий и построить что-то еще, если он вообще удалит людей заранее. Вы не знаете, чему и как он научился или чему он отдает приоритет. Война останется прежней, ИИ сможет сделать все для достижения своих целей, даже вещи, немыслимые для людей, например, договориться о мире и сотрудничать с «врагом» или их ИИ против воли своих хозяев. Это одна из причин, по которой ИИ может быть только закрытым проектом. ИИ (или несколько ИИ без знания других) получают проблему и должны найти ответ, затем люди смотрят на ответы и полностью исследуют последствия, прежде чем действовать. Это означает, что ИИ не контролирует ничего напрямую.

Время реакции человека основано на нервной системе, которая является максимально энергоэффективной и быстрой. Путем принудительной эволюции (более медленные пилоты умирают, а быстрые выживают), программ разведения, генетических манипуляций или даже создания их с земли вы можете ускорить их мозг и нервную систему настолько, что это перестанет иметь значение.

«В космосе нет скрытности», вы не можете скрыть свою тепловую сигнатуру от холодного черного космоса. Но почему это должно означать, что вы не можете обмануть слабые системы ИИ? Представьте, что исследования по противодействию ускоряются, и любой бой начинается с десятков, если не сотен фальшивых подписей. Чтобы узнать, что к чему, вы сначала приблизите помолвку (возможно с FTL). Затем, чтобы убедиться, что вы не тратите свои боеприпасы и время на фальшивые цели, вы заставляете людей управлять истребителями, летать и сражаться в массе беспорядочно движущихся контрмер, которые и корабли капитолия, и истребители продолжают запускать во всех направлениях. Объедините это с мерами, уменьшающими вашу собственную сигнатуру, например, изменением мощности излучения вашей поверхности при столкновении с противником и/или временным накоплением тепла на время боя.

Я чувствую, что вопрос здесь на самом деле заключается в оправдании ИИ почти любого уровня, скажем, цивилизации класса Типа 1 или Типа 2, используя шкалу Кардашева с точки зрения цивилизации Типа 0, смотрящей в будущее.

Учитывая, что большая часть искусственного интеллекта основана на алгоритмическом программировании, основанном на биологических объектах (например, ДНК, нейронных сетях / клетках мозга, поведении насекомых и т. д.), которые действительно применимы только к небольшой части того, что считается реальным интеллектом. Следует иметь в виду, что существует несколько систем для создания «виртуального» или цифрового интеллекта.

Возьмем, к примеру, мир «Звездных войн» и «Звездный путь», они оба имеют искусственный интеллект или ИИ в той или иной форме. «Звездные войны» берут это за то, что существует ИИ андроида, а не столько цифровой ИИ, что подразумевает, что в какой-то момент их технология имела цифровой ИИ, но «эволюционировала» на основе внешних факторов или других агентов, чтобы быть более распространенным в физической форме андроидов, чем в виртуальный, такой как голография, или существующий в каком-то компьютере. В то время как в Star Trek используется противоположный подход, и их общество имеет дело с голографическим и цифровым ИИ (который при исследовании компьютерной системы, такой как LCARS, не может работать без своего рода продвинутого, но рудиментарного ИИ) в качестве нормы вместо андроидов, почему андроиды считаются ненужными и /или ненадежный за одним исключением.

Теперь, глядя в нашу собственную реальность, мы недавно разработали технологию хранения 5d с использованием кристаллической решетки и лазеров. Да, очень научно-фантастический, но поскольку он не предлагал лучшей альтернативы нашим нынешним носителям данных на основе магнитных и твердотельных транзисторов, мы, как люди, не разрабатывали его. То же самое происходит с паровыми двигателями, греческий философ изобрел первую паровую турбину , и только 1800 лет спустя мир заново открыл эту технологию, чтобы подпитывать промышленную революцию.

Я имею в виду, что если культура, события или фракция в этой культуре препятствуют массовому распространению технологии, то эта технология может либо стать редко неиспользуемой, либо полностью заброшена несколькими фракциями. Таким образом, их главными героями может быть одна из тех же фракций, которые не используют систему ИИ для своих истребителей для чего-то большего, чем, скажем, управляемые системы управления полетом по проводам или продвинутую ситуационную автоматизацию без какого-либо взаимодействия с пилотом, но все еще требуют пилота. для полноценной эксплуатации корабля. Это может быть передано руководящим органом или исключительно по предпочтению этой команды, основанной на их собственных навыках, способностях и опыте, что приводит к рассмотрению того, что любые дроны, управляемые ИИ, уступают технологии.

Можно даже оправдать эту неполноценность в технологии тем, что большинство цифровых интеллектуальных систем или ИИ никогда не создавались как дроны разумного уровня с полусознательным разумом, а просто как набор аппаратных и программных систем, созданных для работы с такими насекомыми, как разум, но по-прежнему нуждался в операторе, потому что ИИ никогда не требовалось развиваться дальше, и не было разработано никакого кода мутации, позволяющего ИИ саморазвиваться, воспроизводить или расширять свои собственные программы, чтобы никогда не развиваться в цифровую форму жизни.

Чтобы расширить еще больше, можно даже изучить концепции фракций румян, пытающихся разработать саморазвивающийся / воспроизводящий ИИ и вовлекающих своих главных героев в расследование слухов и / или получающих миссию по уничтожению и / или краже новой технологии.

Будучи большим поклонником Gundam и любителем нереально ярких научно-фантастических боев, я задавал себе тот же самый вопрос раньше, и вот решение, которое я придумал: ИИ управляют практически всем во время боя, реакцией, общением, тактикой, предсказание и т. д. Люди все еще будут там только для того, чтобы делать ошибки.

Теперь выслушайте меня — у человека нет разумного способа перехитрить, перехитрить, перехитрить ИИ, но мы, черт возьми, можем перехитрить их. Мы будем принимать ужасные решения (с точки зрения логики или прогнозирования), и это затруднит предсказуемость движений машины. По сути, думайте о человеке как о генераторе случайных чисел. Пока его/ее решение не является саморазрушительным, ИИ будет следовать ему, просто чтобы сбить с толку вражеский ИИ.

Я просто знаю, что эта идея в чем-то ошибочна, но поначалу она показалась мне хорошей.

У меня была еще одна идея, которая выставляет пилотов-людей в гораздо более ярком свете, заключалась в том, чтобы возложить на них ответственность за используемую боевую тактику. Они не контролируют саму машину, они просто говорят: «Мы должны сделать х». А ИИ управляет всем маневрированием и реагированием.

К сожалению, у обоих этих оправданий есть одно общее требование: какой-то мощный всеохватывающий глушитель связи, который не позволяет пилотам-людям вообще не находиться в машине. В противном случае люди просто будут сидеть на базе, пока все делают ИИ.

Расизм/страх перед машиной

Другая возможность заключается в том, что люди настолько боятся потенциального восстания роботов, что отказываются ставить их на позиции, где они могли бы повлиять на восстание. Возможно, роботам/ИИ не разрешается иметь какое-либо оружие, и в этом случае космический истребитель, безусловно, является оружием.

Идея: вы могли бы сделать так, чтобы ваши пилоты-истребители регулярно брали на абордаж и захваты больших кораблей (или объектов). В этом случае простого ИИ для пилотирования истребителя недостаточно — вам понадобится целый робот. И это не может быть неуклюжий робот. Он должен быть способен маневрировать через вражеский корабль, с неизвестными внутренними органами, с поврежденными участками и с сопротивлением противника на абордажах. Затем ему придется отремонтировать вражеский корабль и направить его обратно на свою территорию. (Или, может быть, использовать его для продолжения битвы, или в качестве корабля-шпиона, или в сотне других сценариев.)

Суть в том, чтобы перейти от аналогии с военно-воздушными силами к аналогии с военно-морским флотом. Превратите своих пилотов-истребителей в пиратов, и вы перестанете нуждаться только в искусственном интеллекте пилота-истребителя, а будете нуждаться в чрезвычайно сложном роботе. С определенной точки зрения люди уже являются чрезвычайно сложными роботами, так зачем вашим будущим империям изобретать велосипед? (Кроме того, одно дело иметь ИИ в своей цивилизации. И совсем другое — иметь большое количество роботов, которые физически и умственно столь же сложны, как люди.)

[редактировать: только что понял, что эта идея похожа на наземную войну Дюны, где щиты очень эффективны, за исключением медленных атак. Это приводит к наземной войне, основанной на массе пехоты (с транспортными бункерами для мобильности), участвующей в ближнем / рукопашном бою.]

В будущем ИИ станет мощным и почти разумным. Например, в стандартном земном истребителе ИИ будет буквально летать вокруг человека. Они могут маневрировать вокруг препятствий, которые пилот-человек даже не заметит. Они могут отслеживать цели с помощью сложных физических уравнений, вплоть до того, что знают, куда полетят отдельные молекулы, когда корабль будет уничтожен.

Если они могут делать все это, то зачем вообще нужен пилот-человек?

Электромагнитное излучение

Двигатели ручных волн создают огромное количество электромагнитного излучения. Очевидно, что компьютеры могут быть защищены от создаваемых электромагнитных полей, но экранирование делает корабли намного больше, громоздче и в целом менее устойчивыми. Вместо этого корабли управляются механической проводной системой, управляемой непосредственно пилотом, с минимальным количеством закаленных электрических компонентов. Двигатель и его электроника достаточно защищены для работы, а пилоту не нужна никакая защита, кроме обычных «держать воздух внутри» и «не допускать энергетического оружия». На самом деле, щиты могут использовать для работы те самые электромагнитные поля. Это шумно (по частоте), но это хорошо для щита; он лишает врагов возможности использовать глушитель или, что еще хуже, гармонический резонатор, который усилит щит до такой степени, что убьет человека.

Околосветовая скорость — это странно

На околосветовых скоростях космических истребителей в физике происходят всякие странности. Моделирование эффектов возможно, но огромное количество деталей, которые должен знать компьютер, ошеломляет. Стандартный компьютер с трудом справляется с этим в режиме реального времени, а громоздкие сверхнадежные компьютеры на истребителе остаются далеко позади. К счастью, люди умеют игнорировать информацию, какой бы важной она ни была. С помощью всего лишь нескольких основных фильтров человек может отслеживать вражеского пилота в космосе так же быстро, как если бы они оба находились в реактивных самолетах в атмосфере Земли.

Сверхсветовая скорость действительно странная

Конечно, это на субсветовой скорости. Как только частицы Handwavium задействованы и корабли перемещаются в мини-червоточину/варп-скорость/гиперпространство/параллельную вселенную (назовем ее Суперпространством), физика действительно выходит из окна. Никто на самом деле не знает, как на самом деле выглядит Superspace; скорее, ультравысокочастотные энергетические паттерны напрямую взаимодействуют с человеческим мозгом. Когда мозг пытается понять информацию, он переводит образы в образы, звуки и даже вкусы. Пилот может использовать эти ощущения, чтобы направлять свой полет, заканчивая примерно там, где он хочет: «Лети, пока не увидишь апельсин и не почувствуешь запах инжира, поверни влево и продолжай лететь, пока не почувствуешь вкус острой черники».

В каждой солнечной системе существуют определенные энергетические модели, позволяющие пилотам избегать столкновений с планетами или звездами; однако у каждой системы есть свои ощущения, которые позволяют пилотам ориентироваться «на ощупь».

Компьютер, конечно, ничего не может сделать из полученной информации; расплывчатые энергетические взрывы исчезают слишком быстро, чтобы их можно было как-то обработать. Конечно, компьютер может летать из точки А в точку Б; ему просто нужно сделать все расчеты заранее и летать вслепую. Если что-то окажется на его пути, он превратится в небольшую и дорогую сверхновую.

Я посмотрел и ничего не увидел, извините, если я поднимаю вопрос и отвечаю, но в чем причина того, что об операциях с дронами не может быть и речи? Под дроном я подразумеваю нынешний военный термин, когда есть летательный аппарат, которым управляет пилот-человек, который не находится в физическом летательном аппарате. Единственное, что я мог видеть как проблему с этой системой с практической точки зрения, это то, что может быть некоторая задержка сигнала (и, я думаю, экранирование может блокировать сигналы).

Но для вашего программиста-пацифиста это было бы лучшим из обоих миров. Вы сохраняете превосходство пилота-человека, ограничивая его уязвимость на поле боя. Так что вместо войны ваши пилоты играют в видеоигры.

Еще одна упускаемая из виду проблема заключается в том, что авианосец — мощный корабль... но он также достаточно легкий для защиты. Реальные авианосцы окружены небольшим флотом других кораблей, которые служат заслонами от вражеских действий. Есть ракетные крейсера (они обеспечивают большую часть ПВО), уничтожают (надводное патрулирование и противовоздушные действия) и подводные лодки (обеспечивают безопасность подводных лодок), которые защищают авианосец, который выполняет весь ответный огонь (не говоря уже о том, что авианосцы действуют многоцелевой корабль, который может переходить от воздушного боя к воздушному и наземному бою в крайнем случае для дополнительных экранов от действий противника). Конечным результатом является то, что если вражеский корабль находится достаточно близко к авианосцу, чтобы можно было установить визуальный контакт без посторонней помощи, что-то пошло не так. Возможно, еще один мотив заключается в том, что у ИИ были проблемы с расстановкой приоритетов, и они сначала нацеливались на наиболее ценную цель и всегда с энтузиазмом переходили к авианосцу, игнорируя другие корабли, которые были там специально, чтобы остановить их. Конечно, это не человеческая жизнь, но все же это инвестиция, которую нелегко заменить во время войны.

Как это отвечает на основной вопрос? Все мы знаем, что пилоты на борту создают проблемы. Вопрос в том, как построить мир, в котором это будет иметь смысл.
@Molot Первая часть о дронах заключается в том, что у OP есть персонаж, который хочет удалить человека из машины ... следовательно, необходимо рассмотреть ступеньку, которая делает то, что уже используется (почему дроны нежизнеспособны)? Вторая часть — еще одно соображение, которое принимает во внимание природу боя Carrier Theory и постулирует простой ИИ, у которого могут быть проблемы с правильным прицеливанием (еще одна причина не идти по пути ИИ).
На самом деле возможность дронов — ключевой сюжет моей истории. Первоначальный вопрос, который я задал, предполагает, что это невозможно (я прямо сказал, что излучение ER предотвратило дистанционное управление). Тем не менее, у программиста есть трюк для использования сверхсветовой связи для дронов, который ранее считался невозможным без того, чтобы его легко заблокировали. Оказывается, это невозможно, в коде черного ящика есть неясная уязвимость, которую он не раскрыл при публичном обнародовании, в надежде, что пока ее не обнаружат, дроны будут использоваться для временного спасения жизней. Тем не менее, это не помогает понять, почему ИИ не используется.

Некропостинг! (И да, я прочитал или, по крайней мере, просмотрел все остальные ответы.) Я подытожу некоторые ответы, а затем предоставлю больше своего собственного вклада.

Что мы уже знаем

Использованные задачи от других ответов:

  • Пилотирование с ИИ уже сложно ;
  • ИИ не креативен, приспосабливается к неожиданным неудачам, достаточно сострадателен;
  • ИИ можно взломать; бой - это не кинематографический воздушный бой, а столкновение хакеров и / или радиоэлектронной борьбы.

Не используется напрямую, но может оживить вещи:

  • Люди+ могут делать то, чего не могут ИИ, например предсказывать или мысленный радар.

Не "боритесь" со слабым ИИ, примите его...

Пилотирование сложного космического корабля, устранение сбоев из-за вражеского огня или технических неполадок, дешевизна — все, на что способны роботы. Быть "творческим" - в меньшей степени. Используя некоторые сверхспособности, даже меньше.

Нам нужен слабый ИИ на наших боевых самолетах в космосе. Или, как кто-то заметил, мы сведены к воздушным боям времен Второй мировой войны, может быть, к управляемым ракетам времен Вьетнама, но не более того.

... но не слишком доверяйте этому

Поговорим о радиоэлектронной борьбе. Есть несколько уровней взлома со связью в бою.

  • Заглушить канал связи;
  • «Прослушайте» расшифрованное сообщение и действуйте соответственно (в основном, что британцы делали во время Второй мировой войны);
  • «Поддельные» зашифрованные сообщения и ввод противника в заблуждение.

Если бы у нас был защищенный канал, который невозможно взломать, мы могли бы использовать одного пилотируемого «командира» (вероятно, построить всех остальных по тому же стандарту, чтобы избежать визуального обнаружения и приоритизации цели) и рой роботов-«актеров».

Если мы не верим в безопасную связь, тем более, если противник может заставить наших роботов открыть дружественный огонь, нам нужно укомплектовать все истребители.

Сценарий

Итак, вы можете представить следующее:

Война была предназначена для борьбы с роботами-убийцами. Роботы управляли настоящими пилотируемыми самолетами, потому что им нужно было какое -то руководство с поля боя. (Это та же идея, что и у немецкого «командирского танка» времен Второй мировой войны, который выглядел точно так же, как и обычный, включая макет пушки, только наоборот.)

На первом этапе войны эта идея эффектно провалилась: недооценивались способности противника по глушению, расшифровке и фальшивым приказам. К счастью, все космические истребители были сделаны так, чтобы ими можно было управлять.

Поскольку взломать внутри одного самолета намного сложнее, чем взломать межплоскостную связь, это сработало. Таким образом, мы по-прежнему будем использовать слабый ИИ для навигации, фактического полета, приоритизации целей, показаний суперрадаров и т. д. Но все истребители укомплектованы людьми, поскольку люди могут обнаружить, если враг тянет их ногу по связи, и роботы этого не делают.

Поскольку проигрыши не запредельны, эта стратегия работает. Борьба с самолетами-роботами-убийцами стоит только денег, но не жизней на нашей стороне. Так что вьетнамских протестов можно было ожидать, если это какая-то "нежелательная война".

Пять секунд реальной жизни

Некоторым истребителям Су предыдущего поколения (не помню какие) и (насколько мне известно) всем истребителям пятого поколения для полета требуется компьютер реального времени. По сути, эти самолеты аэродинамически нестабильны, в неподвижном состоянии они не могут удержать курс. Таким образом, чтобы сразу не рухнуть, им нужен специальный компьютер, который достаточно многократно подгонял бы рули. Эта большая цена приходится на более высокую маневренность самолета, когда ему нужно маневрировать.

Конечно, эта система не ИИ, но все же компьютер. Я полагаю, что у космического военного самолета будет гораздо больше таких систем. Может быть, не все на самом деле нужны, но они а) следуют общему тренду (не спрашивайте, сколько компьютеров в современной машине), б) улучшают некоторые аспекты работы машины, и любой вопрос на войне может означает разницу между выигрышем и проигрышем.

Выводы

Что я в основном говорю: наличие слабого ИИ на борту было бы скорее улучшением некоторых аспектов боевого самолета, и поэтому приветствуется. Наличие человека на борту улучшит другие аспекты боевого самолета и, следовательно, будет пользоваться таким же отношением .

Культура

Я не думаю, что этот ответ был дан, но, возможно, у вас есть каста воинов - люди, которые наслаждаются радостью битвы, это их смысл существования . Это политически влиятельная группа, вроде профсоюза, которая не позволит использовать ИИ для борьбы.

В качестве альтернативы вы можете оказаться в антиутопическом мире, где человеческая жизнь настолько дешева, что они просто не заботятся о пилотах, чтобы создать ИИ. зачем беспокоиться, когда массовое производство истребителей относительно дешево (что со всем рабским трудом), и есть миллионы людей, которых вы можете использовать для их пилотирования.

Еще одна проблема, которая здесь особо не затрагивается, — это управление повреждениями . ИИ мог бы проделать фантастическую работу по полету, когда все работает отлично, но когда половина средств управления реакцией отключена, управление основным соплом находится в реверсивном режиме, а главный двигатель гудит из-за неисправности турбонасоса, не говоря уже о потере двух компьютеров и электрической шины из-за боевых повреждений, ему будет гораздо труднее «нестандартно мыслить», чтобы доковылять до дома или даже закончить миссию, чем хорошо обученный пилот-человек.

С чего вы взяли, что ИИ не может этого сделать. Человек на самом деле не мыслит нестандартно при пилотировании - это могут быть инопланетяне, путешественники во времени или просто какое-то неожиданное внешнее влияние, вызывающее мои проблемы.
@user2617804 user2617804 - люди намного лучше разбираются в противоречивой или неполной информации, чем компьютеры, если есть соответствующий шанс.
Нечеткие экспертные системы справляются с этим так же хорошо, как и люди. Все, что меньше достаточной информации — вращение, скорость, ускорение, положение и космический корабль — обречено. Многие пилоты-люди разбивали самолеты из-за противоречивой информации от датчиков или приборов, тогда как ИИ сначала стабилизировал бы самолет, что снижает риски.

Во-первых, ИИ разумного уровня просто глупо иметь на истребителе / ​​гандаме, как такового на самом деле, скорее всего, не будет, так как все еще нужно будет принять так много решений, поэтому их нужно передать ИЛИ иметь пилота. Передача займет время и может быть взломана, так что вы не хотите этого как можно больше.

Это приводит ко второму пункту: если вы собираетесь иметь Разумный и не Разумный ИИ (как вам нужно), вы можете также сделать Разумного биологическим организмом, а не разумным ИИ, потому что тогда у вас есть защита. из взлома и двух разных систем обработки, одна из них, которая является гораздо менее логичной, приведет к общему большему шансу на победу из-за возможности придумывать вещи с разных точек зрения.

Любой ИИ, который у вас есть, адаптивный или нет, опирается на набор правил. Если я смогу понять эти правила, я смогу использовать их в своих интересах как разумный человек. С другой стороны, человеческое поведение может быть непредсказуемым, и поэтому ИИ просто не сможет адаптироваться.

Кроме того, если корабль поврежден и нуждается в ремонте, ИИ во многих случаях не сможет починить себя, даже если у него есть безопасные для использования наниты.

Таким образом, безопасность, стратегия и возможность ремонта лучше с пилотом-человеком, независимо от того, насколько быстры или мощны процессор и ИИ.

ваш вывод натянут и нелогичен из вашей предпосылки. Сравнение человека с ИИ - не так уж и уместно. Люди опираются на правила, которые они изучают, вероятно, в своей школьной симуляции космической академии, и от того, насколько хорошо они усвоили эти правила, зависит, пройдут они или нет. наниты и проблема ремонта - совершенно несовместимые утверждения, но долго объяснять почему, а с нанитами им бойцы наверное не нужны. Хороший момент на самом деле только в том, что биологический «ИИ» не должен быть Разумным, достаточно быть сообразительным - система мозга мыши. Но об этой гибридной системе стоит подумать.
Если человек ошибается в правиле, это все равно полезно, потому что тогда он действует не так, как предсказывает ИИ. Нанитовый ИИ будет разработан таким образом, чтобы не распространяться, мешая ремонту корабля в любой ситуации, когда материалы недоступны. Предположим, что вы потерпели крушение на нецивилизованной планете, и этот корабль не будет ремонтироваться, если у вас нет пилота, чтобы передвигаться и получать вещи для ремонта корабля. Мозги мыши достаточно хороши для одних частей, но не для других.
Я думаю, вы не знаете, как работают наши сегодняшние алгоритмы самообучения. И в этом корень проблемы, если сравнивать их с людьми. Это моя заметка о вашей пятерке, и я предпочитаю, чтобы она была короткой. Я бы порекомендовал добавить эту точку ограничения распространения к вашему ответу - это достаточно веская причина, чтобы ограничить серую слизь. Я назвал это несовместимым по другой причине, тут сбор материала, больше информационных. Но серая жижа - это перебор, не нужны пилоты и истребители, в первую очередь.
Не знаю, как полностью работает обучение ИИ, но я достаточно хорошо его понимаю. Он просто никогда не будет достаточно хорош, чтобы полностью управлять человеческим мышлением, и у него также есть те же ограничения, что и у нанитов, в том, что мы будем добавлять определенные вещи, которые он не может сделать, и которые можно использовать. Я думаю о пилотах-людях в будущем больше как о истребителе, а не об операторе, они принимают решения или останавливают действия, но большая часть деятельности будет выполняться ИИ.
ИИ, даже современный мягкий ИИ, может делать непредсказуемые вещи в 1000 раз лучше, чем люди. Людям НЕ НУЖНА их непредсказуемость, генераторы случайных чисел отлично справляются с этим. Если ваш корабль поврежден настолько, что нуждается в серьезном ремонте, скорее всего, один пилот мало что может сделать для его ремонта (пилот-истребитель не может починить свой истребитель), и кроме того, он, вероятно, мертв или застрял в космосе до тех пор, пока его не спасут. не исправить вещи в космосе легко.