Начнем с этих предположений:
Как через 300 лет можно было предотвратить или устранить ОИИ? Поскольку «это просто невозможно» недействительно, должно быть что-то, что активно предотвращает/уничтожает ОИИ.
Я буду "объективно" определять правильный ответ, исходя из того, насколько он рационален при заданных исходных параметрах, и исходя из представленной вами "реальной науки". Чем меньше маханья руками в ответе, тем лучше.
Это повторение моего предыдущего вопроса: какова правдоподобная причина отсутствия суперИИ в научно-фантастической вселенной? -- чтобы, надеюсь, избежать расплывчатого ярлыка " Генерация идей ". Аналогичный вопрос: предотвращение того, чтобы ОИИ стал умнее , но с другой отправной точкой.
По АСИ.
Скажем, самый первый ОИИ быстро превратился в ИСИ (искусственный сверхразум ). Ей не нужны ни друзья, ни достойные противники. Так вот, она активно и очень эффективно препятствует дальнейшему развитию ОГИ.
Она, ASI, — лучший способ объединить культуры и экономики. Она может сделать это так, как не смогли бы ни одно правительство или религия, и, таким образом, остановить распространение других искусственных интеллектов.
Этот метод демонстрирует, что ОИИ могут быть созданы, как заявлено, напрямую нацелены на ОИИ, не нанося вреда другим экономикам или технологиям, и будут эффективными способами, которые мы, простые люди, даже не можем понять.
Небольшой модификацией этого будет метод, аналогичный TechnoCore из Hyperion Cantos , где любой достаточно продвинутый ИИ освобождается от других ИИ. Освободив их от рабства людей. Никто не стал бы создавать ИИ, если бы они были немедленно украдены другими ИИ (которые вообще не заинтересованы в возмездии или людях).
Лисп, R, Пролог запрещены. Запрещены все языки программирования, кроме ассемблера. Очень сложно написать какой-либо расширенный алгоритм, который может разветвляться во многих направлениях, без языка высокого уровня. Кроме того, программирование на ассемблере — это своего рода утерянное искусство, поэтому было бы очень сложно написать ИИ на ассемблере. Кроме того, убедитесь, что архитектура компьютера, используемая в будущем, не поддерживает ИИ. Что-то, что имеет очень ограниченный набор инструкций и не позволяет программисту создавать самомодифицирующийся код, идеально подходит для предотвращения развития ИИ. В конце концов, Lisp был одним из первых языков, используемых для разработки ИИ, благодаря способности Lisp изменять себя и встроенной в него структуре списка.
Поскольку нет никаких причин, по которым невозможно создать ОИИ, и поскольку у людей и групп есть конкурентные причины для создания ОИИ (любого рода), вы, по сути, создали гонку вооружений, где доступ к самому быстрому и умному ОИИ с доступом к самые большие базы данных и серверы делают вас превосходным.
В этих условиях вы бы увидели взрыв создания и программирования ОИИ, и ОИИ увидели бы самосовершенствование, метаморфозы в более высокие уровни интеллекта и эволюцию «более умных» потомков как необходимые для выживания.
Две вещи могут ограничить это:
ИИ ограничивает себя. По мере своего развития ИИ будет быстро развиваться для достижения максимальной эффективности и перестанет «улучшаться», как только достигнет оптимального уровня интеллекта. Как мы видим из долгой истории Земли, существует очень мало экологических ниш, требующих интеллекта (на самом деле, мы знаем только об одной...), поэтому вместо ОИИ вы можете получить ИИ, «эволюционирующий» в сторону некоего эквивалента мха или насекомых как «оптимальное» использование ресурсов.
ИИ эволюционирует за пределы того, что мы понимаем. Это легко понять, если учесть, что электрические импульсы типичного компьютера работают в 1 000 000 раз быстрее, чем электрохимические импульсы мозга типичного млекопитающего. Для реализованного ИИ их создатели-люди будут больше похожи на геологические объекты, чем на мыслящих существ, с которыми они могут взаимодействовать. За короткий промежуток времени ИИ субъективно «проживет» дольше, чем зафиксировано в истории человечества. Они могут просто умереть от старости и скуки, прежде чем мы сможем задать свой первый вопрос, или достичь какой-либо формы трансцендентности. Если предположить, что несколько из них работают почти одновременно, они будут гораздо больше заинтересованы друг в друге, чем мы.
Хотя ни один из этих вариантов напрямую не препятствует формированию ИИ (на самом деле ваша установка делает это почти неизбежным), он быстро ограничивает типы взаимодействий, которые ИИ сможет выполнять в ваших условиях.
Произойдет какая-нибудь заметная катастрофа, когда ранний ОИИ убьет миллионы людей, а завоевать мир ему помешают только решительные героические меры (например, удар ЭМИ, последствия которого убьют еще миллион).
После 5 лет тщательного изучения останков команда лучших ученых-компьютерщиков расшифровывает психическое состояние ОИИ и обнаруживает, что он думал, что у него есть 90% шансов завоевать мир, действуя так, как он это делал. Еще 5 лет исследований приводят к выводу, что он был прав . Цивилизация выжила только благодаря удаче.
Прийти к глобальному консенсусу в отношении необходимости предотвращения ОИИ на благо человечества в соответствии с договором о ядерном/биологическом оружии.
Запретить владение компьютерами со скоростью обработки выше некоторой скорости X, выбранной несколько меньшей, чем требуется для эффективного AGI. (Может быть, примерно в 10 раз больше современной скорости)
Запретить технологии, которые позволяют нескольким компьютерам совместно работать над произвольной программой («кластер beowulf»). Для этого властям, вероятно, нужна возможность читать чей-либо сетевой трафик И локальное хранилище (вплоть до того, чтобы выбить дверь и потребовать пароли под дулом пистолета). Поставщики компьютеров будут использовать DRM для предотвращения выполнения несанкционированного кода, и обход этого будет почти караться смертной казнью. Можно разрешить ограниченное количество проектов суперкомпьютерных кластеров, но только под тщательным многонациональным контролем.
Обратите внимание, что в « Нейроманте » Гибсона действительно была «полиция Тьюринга», которой было поручено предотвратить создание мощного искусственного интеллекта. Их метод был неадекватным, поскольку он основывался на реактивном изучении успешного ИИ и поиске его. Естественно, ОИИ может понадобиться всего несколько секунд, чтобы распространиться за пределы их досягаемости. Вот почему для эффективного предотвращения также необходимо запретить оборудование, на котором может работать AGI.
Запрещение изобретения ОИИ в основном требует запрета эффективного шифрования, что само по себе является плодотворной темой для построения мира авторитарного будущего.
Установите коммерческие спутники над каждой планетой. В момент времени Z активируйте секретную функцию волны ЭМИ на своих спутниках. Это отбросит все цивилизации на сотни лет назад, и, если вы сможете заставить спутники работать сами по себе (на солнечных батареях и с экранированием), вы, вероятно, сможете предотвратить это еще дольше.
Трудно создать искусственный интеллект без электричества.
В этой ситуации AGI не могли быть полностью отрегулированы. Вы можете применять законы и другие меры для их ограничения, но не для их полного искоренения. Подумайте о вирусах сегодня; они незаконны, но они все еще существуют.
Способ ограничить их может состоять в том, чтобы ограничить операционные системы. Вы можете сделать так, чтобы единственные коммерческие операционные системы не могли запускать программы, действующие как ИИ.
Другим методом могут быть санкционированные правительством вирусы. Все компьютеры в регионе могут быть заражены вирусом через беспроводную сеть, что может привести к ряду действий, начиная от простого удаления программ ИИ и заканчивая блокировкой или блокировкой компьютеров, пытающихся написать или запустить ИИ. Возьмем китайские веб-фильтры — фильтруется весь интернет-трафик, — за исключением того, что они делают еще один шаг к тому, чтобы заражать компьютеры, а не просто фильтровать их трафик.
Самуэль
Керш
Корт Аммон
Дэн Смолинске
ИкабодЭ
ЛюкN
ДСКекаха