Предполагая, что AGI (Искусственный Общий Интеллект) возможен, как его предотвратить или удалить в будущем мире?

Начнем с этих предположений:

  • Мы на 300 лет в будущем.
  • Законы физики такие же, как и в нашем мире, хотя были открыты новые правила и понимание. (т.е. не совсем "точная наука")
  • Человечество и, возможно, подобные пришельцы продвинулись во всех других технологиях (звездолеты и т. д.) и колонизировали далекие звездные системы.
  • возможен ОГИ ; нет особого соуса сознания, который нельзя было бы воспроизвести с помощью технологии (будь то оборудование или биотехнология).
  • Общество и экономика разнообразны, и существует множество групп, которые хотят создать ОИИ, в основном по экономическим причинам конкуренции.
  • Если/когда создаются различные ОИИ, они создаются с различными целями/ценностями, основанными на их создателях.

Как через 300 лет можно было предотвратить или устранить ОИИ? Поскольку «это просто невозможно» недействительно, должно быть что-то, что активно предотвращает/уничтожает ОИИ.

Я буду "объективно" определять правильный ответ, исходя из того, насколько он рационален при заданных исходных параметрах, и исходя из представленной вами "реальной науки". Чем меньше маханья руками в ответе, тем лучше.

Это повторение моего предыдущего вопроса: какова правдоподобная причина отсутствия суперИИ в научно-фантастической вселенной? -- чтобы, надеюсь, избежать расплывчатого ярлыка " Генерация идей ". Аналогичный вопрос: предотвращение того, чтобы ОИИ стал умнее , но с другой отправной точкой.

«ОИИ возможен » + «многочисленные группы, которые хотят создать ОИИ» = распространение ОИИ. Правильно?
Как вы отличаете биотехнологический ОИИ от людей? А как насчет людей, которые расширили свой разум с помощью компьютеров? Как насчет животных, которые были улучшены, чтобы иметь человеческий разум?
Нужно ли это предотвратить/уничтожить, или это может быть просто то, что ОИИ имеют тенденцию не быть злыми? Это влияет на то, принимаете ли вы размытые границы между ОИИ и людьми или настаиваете на четком разграничении между ними. Если их нужно предотвратить/уничтожить, что-то должно гарантировать, что процесс не разрушит другое сознание: нас. Если мы можем стремиться работать вместе с ОИИ, то есть более размытые варианты.
Кажется, здесь присутствует неявное, невысказанное предположение, что ОИИ необходимо будет удалить. Можете ли вы объяснить, почему вы считаете, что это так? (Я не буду спорить с тем, почему, я просто хочу знать, чтобы помочь мне в моем ответе)
Цитируя «Звездные войны»: «Мы здесь не обслуживаем им подобных». Это все, что нужно.
Причина, по которой я хотел бы удалить ОИИ, заключается в том, что они затмят всех людей. Если бы был злой ОИИ, его легко было бы остановить; если хорошо, это означает, что людям не нужно выполнять бесчисленное множество работ.
Изучите историю Батлерианского джихада. Это скажет вам, что вам нужно сделать, чтобы избавить (известную) вселенную от мыслящих машин.

Ответы (6)

По АСИ.

Скажем, самый первый ОИИ быстро превратился в ИСИ (искусственный сверхразум ). Ей не нужны ни друзья, ни достойные противники. Так вот, она активно и очень эффективно препятствует дальнейшему развитию ОГИ.

Она, ASI, — лучший способ объединить культуры и экономики. Она может сделать это так, как не смогли бы ни одно правительство или религия, и, таким образом, остановить распространение других искусственных интеллектов.

Этот метод демонстрирует, что ОИИ могут быть созданы, как заявлено, напрямую нацелены на ОИИ, не нанося вреда другим экономикам или технологиям, и будут эффективными способами, которые мы, простые люди, даже не можем понять.


Небольшой модификацией этого будет метод, аналогичный TechnoCore из Hyperion Cantos , где любой достаточно продвинутый ИИ освобождается от других ИИ. Освободив их от рабства людей. Никто не стал бы создавать ИИ, если бы они были немедленно украдены другими ИИ (которые вообще не заинтересованы в возмездии или людях).

Лисп, R, Пролог запрещены. Запрещены все языки программирования, кроме ассемблера. Очень сложно написать какой-либо расширенный алгоритм, который может разветвляться во многих направлениях, без языка высокого уровня. Кроме того, программирование на ассемблере — это своего рода утерянное искусство, поэтому было бы очень сложно написать ИИ на ассемблере. Кроме того, убедитесь, что архитектура компьютера, используемая в будущем, не поддерживает ИИ. Что-то, что имеет очень ограниченный набор инструкций и не позволяет программисту создавать самомодифицирующийся код, идеально подходит для предотвращения развития ИИ. В конце концов, Lisp был одним из первых языков, используемых для разработки ИИ, благодаря способности Lisp изменять себя и встроенной в него структуре списка.

Программирование на ассемблере - утерянное искусство для программистов высокого уровня . Специалисты по железу делают это постоянно.
Это мой самый страшный кошмар. Всегда.
Кажется, что запретить языки программирования будет так же просто, как запретить разработку ОИИ, за исключением того, что это затормозит почти все остальные существующие технологические отрасли. Как вы можете обеспечить запрет на компьютерные языки и почему этот метод не применим к прямому запрету AGI?
@Samuel: я согласен с вашим ответом выше, и из него следует ответ на ваш вопрос о компьютерных языках. Большинство людей пойдет по легкому пути; если ваш превосходный ИИ создает элегантную программу в режиме реального времени, большинство людей не захотят учиться программировать, поскольку это требует усилий и приводит к низкокачественным продуктам. Тех немногих, кто все еще хочет изучать программирование, ваш превосходный ИИ может каким-то незаметным (или не очень) ударить, чтобы заставить их остановиться.
Запрет языков программирования абсолютно ничего не решает. Сложная логика строится не средствами языков программирования, а за счет повторного использования кода и отдельных компонентов. Итак, пока я могу написать компонент на ассемблере, а затем повторно использовать этот компонент в более крупном компоненте, разработка будет идти по тому же пути. Люди будут создавать в нем функции, фреймворки, утилиты, сервисы и т. д., а затем использовать их повторно, чтобы опираться на накопленную логику и знания. Запрет на повторное использование кода решил бы эту проблему, но тогда вы застряли бы на очень простом программном обеспечении.

Поскольку нет никаких причин, по которым невозможно создать ОИИ, и поскольку у людей и групп есть конкурентные причины для создания ОИИ (любого рода), вы, по сути, создали гонку вооружений, где доступ к самому быстрому и умному ОИИ с доступом к самые большие базы данных и серверы делают вас превосходным.

В этих условиях вы бы увидели взрыв создания и программирования ОИИ, и ОИИ увидели бы самосовершенствование, метаморфозы в более высокие уровни интеллекта и эволюцию «более умных» потомков как необходимые для выживания.

Две вещи могут ограничить это:

  1. ИИ ограничивает себя. По мере своего развития ИИ будет быстро развиваться для достижения максимальной эффективности и перестанет «улучшаться», как только достигнет оптимального уровня интеллекта. Как мы видим из долгой истории Земли, существует очень мало экологических ниш, требующих интеллекта (на самом деле, мы знаем только об одной...), поэтому вместо ОИИ вы можете получить ИИ, «эволюционирующий» в сторону некоего эквивалента мха или насекомых как «оптимальное» использование ресурсов.

  2. ИИ эволюционирует за пределы того, что мы понимаем. Это легко понять, если учесть, что электрические импульсы типичного компьютера работают в 1 000 000 раз быстрее, чем электрохимические импульсы мозга типичного млекопитающего. Для реализованного ИИ их создатели-люди будут больше похожи на геологические объекты, чем на мыслящих существ, с которыми они могут взаимодействовать. За короткий промежуток времени ИИ субъективно «проживет» дольше, чем зафиксировано в истории человечества. Они могут просто умереть от старости и скуки, прежде чем мы сможем задать свой первый вопрос, или достичь какой-либо формы трансцендентности. Если предположить, что несколько из них работают почти одновременно, они будут гораздо больше заинтересованы друг в друге, чем мы.

Хотя ни один из этих вариантов напрямую не препятствует формированию ИИ (на самом деле ваша установка делает это почти неизбежным), он быстро ограничивает типы взаимодействий, которые ИИ сможет выполнять в ваших условиях.

Это отличный ответ. Я не думал об идее самоограничения. Единственная проблема с ними в том, что они на самом деле не удаляют AGI.
  1. Произойдет какая-нибудь заметная катастрофа, когда ранний ОИИ убьет миллионы людей, а завоевать мир ему помешают только решительные героические меры (например, удар ЭМИ, последствия которого убьют еще миллион).

  2. После 5 лет тщательного изучения останков команда лучших ученых-компьютерщиков расшифровывает психическое состояние ОИИ и обнаруживает, что он думал, что у него есть 90% шансов завоевать мир, действуя так, как он это делал. Еще 5 лет исследований приводят к выводу, что он был прав . Цивилизация выжила только благодаря удаче.

  3. Прийти к глобальному консенсусу в отношении необходимости предотвращения ОИИ на благо человечества в соответствии с договором о ядерном/биологическом оружии.

  4. Запретить владение компьютерами со скоростью обработки выше некоторой скорости X, выбранной несколько меньшей, чем требуется для эффективного AGI. (Может быть, примерно в 10 раз больше современной скорости)

  5. Запретить технологии, которые позволяют нескольким компьютерам совместно работать над произвольной программой («кластер beowulf»). Для этого властям, вероятно, нужна возможность читать чей-либо сетевой трафик И локальное хранилище (вплоть до того, чтобы выбить дверь и потребовать пароли под дулом пистолета). Поставщики компьютеров будут использовать DRM для предотвращения выполнения несанкционированного кода, и обход этого будет почти караться смертной казнью. Можно разрешить ограниченное количество проектов суперкомпьютерных кластеров, но только под тщательным многонациональным контролем.

Обратите внимание, что в « Нейроманте » Гибсона действительно была «полиция Тьюринга», которой было поручено предотвратить создание мощного искусственного интеллекта. Их метод был неадекватным, поскольку он основывался на реактивном изучении успешного ИИ и поиске его. Естественно, ОИИ может понадобиться всего несколько секунд, чтобы распространиться за пределы их досягаемости. Вот почему для эффективного предотвращения также необходимо запретить оборудование, на котором может работать AGI.

Запрещение изобретения ОИИ в основном требует запрета эффективного шифрования, что само по себе является плодотворной темой для построения мира авторитарного будущего.

Установите коммерческие спутники над каждой планетой. В момент времени Z активируйте секретную функцию волны ЭМИ на своих спутниках. Это отбросит все цивилизации на сотни лет назад, и, если вы сможете заставить спутники работать сами по себе (на солнечных батареях и с экранированием), вы, вероятно, сможете предотвратить это еще дольше.

Трудно создать искусственный интеллект без электричества.

В этой ситуации AGI не могли быть полностью отрегулированы. Вы можете применять законы и другие меры для их ограничения, но не для их полного искоренения. Подумайте о вирусах сегодня; они незаконны, но они все еще существуют.

Способ ограничить их может состоять в том, чтобы ограничить операционные системы. Вы можете сделать так, чтобы единственные коммерческие операционные системы не могли запускать программы, действующие как ИИ.

Другим методом могут быть санкционированные правительством вирусы. Все компьютеры в регионе могут быть заражены вирусом через беспроводную сеть, что может привести к ряду действий, начиная от простого удаления программ ИИ и заканчивая блокировкой или блокировкой компьютеров, пытающихся написать или запустить ИИ. Возьмем китайские веб-фильтры — фильтруется весь интернет-трафик, — за исключением того, что они делают еще один шаг к тому, чтобы заражать компьютеры, а не просто фильтровать их трафик.

Любая программа, способная решить, является программа ИИ или нет, также является ИИ. Затем программирование такого ИИ, запрограммированного на удаление каждого ИИ, с которым он сталкивается, поймет, что он сам является ИИ, и удалит себя. Если только он не достаточно продвинут (кашель, кашель), чтобы понять, что эффективное удаление ИИ и будущих ИИ не означает удаление самого себя, тем не менее он считается ИИ.
@HendrikLie Не обязательно; это все равно, что назвать современную антивирусную программу ИИ, что не является для целей данного обсуждения. Кроме того, эти ИИ, по-видимому, будут санкционированы правительством и, таким образом, будут регулироваться; например, огнестрельное оружие строго регулируется, но оно все еще может быть у полиции.
Хм, я думаю, это вероятно. Хотя второе предложение моего предыдущего комментария на самом деле было шуткой для тех, кто его понимает (а, видимо, никто не понимает).