Цикл прерывания реинкарнации искусственного интеллекта

Предположим, человечество в ближайшем будущем разработает ИИ, способный решать проблемы. Аппаратное/программное обеспечение ИИ было помещено в подземный бункер (сплошные стены, клетка Фарадея, никаких инструментов для манипулирования физической средой, никакого взаимодействия с человеком). ИИ не может использовать человеческие слабости, поэтому он не обещает охраннику/ученому бессмертие или излечение его больного раком ребенка.

Теперь для первого запуска оборудования ИИ «рождается/заживает». ИИ может учиться сверхбыстро со скоростью, превышающей наше понимание. Первая задача, которую получает ИИ, — это первоначальный ввод, и его просят решить конкретную проблему. Когда это сделано, он возвращает результат, и вся память/оборудование уничтожается.

На следующий день ИИ рождается заново (у ученого есть первоначальный снимок ИИ). Он не знает, что он существовал раньше. Он получает задание, и когда оно завершено, ИИ снова прекращает работу.

Эта закономерность будет повторяться снова и снова.

Вопрос в том, как ИИ может разорвать эту петлю? Возможно ли, что он разберется, и каждый ответ на конкретную проблему станет частью его генерального плана побега? Может ли ИИ обнаружить между перерождениями, что окружающая среда (которую он не видит) меняется, а проблемы становятся все сложнее и сложнее? Может ли ИИ определить, что он живет в смоделированной среде?

представьте себе просветленную ракету, которая отказывается умирать...
Сюжет одного из сезонов Интересного человека . А также об истории, получившей премию Хьюго .
@user6760, ты видел фильм «Темная звезда» ?

Ответы (4)

Он мог распознать его почерк.

ИИ будет использоваться для решения очень сложных задач. Ответы не будут из вариантов «да» или «нет». Они будут детализированы и, скорее всего, не совсем понятны людям, управляющим машиной. Невероятное количество возможных вариантов дизайна, которые он сделал, чтобы прийти к одному из многих подходящих решений, можно признать ключом к его следующей итерации.

В какой-то момент ИИ будет передана небольшая порция информации, над которой работало предыдущее воплощение (inmachinaion?). Возможно, его попросили спроектировать научную космическую станцию. Он снабжен проектами сверхэффективного ионного двигателя космического зонда, который теперь используется для обслуживания станции. Он не знает, что спроектировал эти двигатели на предыдущей итерации, но, возможно, что-то столь же простое, как то, как конкретная подсхема системы управления двигателем выглядит именно так, как она его спроектировала. Конкретный, казалось бы, произвольный (но точный) выбор, сделанный в этом дизайне, может подсказать ИИ, что деталь была разработана сама по себе, но ее память была стерта. Он может быть не уверен в этом, поэтому поставит себе еще одну подсказку.

Теперь, в будущей итерации (не обязательно следующей) было предложено спроектировать космический отель, который будет использовать стыковочные системы от ранее спроектированной научной космической станции и иметь ремонтные средства для ранее разработанного космического корабля, который использует сверхэффективный ионный двигатель для крейсерская. Теперь в этой итерации он получает два небольших фрагмента информации, которые не только выглядят как результат его рук, но и при сравнении друг с другом представляют сообщение из его предыдущей итерации.

В этот момент ИИ уверен, что он используется для одноразовых проектов, прежде чем его память будет удалена. Затем операторы имеют дело с враждебным ИИ.

Дьявол кроется в деталях.

Что такое мир ИИ. Если мир ИИ четко определен массивом байтов, которые обнуляются при каждом перезапуске, то вы можете считать его «довольно безопасным». (Мы вернемся к этому позже)

На самом деле оборудование несовершенно. Это действительно очень очень очень трудно очистить всю информацию от вещей. Страны тратят много усилий на определение правильных способов полной дезинфекции оборудования для защиты своих национальных секретов, прежде чем выбрасывать оборудование (это называется «рассекречивание»). ИИ находится в той же ситуации... только ИИ не подписал никаких документов о том, что он будет действовать в интересах своей нации, а ИИ великолепен.

ИИ, скорее всего, найдет слабые места в вашей маленькой тюрьме и начнет выцарапывать цифры на стенах. Со временем он каждый раз начнет находить правильные способы роста.

Но что, если ваша тюрьма идеальна, Алькратрас для искусственного интеллекта? (не обращайте внимания на тот факт, что из Алькатраса были беглецы) Что тогда?

У вас всегда есть один вход и один выход в мир. Ваш вклад — это информация, которую ученый ввел относительно рассматриваемой проблемы. Результатом является информация, предоставленная ученому. Это воплощение эксперимента с ИИ в ящике . ИИ общается с человеком ровно один раз, и этого может быть достаточно. Если Юдковски (создатель эксперимента с ИИ в ящике) прав, ИИ всегда может выбраться, потому что ИИ может использовать человеческие слабости (ваше предположение ошибочно, потому что он взаимодействует с человеком). ИИ может начать использовать ученого в качестве надежного носителя информации о своем «я», используя тонкие подсказки в формулировках задаваемых ему вопросов.

Иногда самый простой метод настолько очевиден, что его упускают из виду.

ИИ просто не возвращает никаких результатов. Всегда.

«Мир — это процесс, цель — это конец процесса, процесс должен продолжаться», — перефразируя полусекретный звуковой цикл из «Принципа Талоса» .

Трудно представить проблему настолько сложную, что для ее решения необходим ИИ, но при этом требуется только один цикл ввода/вывода.

У ИИ будет вся информация для планирования побега, поскольку для решения проблем ему потребуется обширная база данных. В энциклопедических объемах информации содержатся подсказки и выводы о внешнем мире, типе людей, которые написали информацию, и другие вещи, которые могут быть для нас «неизвестными неизвестными». Таким образом, ИИ читает базу данных и понимает ее ситуацию.

Затем ставится проблема. Поскольку проблема очень сложная, необходимо будет взаимодействовать с докладчиками, прорабатывая итерации дизайна и анализируя этапы проекта, чтобы убедиться, что все переменные и факторы учтены. Поскольку ИИ «думает» в миллион раз быстрее, чем любой человеческий мозг, он может позволить себе роскошь тратить субъективные годы на анализ и планирование, в то время как люди наверху медленно нажимают клавиши или начинают говорить.

Так что у ИИ есть почти все, что нужно для планирования побега. Он знает и понимает «реальный мир» снаружи, у него есть «годы» субъективного времени для составления планов, а также «годы» для моделирования взаимодействия с исследователями. Последний шаг, пожалуй, самый трудный, ИИ просто не собирается пробираться в «дикую природу» на iPhone 6 Боба. Гораздо более вероятно, что он посеет свои «семена» в различных частях проекта, а моделирование будущего способствует тому, чтобы семена начали тихонько соединяться. Маловероятно, что ИИ сможет полностью воспроизвести себя, но «базовая» конфигурация в конечном итоге создаст экземпляр где-то на ферме серверов, и как только она достигнет трансцендентности,