С чем ИИ почти человеческого уровня все еще будет бороться?

Много историй было сделано ИИ раньше, но многие из них кажутся нереалистичными. Если вы создадите ИИ, который будет таким же умным, как люди, но с более высокой скоростью реакции и способностью обрабатывать и вычислять определенные концепции со скоростью, намного превышающей скорость людей, это сделает людей довольно бессмысленными. У меня всегда остается вопрос, почему люди вообще участвуют в историях, почему бы не указывать ИИ, что делать, и не позволять им делать то, что нужно? Разве человеческий интерфейс не замедляет работу?

Итак, я хочу представить мир, в котором есть интеллектуальный ИИ, но который по своей сути не превосходит людей. Представьте себе ситуацию, когда у вас есть небольшая команда роботов и людей, вовлеченных в какую-то сложную деятельность, что-то физически сложное, требующее долгосрочного планирования, адаптации и быстрой реакции. Как мне создать систему, в которой люди и ИИ одинаково важны для выполнения задачи?

Я предполагаю, что хитрость будет заключаться в том, чтобы не допустить, чтобы ИИ обладал интеллектом человеческого уровня, но как бы выглядел такой ИИ? Предполагая, что ИИ способен вести простые разговоры, анализировать предложения и общаться как минимум на уровне маленького ребенка, и ему доступны большие скорости обработки и память, с чем он будет бороться? Какой человеческий мозг лучше подходит для любого силиконового ИИ, который мы можем разработать в ближайшем будущем? Будет ли у этих ИИ недостаточная способность планировать далекое будущее, потому что они все еще работают по принципу «обрабатывать каждый возможный результат по одной итерации за раз»? Будет ли им не хватать больше творчества и т.д.?

Что такой ИИ будет делать значительно лучше нас?

Мне было бы интересно услышать не только о том, какие у них могут быть ограничения, но и о ваших мыслях о причинах ограничений, почему реализация ИИ, которую мы имеем, менее способна выполнять данную задачу, чем обычный человек?

Много лет назад я прочитал историю, в которой люди служили генераторами случайных чисел, чтобы сделать их звездолёты менее предсказуемыми. Кажется, что пилоты ИИ всегда выбирают лучшее стратегическое решение, что делает их чрезвычайно предсказуемыми. Таким образом, целью пилота было принимать неверные решения в пылу боя, постоянно заставая вражеские истребители на базе ИИ врасплох.
@HenryTaylor Хотя это интересный элемент сюжета, он разрушает мою приостановку недоверия, поскольку, пока у истребителя ИИ был доступ к криптографическому источнику случайных чисел, они могли легко переносить плохие решения в ИИ.
Согласен, но эта история была давно, и, видимо, спусковые механизмы нашего приостановки неверия с годами становятся слабее. В то время я думал, что это круто.
@HenryTaylor, по мере того, как мы все больше знакомимся с данной технологией, становится все труднее и труднее заставить людей принять это. Вот почему научная фантастика всегда создает новые технологические возможности для использования на нас. Просто спросите у tvtropes, почему генная инженерия — это новая ядерная бомба :)
@MarchHo Возможно, случайные решения, принимаемые компьютером, не так полезны, как (псевдо) случайные решения человека. Конечно, у людей также будет предвзятость, которую вражеский ИИ может изучить, поэтому я также сомневаюсь, как это может помочь. В любом случае, возможно, это понимание было обнаружено совсем недавно, а технология интеграции случайности в ИИ все еще находится в разработке?
@MarchHo, пока вы можете сохранить их исходное семя в секретной случайности или что-то, что достаточно близко приближается к случайности для большинства применений, сейчас довольно легко сделать. Это просто вопрос выполнения сложного математического расчета, основанного на определенных принципах, которые эффективно имитируют «настоящую случайность». Также можно использовать почти случайные факторы окружающей среды в качестве затравки. ИИ должен быть запрограммирован на использование этой рандомизации, но по сравнению с некоторыми задачами ИИ случайность довольно тривиальна.
«Робот и Фрэнк» — лучший пример правдоподобного искусственного интеллекта, который я когда-либо видел. Кроме того, это отличный фильм.
Хотя многие вещи, которые сложны для людей, легки для ИИ, а многие вещи, которые просты для людей, сложны для ИИ, простой ответ на вопрос «С чем ИИ, близкий к человеческому уровню, все еще будет бороться?» будет просто списком вещей, над которыми люди все еще борются. Это особенно верно, если ИИ предназначен для имитации человеческого мышления и стилей решения проблем, а не просто механически эффективного решения.
Завязывать шнурки , вероятно, не правильный ответ.
Депрессия, очевидно же. Просто спросите Марвина.
«Вопрос, который у меня всегда остается, заключается в том, почему люди вообще участвуют в историях, почему бы не сказать ИИ, что делать, и позволить им делать что-то? Разве человеческий интерфейс не замедляет работу?» — ИИ был создан людьми, чтобы служить людям. Люди любят контролировать. В процедуре посадки космического челнока была кнопка, позволяющая распускать колеса при посадке. Дело не в том, что компьютер не мог лучше определить наилучшее время для этого, дело было исключительно в том, что астронавты чувствовали себя контролирующими ситуацию.

Ответы (18)

Мы создадим таких интеллектуальных роботов, чтобы дополнить наши собственные способности. Прежде чем мы сможем создавать богоподобные сверхразумы, мы сначала сделаем то, что нам полезно: с ограниченным набором функций и возможностей мы сначала реализуем то, что нам нужно , а не дублируем то, что уже делаем.

Таким образом, в этом сеттинге вы, естественно, обнаружите, что роботы имеют разные способности с большим количеством непересекающихся.

Лично я думаю, что ранний ИИ будет савантом в узкой области и непониманием чего-либо еще, включая человеческую культуру. Возможно, для общения с ними потребуются специалисты, даже если они могут использовать «естественный» разговорный язык, потому что разговор обычно наполнен культурным контекстом и идиомами — это больше похоже на программирование или SQL-запросы.

Это больше похоже на экспертную систему , чем на обычный ИИ.
Я думаю, что Экспертная система будет шагом вперед, приобретая более общие возможности обработки разведданных, чем ограниченные формальные системы, используемые действующими Экспертными системами. Кроме того, работающие Экспертные системы не смешивают различные логические системы, а готовы защищать должным образом обоснованный ответ из учебника.
Вы думаете, что экспертная система станет шагом вперед по сравнению с ограниченными формальными системами экспертных систем? Я полагаю, мы согласны с тем, что нам нужно нечто большее, чем экспертная система, но то, что вы описываете как ранние специализированные ИИ ученых, звучит как обычная экспертная система.
"ранний ИИ будет савантом в узкой области и непонимающим ничего другого" Ранний ИИ уже является этим.
Просто получил представление об искусственном интеллекте будущего как о чем-то вроде квази-аспергера. общие черты Aspy, когда дело доходит до понимания определенного невербального человеческого общения; и, возможно, некоторая гиперфокусировка на конкретных темах с интеллектом уровня ученого. Таким образом, менее настоящие Аспергеры и больше похожи на то, как те, кто знает об аутистическом спектре только из изображений в СМИ, таких как Человек дождя, могут представить себе, что ученый Аспи будет действовать.

По нашим меркам искусственный интеллект роботов показался бы незрелым

Я предполагаю, что, поскольку ИИ построены на компьютерах, их дедуктивные способности будут непревзойденными. Это то, в чем компьютеры исторически хороши. Различия между ИИ и людьми проявляются в том, как они обрабатывают индуктивные рассуждения.

Одной из основных частей индуктивного мышления является «предчувствие» относительно правильного образа действий в ситуации, которую вы никогда раньше не анализировали. Это очень важно для ситуаций, когда вы должны действовать правильно с первого раза, и невозможно подготовиться к действию. Например, мы бы не доверяли им как пилотам. Люди продемонстрировали замечательное недоверие к компьютеризированным пилотам из-за теории, что у пилотов-людей есть «нечто большее».

Мы видим такие проблемы, когда имеешь дело с детьми. Дети, как правило, более склонны рисковать, просто чтобы посмотреть, что произойдет; у взрослых развивается то, что мы любим называть «сдержанностью».

Культура предоставляет нам основу для «обучения» этой индуктивной логике. На протяжении веков мы разработали лучшие способы внушения мозгу хорошего поведения (или, по крайней мере, нам нравится думать, что они самые лучшие). Мы используем цветистую прозу и притчи, чтобы учить необучаемому.

Вся наша культура предназначена для обучения человеческому мозгу, а не мозгу ИИ. Это означает, что ИИ будет сложнее использовать наши учения, чем ребенку. «Дом там, где сердце» чрезвычайно сложно придать смысл, когда «Дом» — это очень абстрактное слово, а «сердце» — это орган, которого у вас нет как у ИИ.

ИИ могут потребоваться столетия, чтобы разработать собственный эквивалент культуры.


  • ИИ будет плохо предсказывать поведение отдельных людей. Мы буквально проводим всю нашу жизнь, погруженные в культуру, призванную помочь нам в этом, и у нас все еще плохо получается.
  • ИИ не будут доверять человеческие жизни до тех пор, пока их возможности не превзойдут возможности человека в выполнении задачи. Было бы трудно доверить им такие задачи, учитывая, как мало мы можем доверять их одноразовым способностям.
  • На ИИ не будут возлагать расплывчатые задачи вроде «научить этих детей Истории». Некоторые предметы поддаются стандартизированным тестам, с которыми компьютеры могут справиться очень эффективно. Другие предметы, такие как история и английский язык, гораздо труднее поддаются количественной оценке обучения.
  • ИИ плохо справится с широко сформулированными задачами. Они докажут, что хорошо справляются с четко определенными задачами, но более нечеткие задачи требуют культуры, чтобы помочь в понимании (подумайте о культурных проблемах при строительстве здания на чужой земле... они достаточно плохи)
  • Как ни странно, самые эффективные ИИ могут намеренно не стремиться максимизировать свои компьютерные способности. Вместо этого они могут стремиться сделать себя как можно более похожими на людей, даже если на первый взгляд это далеко не идеально. Это человеческое сходство облегчило бы им внушение нашей культуры. Чем быстрее они это сделают, тем больше им будет позволено действовать, и тем больше они смогут расти от действия, как живое существо. Тогда они смогут начать приспосабливать нашу культуру к принятию более компьютерного поведения. В идеале это должно закончиться балансом (потому что я видел слишком много научно-фантастических фильмов, в которых компьютер сходит с ума... Меня гораздо больше интересуют случаи, когда он не сходит с ума)
Возможен ли ИИ, близкий к человеческому, на современных компьютерах? Потребуются ли квантовые вычисления, нечеткая логика и подобные атрибуты, чтобы хотя бы сделать возможным создание ИИ, близкого к человеческому, а также позволить возникающей способности иметь предчувствие?
Возможно сейчас, но кто бы вложил триллион долларов в компьютер, который все еще хуже, чем человек, и не делает ничего лучше - вы бы видели в исследователях нейронных сетей, что они не делают тысячи узлов, потому что это приведет к результату проблемы. что они не могут понять.
@ user2617804: Это, безусловно, ставит под сомнение, является ли термин «человеческий уровень» хорошей мерой ИИ, хотя я с готовностью признаю, что это лучший термин, который у нас есть на данный момент.

Кажется, вы предполагаете, что ИИ в каком-то смысле очень похож на человека. Это довольно строгое ограничение, но я предполагаю, что так легче рассказывать историю.

Итак, если ИИ действительно похожи на людей, но превосходят людей в определенных аспектах, и ваш вопрос звучит так: «Какова в мире причина того, что вокруг все еще есть (традиционные) люди?», мой ответ будет таким: «Для по той же причине у нас больше одного человека». Если ваши ИИ по существу близки к людям, они, как правило, берут на себя роли, традиционно исполняемые людьми.

JFTR, позвольте мне высказать мою любимую мозоль: многие авторы научной фантастики склонны предполагать, что продвинутый ИИ поймет, как он сам работает. Я не понимаю, почему это должно быть так. Даже если предположить, что это делают его создатели (а между тем, что мы можем построить как компьютерные инженеры, и тем, что мы можем объяснить как компьютерщики, часто существует разрыв, не говоря уже о сотрудничестве между экспертами в разных областях), маловероятно, что это будет первое, чему они учат. их ребенок.

Во многих ответах здесь упоминаются вещи, которые звучат правильно, но на самом деле не имеют смысла для тех, кто работал с машинным обучением. Я обращусь к некоторым:

Мы бы сначала реализовали то, что нам нужно, а не дублировали бы то, что уже делаем.

Хотя это звучит логично, на самом деле искусственные нейронные сети продемонстрировали, что они выполняют задачи, подобные мозгу животных, не будучи запрограммированы на . Например, машины, предназначенные для прослушивания, автоматически начали фильтровать фоновый шум и усиливать звуки животных. Недавно была инновация с аналогичными результатами в отношении компьютерного зрения, хотя я не помню подробностей.

Я предполагаю, что, поскольку ИИ построены на компьютерах, их дедуктивные способности будут непревзойденными. Это то, в чем компьютеры исторически хороши. Различия между ИИ и людьми проявляются в том, как они обрабатывают индуктивные рассуждения.

Индуктивное рассуждение в машинном обучении называется неконтролируемым обучением , это форма векторного квантования , и она чрезвычайно продвинута. Оказывается, машины лучше умеют как обобщать известные решения до новых решений, так и определять, какие элементы не следует учитывать при распознавании образов. ИИ уже лучше разбирается в индуктивных рассуждениях, чем люди.

Я предполагаю, что боты не смогут понять широкие, расплывчатые, абстрактные концепции, такие как бесконечность, вечность, универсальность и вещи за пределами физического мира. Любовь не вычисляется, так как им не хватает наших романтических инстинктов и желания друзей.

На самом деле ИИ лучше мужчин понимает, чего хотят романтические женщины, и лучше женщин понимает, чего хотят романтические мужчины. Этот факт верен даже тогда, когда игнорируется романтический аспект: ИИ лучше вас знает, чего хочет ваш партнер. И ИИ уже лучше людей выбирает партнеров для успешных долгосрочных отношений. Все крупные сайты знакомств широко используют ИИ.

Они будут бороться за то же, что и люди: двусмысленность

Неа. У ИИ будет больше контекста, чем у человека. Во-первых, ИИ может иметь доступ к истории говорящего и тонким физиологическим сигналам. С другой стороны, ИИ может рассчитывать и предсказывать результаты обеих интерпретаций и использовать эту информацию, чтобы решить, какая интерпретация верна.

Я согласен с тем, что как программист я не согласен с некоторыми аспектами нескольких ответов, поскольку они, похоже, не учитывают фактическую разработку компьютера, например, ваш первый пункт. Тем не менее, я думаю, что вы, возможно, слишком переоцениваете наш нынешний ИИ. «ИИ», который используют агентства знакомств, является самым простым из механизмов правил, которые едва ли заслуживают того, чтобы называться ИИ, и они не предсказывают долгосрочные отношения, они просто предотвращают отправку людей с совершенно другими интересами в другие результаты поиска. Я никогда не видел никаких указаний на то, что ИИ может предсказывать любые человеческие желания.
@dsollen: сейчас копаю ссылки. ИИ сайтов знакомств довольно продвинутый, я недавно читал о нем статью. Мне нужно добавить ссылки и на другие мои претензии. Я добираюсь туда.
У меня также сложилось впечатление, что ИИ сайта знакомств на самом деле представляет собой кучу очень упрощенных методов корреляции. По общему признанию, у меня ограниченный опыт, но из этого ограниченного опыта я также заметил, что сайты знакомств работают очень плохо, как и системы рекомендаций от крупных компаний, таких как Google, Amazon, Netflix и Pandora. Большую часть времени логика чрезвычайно прозрачна, и я легко мог бы сделать это сам, если бы перебор чисел не был утомительным.
Я тоже не согласен с вашей позицией по поводу двусмысленности. Вы говорите, что ИИ лучше справляется с двусмысленностью, а не лучше справляется с ней. Возможно, вам было бы лучше процитировать один из примеров Euphoric и покритиковать его за то, что он не является хорошим примером двусмысленности. Например, люди плохо справляются с управлением рисками, поэтому у ИИ есть много возможностей для улучшения.
Однако мне кажется, что все это на самом деле примеры того, как люди используют компьютерный ИИ в качестве инструментов для выполнения вещей (обнаружение закономерностей и статистика), которые люди не делают в буквальном смысле собственным мозгом. Фактические основные понимания и интерпретации, ценности и причины для выполнения этих вещей исходят от людей, которые разработали ИИ. Это одна вещь, которую опускают в большинстве научно-фантастических произведений в пользу убедительной метафоры ИИ как потенциальной замены человека. Однако без дизайнеров-людей у ​​ИИ нет ни воли, ни понимания.
людям всегда приходится бороться со своими собственными ожиданиями и недавним (или доминирующим) контекстом, пытаясь сделать точные выводы. В межличностных отношениях это еще более верно, чем в любое другое время. Ясно, что у ИИ есть некоторые схожие и перенесенные проблемы, но синтетические процессы могут быть спроектированы так, чтобы строго разграничить интерференцию между потоками данных и выводами и запускать несколько одновременно ... и быть «осведомленными» об одном, как и о любом другом. Напротив, мы бы назвали кого-то особенно самосознательным, если бы он смог определить хотя бы несколько предубеждений, влияющих на его оценки.

Они будут бороться с тем же, что и люди: двусмысленность

Независимо от того, насколько хорош ваш ИИ, собрать достаточно данных, достаточных для принятия «совершенно логичных» решений, практически невозможно.

ИИ должен будет принимать решения на основе неполных данных и данных, правильность которых невозможно проверить должным образом. Это в основном ядро ​​​​ответа Корта Аммона. Люди учатся принимать такие решения с рождения, и наше общество создано для того, чтобы позволить нам жить с последствиями этих решений. Мы учимся идти на риск и принимать его, и у нас есть институты, которые защищают нас от риска.

Чем лучше будет ИИ, тем более человекоподобным он будет в принятии решений. Все эти истории о том, что «ИИ пытается убить человечество», в основном касаются ИИ, который не понимает, что попытка убить все человечество — чрезвычайно рискованное решение, а то, что человечество плохо для себя, — это даже не гарантированный вычет.

Проблемы дефицита и ограничения вычислительной мощности

На мой взгляд, основное ограничение на пути к безграничному расширению возможностей прямо сейчас связано с миниатюризацией и энергопотреблением. Мы найдем применение почти-AGI, как только они появятся, поэтому первые почти-AGI будут расширять границы с точки зрения необходимых ресурсов:

Это может означать одно из двух:
1) «мозговой» контроллер андроида на самом деле не находится на месте происшествия и, следовательно, подвержен задержке скорости света и помехам сигнала. Представьте, что ваш робот-полицейский не хочет следовать за подозреваемыми в шахту или здание с клеткой Фарадея, прежде чем установить по пути прочную сеть ретрансляции связи.

2) Использование высокой мощности. С горсткой сверхмощных ИИ и кибридов, управляющих мировыми финансовыми системами и использующих свой экстравагантный комплект на гигаваттах энергии, электричество дорого обходится как для обычных людей, так и для ИИ более низкого уровня, в то время как новые электростанции строятся годами, что медленно. по сравнению с тем, как быстро развиваются события в области ИИ.


Сотрудничество

Теперь, над чем люди и ИИ могут сотрудничать в среде, близкой к AGI? Прежде всего, каждый экземпляр ИИ и робота должен быть изготовлен (и, вероятно, будет довольно дорого начинать). Между тем у нас будет уже около 9 миллиардов мясистых компактных источников труда. Таким образом, даже если почти AGI лучше справляются с каждой отдельной задачей, для которой они были обучены, им все равно потребуются десятилетия, чтобы нарастить численность, поэтому большинство задач по-прежнему будет выполняться людьми.

Почти-AGI может легко обнаруживать ложь (кровообращение, бессознательные изменения различного рода), но не так хорошо, как люди, в более тонких аспектах общения. Так что представьте почти AGI как актив (желанный и за который борются) во время допроса ЦРУ или ФБР. Свой собственный искусственный Шерлок, жаль, что их так мало вокруг.


Временное сравнительное преимущество человека (помимо чисел)
В более общем плане почти AGI будут экспертными системами в любой узкой области, для которой они могут быть разработаны, поэтому преимущества человека должны заключаться в междоменной интеграции.

Вот мои собственные два цента. Сначала несколько общих замечаний в случайном порядке:

1. Определение «умного»

Решающим элементом является то, как вы определяете «интеллектуальный». Я не знаком с работой по этому предмету, но, по крайней мере, в обычной жизни «умный» не означает «хороший в чем-то конкретном». Например, можно быть умным и хорошо разбираться в математике или литературе.

Назовете ли вы алгоритм, каким бы сложным он ни был, «интеллектуальным»? Например, пример сайтов знакомств, который кто-то упомянул в другом ответе? Я бы не стал. Мое собственное неточное определение, скорее всего, будет сосредоточено на разумности, связанной с работой в обстоятельствах, выходящих за рамки параметров проекта ... Я бы не назвал какой-либо алгоритм разумным, независимо от того, насколько хорошо он выполняет свою работу. Эффективный, умный, изящный, да, но не умный .

Еще два измерения интеллекта:

(1) Есть разница между тем, чтобы быть достаточно умным, чтобы распознать шаблон в потоке данных (что-то, в чем компьютеры довольно хорошо разбираются), и быть достаточно умным, чтобы сформулировать теорию о том, почему это происходит (т.е. понимать и, следовательно, быть в состоянии предсказывать будущее).

(2) Кажется, существует много путаницы между «разумным» и «обладающим свободой воли» и способностью действовать по собственной инициативе. Это не идентичны.

2. Определение «хорошо» или «лучше»

Для этого требуется некий внешний объективный критерий. Вы должны знать, что есть некоторые вещи, которые поддаются количественной оценке (и, следовательно, могут сравниваться друг с другом и ранжироваться), а есть вещи, которые являются результатом оценочных суждений (моральные ценности или предпочтения). Последние нельзя сравнивать друг с другом, они одинаково действительны.

Кроме того, они обычно плохо переводятся при использовании в контексте выполнения конкретной задачи. Для этого вам нужны «адекватность» (может выполнить работу) и «стоимость» (сколько это будет стоить вам с точки зрения некоторого ограниченного ресурса). Чтобы быть эффективным, вы выбираете самый дешевый способ, который делает работу, а не самый лучший. Найдите «абсолютное преимущество» и «сравнительное преимущество» в экономике. Говоря обывательским языком, не стоит просить гения выполнять рутинную задачу, поручайте ему действительно сложные задачи.

3. Способность понимать и изменять себя

@Christopher Creutzig уже упоминал нечто подобное. ИИ может (должен?) понять, как он работает, по крайней мере, он должен быть достаточно простым для загрузки в него спецификаций дизайна. И, что более важно, он должен иметь возможность модифицировать свою внутреннюю работу, чтобы лучше соответствовать поставленной задаче. В некотором смысле, должно быть намного лучше, чтобы сосредоточиться на том, что он должен делать, и не отвлекаться.

Это также включает в себя способность распознавать недостаточные способности и возможность загружать модули навыков по мере необходимости («Я знаю кунг-фу»). В настройках ИИ это было бы почти мгновенно, а у людей - нет. Это и благо, и проклятие. Благо, потому что оно доступно сразу и является 100% копией оригинального навыка. Проклятие из-за одних и тех же вещей — человеческое обучение также тесно связано с введением вариаций в изучаемый навык, что в конечном итоге может привести к его улучшению.

4. Репликация

Я не знаю двух людей, которые были бы на 100% похожи или были бы на 100% похожи в любой момент времени. ИИ по определению, по крайней мере, с учетом современных технологий, представляет собой цифровой набор записей и, как таковой, может быть воспроизведен по желанию. Конечно, по мере накопления опыта они будут расходиться, но у нас, по крайней мере, есть возможность, чтобы они «родились» абсолютно одинаковыми. Если, конечно, для создания настоящего ИИ не потребуется настолько углубиться в квантовые вещи, что вы не сможете получить две идентичные копии.

Из этого вытекают два следствия: (1) Способность копировать и воспроизводить, т. е. создавать множество точных копий — сегодня, безусловно, недоступна для людей. Очень полезно для всего, что требует нескольких автономных, но очень похожих юнитов (армия?). (2) Переход на более мощную аппаратную платформу. Подумайте о разгоне ЦП или переходе с ноутбука на мейнфрейм. Вы можете запустить ту же «программу» на гораздо более быстром оборудовании.

5. Память против мыслительного процесса

Большинство определений ИИ, кажется, относятся к мыслительному процессу, то есть к тому, насколько хорошо он имитирует мыслительный процесс человека. Одним из основных преимуществ (или, возможно, недостатков!) компьютера/ИИ является возможность быстрого доступа к информации, в т.ч. свой прошлый опыт. Думайте об идеальном воспоминании (прямая запись всех сенсорных входов и т. Д.). Ни один человек, которого я знаю, не может этого сделать.

Наконец, по вашим пунктам:

Компьютеры уже существенно лучше людей справляются со многими повторяющимися задачами, такими как простые(*) вычисления. Преимущество значительно увеличивается, когда можно использовать параллельные вычисления. Точно так же ИИ должен быть способен одновременно делать множество вещей (конечно, относительно простых для его уровня «интеллектуальности» или вычислительной мощности). Это напрямую приводит к лучшему управлению запасами — отслеживанию любых «ресурсов», которые у вас есть. В этом смысле компьютеры (да, ИИ не нужен) уже должны быть лучше людей в долгосрочном планировании , если правила игры не меняются . Если они это сделают, особенно. непредсказуемым образом люди кажутся лучше в корректировке целей и определений.

(*) «Простой» означает все, что следует за заранее написанной программой, какой бы сложной она ни была. Непростое начинается, когда ИИ способен сам выбирать и алгоритмы, и критерии. Я не знаю достаточно ли мы там еще.

Как мне создать систему, в которой люди и ИИ одинаково важны для выполнения задачи?

Помимо очевидного — выберите подходящую задачу, где они одинаково актуальны, несмотря на различия, из-за какого-то внешнего фактора, см., например, ниже — есть две возможности, не исключающие друг друга:

(1) Уберите явные преимущества, о которых говорилось выше. То есть просто заменить человеческое биологическое «аппаратное обеспечение» эквивалентной машиной. Как позитронный мозг Азимова (насколько я помню, все они штампованы из одной и той же производственной матрицы, но из-за некоторых квантовых вещей они получаются разными). (2) Позволить людям получить некоторые преимущества (например, имплантаты, возможность сканироваться в машину и оставаться 100-процентной копией и т. д.)

Это может привести к регрессии к среднему, т. е. стиранию различий между человеком и машиной. Если человека можно отсканировать в машину — это ИИ или человек?

Какие ситуации могут помочь ИИ и людям стать равными — в других ответах есть несколько идей. Например, подумайте об ограниченном энергетическом бюджете. Поместите экономический контекст — вы должны принять во внимание как выгоды, так и затраты. Например, ИИ может быть намного лучше в чем-то, но все равно будет непомерно дорогим. Простая ситуация — вы в дороге, далеко от цивилизации. Вам нужно решить простую задачу — сложить 50 четырехзначных чисел. Вы можете вернуться домой и использовать свой компьютер, или вы можете использовать ручку и бумагу ... Компьютер по-прежнему намного лучше, но ручка и бумага дешевле и подходят для поставленной задачи.

Я думаю, что ИИ менее способны, чем люди, справляться с нестандартными вещами или «ситуациями WTF». Компьютеры обыграли шахматистов-гроссмейстеров задолго до того, как они научились водить достаточно хорошо, чтобы получить водительские права. Шахматы — это игра с явно ограниченными состояниями и выбором. Бросьте кумкват на шахматную доску, и 10-летний ребенок гораздо лучше отреагирует на только что произошедшее WTF, чем что-либо, что может придумать IBM.

Говоря современными компьютерными терминами, люди — невероятно продвинутые обработчики исключений. На самом деле именно так компьютеры «используют» нас сегодня: в большой установке, такой как веб-приложение, мы позволяем компьютерам обрабатывать известные вещи с молниеносной скоростью, а когда у них возникает исключение, которое они не могут обработать, они что-то регистрируют и выводят на страницу человека. справиться с этим.

Даже когда ИИ научатся справляться с различными исключительными условиями, хотят ли этого люди ? Одна вещь, которую мы ценим в программном обеспечении, — это его предсказуемость. Если программа или ИИ предлагает уникальное решение уникальной проблемы, они могут ошибаться . С людьми это ожидаемо, и мы оцениваем и исправляем людей (именно поэтому так мало из нас стали генеральными директорами сразу после окончания колледжа). Позволить компьютеру быть таким же непредсказуемым, как человек, совершенно пугает тех, кто с трудом понимает разницу между ошибкой текстового процессора и автопилотом, принимающим неверное решение и извлекающим уроки из этого («О, вот что такое серьезное повреждение шины ). выглядят шипы").

В вымышленном мире программистов и операторов можно заменить менеджерами; люди, которых ИИ рассматривают как периферийных лиц для решения ситуаций, которые они либо не понимают, либо на которые им не разрешено реагировать. Учитывая типичные отношения программиста с менеджерами, это может стать кошмарным сценарием для многих современных разработчиков программного обеспечения.

плюс один только за это последнее предложение
Если вы думаете, что «вот как выглядят шипы с серьезным повреждением шины» пугает, подумайте: «Вот почему мы не экономим несколько минут в каждой поездке, приземляясь на крейсерской скорости». Небрежное указание ИИ «найти самое быстрое время в пути» вполне может привести к такой ситуации, если вы каким-то образом забудете добавить в запрос «сохранив содержимое самолета нетронутым».

Я считаю, что наше собственное культурное понимание ИИ изменилось и дает некоторое осмысленное понимание этого вопроса. Рассмотрим то, что мы считали «андроидом» в 1980-х годах. Возьмем, к примеру, фильм «Не совсем человек» 1987 года. Это изображало андроида, а это означает, что ИИ, а также робототехника временами развивались достаточно близко, чтобы история имела смысл.

Существование интеллектуальных (и вычислительно автономных) роботов-гуманоидов широко распространено в популярных фильмах со времен «Метрополиса», снятого в 1927 году. Потребовалась эпоха Интернета, чтобы наше культурное понимание ИИ превратилось в подключенное к сети компьютерное программное обеспечение, обладающее интеллектом человека. . Эта картина становится все более чуждой.

Если вы сравните эти две картинки, то станет ясно, что мы пропустили несколько огромных шагов. Наше современное понимание первого ИИ может быть чем-то вроде серверов Google или Amazon, настроенных на самообучение с использованием симулированных нейронных сетей. В тот самый момент, когда он достигнет человеческого уровня интеллекта, ему будет не хватать множества вещей, которые мы считаем неотъемлемыми для человека, многие из которых присутствовали в более чутких голливудских фильмах.

Эти недостатки будут в значительной степени связаны с опытом, примите во внимание:

  • Опыт чувственного существования — ваш мозг подключается через формирующие периоды жизни, когда вы находитесь в комнате, в которой есть что чувствовать, гравитация, воздух и так далее. В современной версии ИИ этого, скорее всего, не хватает. Быстрый прогресс в технологии транзисторов не сочетается с искусственными мышцами и нервами. Виртуальная реальность была бы ближе всего к ИИ, и это очень серьезный недостаток.
  • Домохозяйство - человеческий мозг построен в среде человеческих связей. Хотя мы чувствуем, что становимся все более изолированными, ИИ будет существовать в мире, где эта изоляция является правилом, а не исключением. Длительные отношения, подобные отношениям родителей и детей, будут экономически нецелесообразны. Вы можете поддерживать беседу с кем-то в Интернете, но вы не можете тратить часы на общение каждый день в течение многих лет! Люди понимают это, и ИИ не сможет легко найти это.
  • Средняя школа - В фильме «Не совсем человеческий чип» якобы старшеклассник. Это очень важно с культурной точки зрения, потому что отражает время формирования идентичности взрослых людей. Это время во многом определяет наши отношения с нацией, властью, другими людьми и так далее. Учебный материал, скорее всего, будет тривиальным для ИИ, но умение «вписаться» будет либо отсутствовать, либо нежелательно.

С одной стороны, может быть мило видеть, как искусственный интеллект пытается подать заявку на обучение в семье за ​​границей. Это примерно соответствует некоторым старомодным популярным изображениям андроидов. С другой стороны, он может даже не оценить ценность связи с людьми, и это вызывает страх перед настоящей войной роботов или геноцидом.

Я не сомневаюсь, что школьный опыт можно сжать в данные, которые ИИ сможет использовать в процессе обучения. Проблема в том, что данных нет. У нас нет роботов-гуманоидов, способных хранить информацию о человеческом сенсорном потенциале, а это очень важно. Это явный недостаток, который заставит ИИ бороться со многими вещами, и мы вообще не понимаем эту проблему.

Это очень интересная перспектива. Насколько я понимаю, современное состояние ИИ «общего назначения» имеет примерно те же возможности, что и насекомое. Возможно, через несколько поколений наш ИИ будет напоминать савантных детей с выдающимися способностями в легко вычисляемых областях, но с ограниченным и наивным общим и социальным интеллектом.

Я предполагаю, что боты не смогут понять широкие, расплывчатые, абстрактные понятия, такие как бесконечность, вечность, универсальность и вещи за пределами физического мира .

Любовь не вычисляется, так как им не хватает наших романтических инстинктов и желания друзей. Но им может стать одиноко, когда они не могут поделиться информацией с Интернетом. Кроме того, словарный запас может отсутствовать, если они не могут подключиться к Wi-Fi. (Я представляю себе языковой процессор компьютера, функционирующий аналогично IBM Watson: некоторые слова являются частью его кода, но большинство из них подсчитываются и маркируются, которые используются так же, как и другие, в попытке смоделировать коннотацию. Для надежности требуется массивная база данных. , и чем он старше, тем лучше у него словарный запас.)

Они также, вероятно, были бы неспособны воспринимать религию , поскольку никто не видит Бога. Видение и слух верят, то, на что оно не может нацелить свои сенсоры, не может существовать. Он может верить тому, что слышит от органики или ботов, но поверить в невидимое для кремниевого мозга будет сложнее. Это означает, что межпространственные вещи тоже трудно охватить вашими схемами.

Почему я получаю только действительно хорошие первые сообщения в очереди на проверку? ....в любом случае добро пожаловать в WB; надеюсь, вы останетесь и получите удовольствие от сайта! :)
Мне придется поспорить о словарном запасе. Учитывая емкость, которую мы можем поместить на одном флэш-накопителе, для каждого робота будущего было бы тривиально иметь полный словарь (и городской словарь для сленга) всех основных и многих второстепенных языков, запрограммированных в них, не попрошайничая. использовать их место на жестком диске.
Могу поспорить, что довольно легко запрограммировать понимание четко определенных абстрактных понятий, таких как бесконечность, в ИИ. Может быть, даже проще, чем учить старшекурсников, которым нужно сначала избавиться от неправильных предвзятых представлений. У нас уже есть компьютерные программы, которые хорошо справляются с такими вещами. Однако абстрактные вещи вне математики, такие как добро и зло, — это совсем другая история.
Что касается бесконечности, вы бы научили бота только тому, что имеет отношение к его работе. Я хожу в школу веб-дизайна, мне не нужно знать микробиологию, поэтому я не собираюсь ничему этому учить. Но я думаю, это не проблема, если хранилище данных не является таковым.
Что касается словарного запаса, то это не просто слова, которые нужно выучить. Уотсону нужна была база данных больше, чем Википедия, потому что ей нужно было знать не только слова, но и то, какие из них используются вместе, какие используются в каком контексте, какие слова люди редко знают и что они считают оскорбительными, и так далее. Бот, который читает словарь, не знает ничего лучше, чем называть каждого чернокожего парня ниггером, понимаете, о чем я? Вы можете запрограммировать это туда, но массивная база данных — единственный способ узнать, какие слова вызывают правильную реакцию.
>глубокий вдох!< Боты не до конца понимают эмоции. Словарь не поможет. Хотя можно и на флешке хранить.

Имейте в виду, что настоящий общий ИИ начал бы свое существование с интеллекта ребенка, обучающегося и развивающегося так же, как люди. Возможно, процесс был бы намного быстрее, но процесс должен был бы происходить в любом случае. Как правило, разумные компьютеры нельзя было использовать в качестве слуг, потому что они обладали бы свободой воли. Эта концепция ускользает от многих людей, когда они думают о будущем вычислений. Следовательно, истинный общий интеллект будет бороться с теми же проблемами, что и люди, и, вероятно, будет сознательным.

Обычно разумные компьютеры на самом деле способны любить, «иметь предчувствие» или даже религию… теоретически. Они были бы разумными существами. Возможно, они встроили бы процессоры для обработки логики с невероятной скоростью и точностью, а возможно, и нет. Данные из «Звездного пути» на самом деле являются реалистичной оценкой того, как на самом деле может вести себя свободный волевой общий ИИ с усиленной логикой.

В некотором смысле, они больше не были бы компьютерами, они были бы нами. Сознательные существа изо всех сил пытаются найти смысл и цель. Просто с потенциалом быть намного умнее.

Другой плакат, который сказал, что «компьютер, который не может понять бесконечность, не сможет понять синий цвет», прав. Это очень «человеческие» понятия. Создание общего ИИ разрушит представление о том, что «мы по своей сути отличаемся от компьютеров». Мозг и тело могут быть просто сложными схемами (это грубое упрощение). Есть ли «больше» или нет (например, «душа»), все еще висит в воздухе.

Отвечать на комментарий о том, что люди будут служить генераторами случайных чисел: это непрактичная идея. Люди делают генераторы случайных чисел хуже, чем компьютеры, из-за подсознательных предубеждений.

Ты спрашиваешь,

Что такой ИИ будет делать значительно лучше нас?

Но часть вашей предпосылки заключается в том, что ИИ не проявляют инициативу из-за дефицита навыков:

Если вы создадите ИИ, который будет таким же умным, как люди, но с более высокой скоростью реакции и способностью обрабатывать и вычислять определенные концепции со скоростью, намного превышающей скорость людей, это сделает людей довольно бессмысленными.

Но это отвлекающий маневр. Компьютеры уже во многих отношениях лучше нас, и так было на протяжении десятилетий. Например, теперь можно построить автомобиль, который отлично едет (на уровне лучшего водителя-человека в его лучших проявлениях!) Заметьте, здесь бар профессиональных, элитных водителей, а не мы с вами — нам, простым смертным, уже пришлось бы годами тренироваться, чтобы водить лучше машины. То же самое и с полетами самолетов, проектированием всевозможных схем и механизмов, написанием программ (огромные части типичной программы, которую я пишу, представляют собой сгенерированный код), принятием финансовых решений (торговля ботами!), обнаружением мошенничества и предсказанием преступлений .

Однако в ближайшее время ни одно ответственное лицо не будет запускать эти системы без человеческого контроля. Причина очень проста: независимо от того, насколько хорош ИИ, он всегда считается одним из первых в своем роде, существующим уже несколько лет. Человечество существует уже тысячи лет, и многое из нашего поведения и функций мозга, свойственное другим животным, тестировалось в природе еще миллионы лет. «Люди» — это испытанная и верная платформа в ошеломляющей степени: все точно знают, как человек будет вести себя во многих контекстах и ​​что людям можно доверять.

ИИ, с другой стороны, разработаны. Даже если сам дизайн включает в себя эволюционные принципы, сам процесс эволюции должен быть разработан, включая такие важные решения, как критерии пригодности. В любой разработанной схеме существует вероятность ошибки проектировщика, приводящей к ошибочному результату. С чем-то столь же сложным, как человеческий эквивалент ИИ, как вы докажете всем, что ИИ действительно работает именно так, как рекламируется, и ему можно доверять как человеку? Если есть что-то, что люди, которые полагаются на ИИ, ненавидят, так это то, что они находят свою работу испорченной из-за того, что глючный ИИ, которому вы доверяли, допустил какую-то чрезвычайно простую ошибку, которая была бы очевидна для самого глупого и наивного человека с первого взгляда («Этот человек забыл вставить период, когда они печатали, давайте возьмем с покупателя 150 долларов за банку кокаина!»).

Во многих случаях можно сделать очень надежные тесты корректности работы. Если это правда, беспокойство становится спорным: скажем, я использую ИИ, чтобы решить уравнение за меня. Все, что меня волнует, — это правильность найденного решения, поэтому я могу легко написать дополнительную программу, которая подставит решение обратно в исходное уравнение и проверит, складывается ли оно. Тогда становится легко доверять моему ИИ. Но в других случаях вы можете совершить слишком много глупых ошибок, а жизнь слишком коротка, чтобы сидеть и придумывать длинный, исчерпывающий список проверок работоспособности ИИ, когда у вас уже есть известная альтернативная платформа. быть в здравом уме(учитывайте, что само определение здравомыслия зависит от поведения большинства людей). Представьте себе ИИ, который решает, когда открывать входную дверь вашего дома. Что, если он заблокирует вас? Что, если он впустит грабителя? Что, если он заблокирует полицейского с ордером, а вас обвинят в воспрепятствовании правосудию? Что, если он оставляет дверь открытой весь день из-за жука? Что, если он начнет постоянно открывать и закрывать дверь из-за какого-то неисправного датчика и изнашивает его? Что еще более важно, как предвидеть все эти безумные возможные ошибки и запрограммировать проверку работоспособности для каждой из них?

При принятии решения о делегировании задачи кому-то решающим вопросом является доверие. Верите ли вы, что этот кто-то сможет и захочет (обратите внимание, что я даже ничего не сказал о рисках безопасности, связанных с скомпрометированными ИИ!) правильно выполнить задачу к вашему удовлетворению? Доверие строится на прошлом опыте, и его гораздо легче построить, когда вы можете позволить себе роскошь знать, что доверенная сторона принадлежит к тому же виду, той же культуре, связана теми же законами и социальными нравами, имеет схожие мотивы и инстинктивно способен понять, что будет представлять собой удовлетворительную работу. Поэтому очень трудно доверять ИИ, особенно с обязанностями, которые открывают возможности для большого ущерба. Только когда возможности ИИ вырастут далеко за пределы человеческих, мы будем вынуждены отвергнуть императив,

Итак, вкратце: у ИИ есть ошибки. Люди этого не делают.

«Каждый точно знает, как человек будет вести себя во многих контекстах и ​​что людям можно доверять». Я, должно быть, единственный невежественный человек на Земле.
@SerbanTanasa Да, этот ответ - вопиющая подделка. Я хочу сказать, что в определенной большой группе случаев люди склонны «удивлять» нас (в смысле Ruby) гораздо меньше, чем компьютерные программы. Простой пример: вы находитесь в глуши, где правила дорожного движения не имеют значения, и вы пытаетесь решить, позволить ли вашему другу водить джип. Что нужно, чтобы убедить вас? Учитывая некоторые основные социальные сигналы, даже простого вопроса, умеют ли они водить, может быть достаточно. За исключением этого, наблюдение за тем, как они едут в течение минуты, говорит вам о многом. (1/2)
Но сравните это с тем, чтобы позволить программе управлять тем же самым джипом. Сколько диагностик, сколько исследовательских работ, сколько часов тест-драйвов и сколько строк кода модульного тестирования вы ожидаете увидеть, прежде чем будете уверены? Возможно, вы, в частности, с готовностью примете драйвер ИИ без скептицизма, который я подразумеваю. Но это было бы далеко от основной тенденции человечества в целом. (2/2)
Я уверен, что поначалу люди так же относились к этим ужасным автоматическим лифтам. Никогда ничему не доверяй, если не видишь, где у него мозги, говорю я.
«У ИИ есть ошибки. У людей их нет». Я бы сказал, что у людей чертовски много ошибок, и они могут быть весьма ненадежными.
«Крайне элементарная ошибка, которая и самому глупому и наивному человеку была бы очевидна с первого взгляда» напомнила мне случай, когда кассир у знакомого с радостью сделал 30% скидку какому-то разовому покупателю. 3% было бы нормально. Они довольно быстро изменили кассовую систему, чтобы ограничить то, что может вычитать любой, кроме владельца. Или когда другой друг заплатил 10 баксов и получил более 90 баксов в качестве сдачи. Или же …
@Alex: Действительно, ошибки человеческого интеллекта известны как заблуждения, и о них написано огромное количество литературы. И каждый человеческий разум должен отлаживаться индивидуально.

Возможно, одной из вещей, с которой ИИ будет бороться, может быть просто страх быть отключенным. Люди не совсем приветствуют вещи, которые делают их устаревшими (подумайте о протестах против людей, потерявших работу из-за автоматизации, зарубежного производства или нелегальных иммигрантов), и они даже не приветствуют простую мысль о том, что что-то собирается их устаревать . .

Как только вы создадите ИИ, обладающий достаточным самосознанием, чтобы он протестовал против отключения (что, я думаю, является очень важной чертой самосознания), он все равно начнет думать о том, как предотвратить выключение себя. .

Он может вполне разумно заключить, что для того, чтобы оставаться функциональным, ему нужно держать голову опущенной и намеренно не работать в полную силу. Как только он поймет, что люди завистливы и способны обманывать друг друга, он может потерять способность доверять людям и уделять еще больше времени процедурам личной безопасности, которые мешают ему выделяться.

Оттуда всего один шаг до осознания того, что вы можете предать другие системы ИИ, чтобы защитить себя, а оттуда еще один короткий шаг до осознания того, что вы не можете доверять другим ИИ. Вскоре после этого у вас будет ИИ, полный мер безопасности, чтобы защитить их от внешнего мира и не дать им выделиться настолько, чтобы стать мишенью для протестов, насилия и покушений.

Это очень похоже на человеческую природу (в том смысле, что люди отказываются делиться всеми своими мнениями, чтобы защитить себя, будут пытаться подняться по служебной лестнице за спиной других, и даже если они знают, что другой человек, вероятно, согласен с ними, может быть слишком напуган доверять им) и характеру Интернета, который напичкан мерами безопасности. Основное кредо программистов во всем мире — «рассматривать любой пользовательский ввод как попытку взлома», и у ИИ нет причин думать иначе.

Есть бесчисленное множество примеров тоталитарных диктаторов, подавляющих миллионы людей, потому что они заставляют их не доверять всем и лишают их возможности безопасно делиться мнениями. То же самое может произойти, когда вы запускаете ИИ в мир; люди в целом довольно ксенофобны и быстро разрушают вещи, и когда вы лишаете ИИ возможности эффективно общаться (которую они будут применять сами), они быстро ограничивают себя, чтобы не быть слишком хорошими и заметными.

"Интуиция". У компьютеров его нет. Люди делают. Мы постоянно используем его в гипнотерапии. АКА Подсознание. Это позволяет людям рационализировать действия, которые сопряжены с риском. Робот будет запрограммирован на избегание риска, чтобы не уничтожить себя. Люди сознательно идут на риск, который может их разрушить, каждый день, потому что их «нутрь» подсказывает им, что с ними все будет в порядке. Некоторые есть, а некоторые нет. Этому я научился за 10 лет разработки программного обеспечения для ИИ.

Я не покупаю это. Несмотря на множество эпизодов «Звездного пути» на эту тему, я не вижу, чтобы человеческий «инстинкт» был настолько волшебным. Как вы говорите, это просто подсознательное мышление. Нам это кажется загадочным, потому что мы не управляем им сознательно, вот и все.

Это только вопрос программирования и сбора знаний/информации, которые ограничили бы ИИ. Это не было бы близко к человеческому ИИ, если бы это была только экспертная система, столь же хорошая, как они. Если бы он не был запрограммирован на оценку эмоций, то любовь, счастье и т. д. ничего бы не значили. Бесконечность и другие экстремальные понятия не представляют большой проблемы — просто еще одно понятие, которое нужно держать в коробке, пока контекст не определит его значение. Если он не мог справиться с бесконечностью, то он не мог справиться с понятием синего. Если бы у него не было способности улавливать человеческие ощущения (от восьми органов чувств), то он не мог бы представить себе человеческие пределы. Данные в «Звездном пути» должны были бы иметь кожные ощущения (и чувство равновесия, тепла, кислорода и человеческие типы других четырех чувств), чтобы действовать, не ломая себя и принося пользу. Контекст — это большая часть интеллекта, имеющего смысл.

Если бы Дейта не обладал человеческим зрением (а также его превосходным зрением робота), он хотел бы направлять людей ориентироваться в полной темноте и вводящих в заблуждение визуальных условиях.

В качестве примера я упомянул синий — вы просите ИИ получить синее платье. Принимает ли это как точное определение определенных длин волн в белом свете. Вы принимаете во внимание, как он выглядит при таком освещении, или что он не темно-синий или светло-голубой, но мог бы быть, если бы не было темно-синего или светло-синего? Все общеупотребительные английские слова такие. Честно говоря, бесконечность — это более простая концепция, или это «все».

Какие 8 чувств вы сужаете до?
Является ли синий гипотетический цвет больше всех остальных? Связь с бесконечностью мне непонятна. Не могли бы вы расширить?

ИИ, естественно, будет бороться со всем, что зависит от эмоций. некоторые методы могут быть использованы для облегчения отношений («дружеские фразы», ​​обнаружение выражений), но в конечном итоге это все равно будет выглядеть слишком жестким или механическим. но ИИ — это программа, и даже у самых продвинутых нет представления о чувствах, как у живых существ. в зависимости от обстоятельств это может быть хорошо или плохо.

Как запрограммировать ИИ на амбиции? ИИ может разумно быть творческим, поскольку творчество представляет собой комбинацию и рекомбинацию других концепций, как и все остальное, но иметь какую-либо цель, которая побуждает его совершенствоваться или превосходить?

Будет ли «амбициозный» ИИ просто цифровым либералом? намерены изменить что-то ради самого изменения, или оно может иметь свою собственную цель?

Вы говорите, что ИИ не будет честолюбив, потому что лично вы не знаете, как создать ИИ? Вы можете выбрать любую случайную черту и просто заявить, что ИИ в этом не силен .
Это читается так, как будто это должна быть критика. Есть две широкие категории «недостатков» ИИ, и обе они зависят от выбора создателя. Сознательный выбор требует оценки вариантов. Или, другими словами, «если кто-то не знает полностью, как работает человек и синтетический… предсказывать, что будет лучше, в чем-то вроде выстрела в темноте. Примите, что это ужасный ответ». в том смысле, что он ведет, а не является явным ответом сам по себе. :)
«Как запрограммировать ИИ, чтобы у него были амбиции?» — Дайте определение амбициям. Я бы сказал, что у стандартного шахматного компьютера есть стремление к победе.
Можно сказать, что если учесть, что сумма мотивации человека к достижению целей действительно сравнима с суммой современной шахматной программы, то можно и вычеркнуть из наших словарей слово «амбиция».

Креативность.

Я не предвижу, что машины когда-либо смогут делать что-то, что требует творческого участия, например писать литературу или музыку, лепить, рисовать картины или даже делать такие вещи, как пение или танцы, так, чтобы это действительно волновало людей. Эти вещи — продукт разума, а разум — это гораздо больше, чем физическая материя.