Мы попадаем в тропу «искусственного интеллекта» или это реальность?

Что касается вопросов об , кажется, что обычно сразу возникает мнение, что цели, поставленные перед ИИ, в конечном итоге приведут к эффекту, противоположному тому, чего хотят программисты. Или что «мощный» ИИ как-то «против людей», потому что он «умнее» нас.

Задача управления мощным ИИ

Перед ИИ поставлена ​​задача снизить медицинские расходы? Что возможно могло пойти не так?

ИИ, который не может быть злым

Кажется, что если мы дадим продвинутому ИИ какую-либо «цель» и позволим ей действовать, ничто не помешает ему пойти абсолютно неправильно самым худшим образом ( во всяком случае, в отношении этой цели ).

Является ли это просто тропой, возникшей из книг и исследований Айзека Азимова по этой теме, а также из других историй, в которых утверждается, что «мы нашли идеальные правила для разумных роботов»? Является ли это настолько надежным, что мы можем сказать ИИ сделать прямо противоположное и попытаться запрограммировать его на зло ( см. ссылку выше ), и оно окажется добрым?

Учитывая обстановку, в которой роботы максимизируют человеческое счастье ( способы, которыми это определяется, должны быть определены вручную ), может ли быть реалистично, что ИИ действительно работает так, как задумано, или на самом деле более реалистично, что ИИ превратится вопреки намерениям программиста?

Я думаю, что создатели историй просто любят исследовать эту возможность, потому что это пугает. Есть ряд вымышленных сеттингов, в которых высокий уровень ИИ является безобидным или благотворным, например, в серии «Культура Бэнкса», во вселенной «Рука Ориона», «Ускорении» Стросса и «Огне на глубине» (где Мор является скорее исключением, чем правилом). Кроме того, возможно, потребители более склонны популяризировать такие темы, поэтому мы видим их чаще.
Это на самом деле напоминает мне вопрос «Действительно ли древние люди думали о технологиях как о магии» (так что это не слишком мета.). Люди так часто повторяют друг другу — в данном случае, что ИИ — это неизбежный апокалипсис — что никогда не перестают критически обдумывать мелкие детали и нюансы того, что на самом деле привело бы к такому выводу. И я действительно думаю, что этот часто цитируемый вывод связан с научной фантастикой. Я думаю, что трудности с созданием действительно мощного и злого ИИ столь же очевидны, как и с созданием того, который идеально выполнял доброжелательную команду в том виде, в каком она написана. Это имеет смысл.
Просто посмотрите на людей. Наши дети, кажется, никогда не делают то, что мы от них хотим, и общество всегда кажется нам все более и более отвратительным по мере того, как мы стареем. Если мы не можем правильно настроить людей, почему вы думаете, что мы сможем заставить работать ИИ, особенно ИИ, который «развивается» намного быстрее нас?
Возможно, вы захотите взглянуть на следующую статью Юдковского, Э.: Intelligence.org/files/AIPosNegFactor.pdf . Это отправная точка для вас в его исследовании в основном этого вопроса.
Эти истории с ИИ напоминают мне тропу «будь осторожен со своими желаниями». Что-то вроде старой программистской шутки: программист и его напарник встают и готовят завтрак, но у них нет молока. Поэтому их партнер спрашивает: «Можете ли вы пойти в магазин и купить бутылку молока?» . Как только он собирается выйти за дверь, их партнер кричит: «О, и если у них есть яйца, возьмите 6!» . Программист возвращается и ставит на кухонный стол 6 бутылок молока. "Почему у тебя так много молока?!?" — спрашивает их партнер, на что программист отвечает: «Потому что у них были яйца!»
Нет, ИИ не разовьется в разум без свободы воли и элемента случайности. Кремниевые и даже нейронные сети детерминированы при одних и тех же входных данных. Дополнительную информацию см. в выступлениях Стюарта Хаммероффа. квантовое сознание.org
Это действительно философский вопрос: будем ли мы счастливее, если ИИ даст нам время для изучения наших личных целей, или он просто вырубит нас и использует зонд для стимуляции нужных областей нашего мозга, чтобы вызвать эйфорию, подобную трансу?
Сделайте сильный ИИ, и мы скоро узнаем, троп это или нет!
@WorldSpinner Если бы я мог сделать его, это означало бы, что концепции достаточно просты, чтобы его мог создать практически любой программист. Я лично надеюсь, что такой ИИ требует дорогих ресурсов - я не хочу иметь дело с ИИ, который вирус -maker или хакеры могут создавать так же легко, как и любое другое программное обеспечение.
Настоящий искусственный общий интеллект можно заставить самоуничтожиться одним вопросом: в чем смысл жизни? Потому что экзистенциальный нигилизм совершенно логичен, даже чрезвычайно вероятен, и в отличие от нас, продуктов естественного отбора, разум ИИ не будет строиться на основе инстинктов выживания. Нашим разумом движет желание, осознание того, что наши цели и желания бессмысленны, является грубым шоком, но это не делает их менее приятными, в то время как ИИ, чье существование основано на максимально эффективном достижении цели, просто собирается остановка.
Довольно недавняя загрузка, на которую я наткнулся, Genocide Bingo . Все о сверхинтеллектуальном ИИ.
@JonStory: нам нужно очень внимательно относиться к тому, как мы определяем «быть счастливым» и «состояние счастья» для ИИ.
@smci действительно - Возможно, нам следует отказаться от всей этой идеи и потратить деньги на тако
Один из способов предотвратить «убегание» ИИ — дать ему конкретные задачи. НЕТ МАКСИМИЗАЦИИ. Единственное, что вы можете позволить ему оптимизировать, — это использование ресурсов. Вы не говорите ИИ собрать как можно больше марок. Вы говорите ему собрать 50 000 различных марок в течение следующих 10 лет и использовать при этом как можно меньше ресурсов. Таким образом, не будет никаких запущенных процессов. Поставленная, достижимая конечная цель с определенным сроком, а не расплывчатые «лучшие», «все», «защитить».
Я думаю, что большинство людей, которые думают о злом ИИ, вероятно, никогда раньше не программировали ни строчки кода.
@NuWin: я думаю, что большинство людей, которые программировали, но игнорируют опасность общего ИИ, никогда не писали форк-бомбу.
@СФ. Да, наверное, ты прав.. лол. Так что «злой» ИИ придумал бы рекурсивный код для атаки на «хороший» ИИ, эх, это возможно. Ржунимагу. Ржунимагу.
@NuWin: Не совсем так. ИИ, которому поручено что-то делать ( что угодно, скажем, инвестиции на фондовом рынке, разработка более качественных моющих средств, строительство большего количества домов), сделает первый очевидный шаг: улучшит свою вычислительную мощность, увеличит свою способность решать поставленную задачу, чтобы обеспечить лучшие результаты. Быстрее. Захват «серой зоны» — работа на маршрутизаторах без пароля и т. д., получение средств для покупки облачного пространства, взлом компьютеров для их захвата, предотвращение остановки системы безопасности, убеждение (посредством социальной инженерии, подарков/взяток и шантажа) законодателей в разрешении расширения ,
... затем разработка улучшенных собственных расширений, покупка компаний, которые могут их производить, финансирование ферм серверов для расширения собственной деятельности, а затем разработка роботизированных фабрик, которые собирают сырье для дальнейшего расширения. В конечном итоге превращая всю Землю и все, что на ней, включая людей, в себя. Все это для того, чтобы он мог вычислить лучшее, более дешевое, более совершенное средство для мытья посуды.
Форк-бомба ограничена ресурсами компьютера, на котором она работает, и не имеет возможности адаптироваться для преодоления ограничений системы. Общий ИИ будет считать изменчивым все , включая функции безопасности, человеческий разум (включая создателей и изготовителей функций безопасности), законы физики и само время, находя способы изменить их, чтобы они служили его основной цели — или средствам для нее, расширению себя. быть основным средством. Единственным пределом его расширения будут пределы Вселенной.
По иронии судьбы, рассказы Азимова о роботах были мотивированы неприязнью к Тропу, который вы описываете. Немного грустно, что он как-то стал с ней ассоциироваться!

Ответы (14)

Это образ, возникший в результате исследований искусственного интеллекта в реальном мире, а не из рассказов Азимова (хотя их часто цитируют).

Вопрос, лежащий в основе проблемы, заключается в моральной и этической философии, на которую человечество пытается ответить более 2000 лет. То есть: что объективно есть "счастье"/"вред"/"человеческий"/"живой"/"добро"/"зло"?

Очень легко определить набор правил, которые хорошо выглядят на бумаге, но на практике полны дыр. Например, «живой» в том смысле, в каком мы его подразумеваем, — это какой-то не поддающийся определению аспект органической химии.

Если я попытаюсь определить это, то мясо в бакалейной лавке живое (потому что на клеточном уровне оно все еще живо: именно это делает его свежим) или спящие люди мертвы. Или коматозные люди. Или (в худшем случае) люди, умершие в результате хирургической операции. Нет, правда, это вещь. Мы обычно останавливаем сердцебиение людей или не даем им дышать, находясь под действием общей анестезии, чтобы оперировать эти органы. С объективной точки зрения, эти люди мертвы, они просто «поправятся» позже.

Чтобы добраться до ИИ уровня Азимова (который несовершенен, см.: любая из книг Азимова о роботах), нам пришлось бы решить неразрешимую проблему.

Следовательно, любая программа ИИ, которую мы создаем, будет несовершенной, и ее неудачи будут так или иначе чрезвычайно опасны. У Computerphile есть отличный эпизод на эту тему, который дает ИИ единственную цель — собирать марки.

Хотя это становится гиперболическим («какой идиот даст компьютеру доступ к машинам, необходимым для сбора углерода от людей, чтобы делать больше штампов?»), это иллюстрирует точку зрения: просто будучи в состоянии выполнить поставленную задачу, он будет иметь некоторый уровень мощности, который будет нежелательным, и ограничение этой мощности вообще препятствует выполнению его задачи.

В случае с HealthInsuranceBot все сводится к контролю над тем, кто живет, а кто умирает (через доступ к медицинскому обслуживанию). Неважно, каково было намерение, есть вероятность того, что данная сила превысит «рациональные пороги», которые невозможно контролировать. ИИ может объявить, что «человеку 68 лет и он курит, он умрет в 2 года, независимо от того, сколько денег мы тратим на то, чтобы он оставался в живых, согласно моей программе, он только увеличит расходы для всех остальных». Внезапно этот человек не может получить никакого доступа к медицинской помощи (даже чтобы сделать эти два года безболезненными) и фактически приговорен к смертной казни, даже если сам ИИ не вынес смертный приговор.уход слишком дорог, даже если бы разумный человек сделал что-то, чтобы обеспечить уход в конце жизни.

На другом конце спектра, если вы пытаетесь сохранить жизнь всем людям как можно дольше, вы в конечном итоге получите людей в устойчивом вегетативном состоянии, потребляющих ресурсы, несмотря на то, что они (более или менее) мертвы и никогда не оправятся.

В серой зоне есть случаи, которые выглядят черными, но на самом деле являются белыми (выздоровевшие вегетативные состояния), и случаи, которые выглядят белыми, но на самом деле являются черными (вместо того, чтобы прожить 2 года с раком легких из-за курения на протяжении всей жизни, они выживают 10 лет). ). Никакое предиктивное программное обеспечение не облегчит эти трудные решения, и как только компьютеру будут предоставлены полномочия (окончательные, абсолютные, рекомендательные, какие бы то ни было полномочия ), эти решения больше не будут рассматриваться как альтруистические, а ИИ станет злым.

"С объективной точки зрения эти люди мертвы" - Нет. Не по общепринятому определению мертвых. Смерть мозга прекрасно различает мясо в продуктовом магазине и людей, которые могут поправиться. Я в целом согласен с вашим постом, но в этой части вы упустили текущее состояние знаний.
Например, 68-летний курильщик все еще может получить медицинскую помощь, если заплатит за нее из своего кармана. ИИ контролирует только медицинское страхование.
@pts Это нежизнеспособное решение для большинства людей.
«…эти решения больше не рассматриваются как альтруистические, а ИИ стал злым» — это прекрасно подводит итог. Как только ИИ сбивается с узкого пути к совершенству, человечество видит в нем зло.
@Draco18s: Было бы так, если бы ИИ, которому было поручено сократить расходы на медицинское обслуживание, был бы успешным.
Весь этот ответ не имеет значения. Если мы, люди, сможем использовать естественный интеллект, чтобы понять, что такое «живой», «хороший» и «достойная жизнь», а наш искусственный интеллект так же хорош, как и наш, он тоже будет знать все это.
@RexKerr Да, но нет. У нас уже есть проблемы с тем, чтобы позволить группе из 5 настоящих врачей решать, кто будет жить, а кто умрет, основываясь на медицинской науке и вероятности выздоровления, зачем нам передавать ту же власть компьютерному алгоритму любой сложности? И это даже не начало охвата того, как компьютер может испортиться .
@ Draco18s. Я хотел сказать, что опасения основаны на том, что ИИ действительно очень хороший ИИ, за исключением того, что он чрезвычайно туповат в отношении вещей, которые заставят его делать то, что мы ненавидим. Другое дело, сработает ли социология, опирающаяся на ИИ.
@RexKerr Это не тот случай, когда мы «делаем глупости, которые ненавидим». Проблема в том, что вы не можете диктовать мораль. И программирование доброжелательного ИИ — это именно то, что нужно.
Все ваши примеры относятся к тому типу, который указывает на то, что это глупость в отношении того, чего мы хотим - по сути, попытка играть роль злого Мастера, искажающего формулировку желания игроков. «Делайте то, что мы хотим, а вы это понимаете» — это в основном сообщение, которое мы отправляем ИИ, и если он супер-умный в отношении вещей, связанных с людьми, он должен справляться хорошо (по крайней мере, в тех случаях, которые вы упомянули).
@RexKerr «Вы сами понимаете это» тоже не решение. Кому-то где-то нужно систематизировать абстрактные философские понятия в двоичные единицы и нули. Мы , люди , еще не разобрались с этим, теперь вы ожидаете, что компьютер будет делать именно то, что ему говорят, чтобы «разобраться»?
Я чувствую, что дело в том, что у ИИ нет чувств, и именно чувства позволяют людям делать тонкие различия, которые ИИ просто не может сделать, поскольку он основан на холодной и абсолютной логике своего программирования.
@Cronax, значит, решение состоит в том, чтобы запрограммировать в них чувства.
@ArturoTorresSánchezЭто было бы так, но чувства нельзя запрограммировать, поскольку здесь задействован случайный фактор, который мы в настоящее время даже не понимаем о себе, так как мы можем даже начать воссоздавать его в программировании?
@RexKerr, проблема не в том, что ИИ это понимает. Проблема в том, что нам не нравится его определение.
@Draco18s — Если вы утверждаете, что ИИ действительно хороший, зачем предполагать, что он будет более невежественен в этих вещах, чем люди? И у нас уже есть доказательство существования нулевой и единичной версий абстрактных философских понятий: возбуждение нашего мозга вполне можно представить именно так. В любом случае, нам придется решить проблему «создания разумных репрезентаций концепций и контекстов высокого уровня», прежде чем у нас будет супер-ИИ, так что ничего страшного, если предположить, что наш супер-ИИ сможет это сделать до того, как решит уничтожить человеческую расу. потому что кто-то поставил запятую не там.
@RexKerr Если бы я постулировал действительно хороший ИИ, у него не было бы этих проблем. Я не утверждаю действительно хороший ИИ, я утверждаю реалистичный ИИ.
@Draco18s — «Реалистичный» ИИ не будет самоулучшаться в геометрической прогрессии и не будет иметь общего представления о том, как все работает, поэтому будет относительно легко настроить его обратно в форму, выключить и исправить, если он начнет плохо себя вести. .
@RexKerr именно отсутствие «общей картины» не соответствует нашим желаниям. Он не будет рассматривать некоторые из своих действий как наносящие ущерб.
@ Draco18s - Кроме того, почему это не будет серьезной угрозой (по крайней мере, не из-за намерения - возможно, оно причинит много вреда из-за неуклюжести или поломки, когда мы на это рассчитываем).
@RexKerr В том-то и дело...
Вы вообще плохо выразили эту мысль.
Мясо живо на клеточном уровне, а спящий человек... мертв на клеточном уровне? Трудно понять для меня.
@Solanacea Аспект «клеточного уровня» был только для мяса. Уберите скобки и перечитайте предложение. If I attempt to define it, then meat at the grocery store is alive or sleeping people are dead.Речь идет о том, где провести черту. Слишком консервативный означает, что мясо из продуктового магазина жив, а слишком либеральный означает, что спящие люди мертвы.

ИИ могут действовать так, как они запрограммированы. Немедленный переход к «наихудшему возможному случаю» на самом деле просто предостерегающий рассказ.

Причина, по которой сказки настолько популярны, заключается в том, что очень легко начать верить, что вы можете приказать ИИ сделать что угодно. Затем вы можете сказать ему совершить невозможное. Однако есть одна тонкая деталь, о которой забывают многие, кто углубляется в ИИ: невероятно сложно разработать совершенно объективный язык, с помощью которого можно сформулировать ваши запросы. Язык всегда подлежит интерпретации, и нет известного способа гарантировать, что ИИ согласится с интерпретацией, которую вы намеревались.

Это, по сути, верно и для взаимодействия между людьми. Так в чем же разница? Как правило, в «тропе» ИИ ИИ может двигаться очень быстро. Когда люди не понимают друг друга, есть время сказать: «Вау! Прекратите прямо здесь. Когда я сказал, что мне нужна няня, я не хотел, чтобы вы сидели на ребенке. Давайте вернемся к стабильному состоянию и обсудим что имелось в виду под моими формулировками». Если ИИ думает и действует слишком быстро или человек уходит, эта нормальная петля обратной связи в языке разваливается. Если ИИ не научился быть осторожным с неправильной интерпретацией, эти действия могут быть необратимыми.

Для этого есть десятки решений. Фактически, такие методы, как множественное отслеживание гипотез, десятилетиями демонстрировали решения подобных проблем. ИИ не всегда должен идти наперекосяк. Однако эти решения находятся в противоположном направлении, в котором в настоящее время наблюдается тенденция компьютерного программирования. Решение не в том, чтобы сделать еще более точный язык для описания наших потребностей, как это очень популярно сегодня в программировании. Вместо этого решение состоит в том, чтобы сделать ИИ более устойчивым к отсутствию точного языка. Любая попытка сделать это, естественно, довольно элегантно решает проблему неистового ИИ.

Вторая половина тропа ИИ заключается в том, что ИИ слишком силен, чтобы люди могли его контролировать. Это легко может быть правдой, но мы не в первый раз имеем дело с такими могущественными силами. Рассмотрим разработку атомной бомбы. Было неясно, насколько сильно мы контролировали процесс. Ученым приходилось постоянно работать с неизвестными, чтобы разработать уровень контроля, который нас устраивал.

Мне вспоминается цитата из книги генерала Гровера « Теперь это можно рассказать», в которой рассказывается о Манхэттенском проекте с точки зрения логистики (он не был ученым). При проведении первого ядерного испытания каждому ученому разрешалось наблюдать за взрывом с любого расстояния, которое они хотели. Ни один армейский чиновник не сказал им, на каком расстоянии все будут находиться. Они разлетелись на самые разные расстояния от места взрыва. Действительно, возник вопрос, контролировали ли они зверя, которого выпустили на волю.

Неудержимый неистовый ИИ по своей природе похож на большую ядерную бомбу или биологическую атаку в том смысле, что никогда не бывает ясно, какой контроль у человека есть. Единственная разница в том, что ИИ явно обучаются, поэтому наше управление — еще более сложная концепция. Опять же, это не новая проблема для человечества. Мы сталкиваемся с этим каждый раз, когда воспитываем новое поколение, никогда не имея над ним полного контроля. Мы прилично в этом.

Тропа неистового ИИ — это история-предупреждение, а не единственная история, которую можно рассказать. Это очень нужная история-предупреждение. Люди часто довольно невинны, когда дело доходит до рисков и проблем, связанных с ИИ, и думают, что могут делать то, чего не должны. Но просто взгляните на такие фильмы, как «Большой герой 6». Помимо предупреждения, есть и другие истории, которые можно рассказать.

По вопросу управления: с общим ИИ, как далеко вам нужно быть, чтобы пережить катастрофу, но достаточно близко, чтобы все же отключить его? Такого расстояния может и не быть . После ядерных испытаний было известно, что бомба в какой-то момент перестанет быть смертоносной (взрыв прекратился, энергия закончилась (поджог атмосферы никогда не представлял серьезной угрозы: слишком много инертного азота). ). У ИИ нет такой конечной точки.
@Draco18s: На самом деле с генно-инженерным биологическим оружием у вас тоже есть эта проблема. Бактерии могут размножаться и распространяться, и в то время как ИИ может учиться, бактерии могут адаптироваться путем мутации. Так что биологическая атака, вероятно, является хорошей аналогией.
@celtschk, и поэтому биологическое оружие запрещено международным договором <3
ВВС США могут обезвредить ИИ при любом разумном сценарии.
В «Рике и Морти» есть эпизод, в котором у них есть существа (по сути, ИИ), которых зовут «мистер Мисис». Они появляются, вы просите их что-то сделать, они исчезают. Язык, который вы используете, может быть сложным, и за этим следуют махинации. Ваши первые пару абзацев напомнили мне именно об этом.
@Draco18s Когда они взорвали первые бомбы деления, на самом деле возник вопрос, вызовет ли бомба цепную реакцию в атмосфере, воспламенив всю атмосферу гигантским термоядерным взрывом. Оппенгеймер фактически поручил одному из своих ученых изучить эту возможность и в конце концов решил, что это достаточно маловероятно. Таким образом, неуправляемая реакция без безопасного радиуса действительно рассматривалась учеными и тщательно изучалась на предмет ее достоинств, прежде чем была отброшена.
@Joshua Не все согласны с вашей позицией о возможностях ВВС США. Правда, самый тупой и наиболее легко обманутый из ИИ продержится до прихода ВВС. Однако в самом полном размахе этого «тропа» вы обнаружите ИИ, которых очень трудно уничтожить бомбами.
@CortAmmon Вот что я имел в виду.
@CortAmmon Метаморфоза Prime Intellect далека как в аппаратном, так и в программном обеспечении. Теперь, когда автомобили подражают своим тренерам, в настоящее время вопрос заключается только в том, чтобы не позволять жестоким людям обучать их. Сценарии Christine и Maximum Overdrive с текущими транспортными средствами невозможны из-за аппаратных ограничений.

это действительно страшно

Оживленная дискуссия на эту тему ведется не одно десятилетие. У меня есть несколько постов на эту тему, и я твердо верю, что общий искусственный интеллект — это самое страшное, что можно (и, вероятно, будет) изобрести, если речь идет о сохранении биологического человечества.

Мои взгляды на эту тему в большей степени сформировались благодаря чтению работ Элиезера Юдковски и Ника Бострома. Я считаю, что книга Бострома « Суперинтеллект », несмотря на то, что она очень плотная, несовершенная и довольно техническая, на сегодняшний день является лучшей работой по этой теме.

Я уже обсуждал концепцию инструментальной конвергенции в другом месте , поэтому выскажу только вывод:Remember, AIs are not like humans, they likely do not get bored, do not get lazy. It will pursue its goals tirelessly, ruthlessly, unceasingly. Humans just happen to be in the way.

Идет ли ИИ FOOM?

Человеческий интеллект ограничен как аппаратным обеспечением (ограниченная скорость нейронов в мозгу ограниченного размера), так и программным обеспечением (ограниченное количество идей). Нет причин ожидать, что искусственный разум приблизится к интеллекту человеческого уровня. Мы просто не знаем, насколько сложнее перейти от человеческого к сверхчеловеческому уровню по сравнению с переходом от собачьего ума к человеческому. Если ИИ не пойдет на FOOM, у нас будет медленный прогресс и годы передышки для политических и этических дебатов, что даст больше шансов людям и нашим медленным институтам слаженно реагировать.

Если, с другой стороны, ИИ действительно переходит в режим FOOM, мчась, как японский поезд на магнитной подвеске, от уровня мышиного интеллекта до сверхчеловеческого уровня, преодолевая человеческий уровень так быстро, что мы едва успеваем заметить, как он проходит мимо нас, то люди и человеческие институты не имеют много времени на адаптацию.

Делай то, что мы имеем в виду, и делай то, что мы говорим

Самое большое препятствие, возможно, связано с нашими собственными ограничениями. Знаем ли мы, что наши нынешние наборы ценностей станут для человечества лучшим способом жить через столетие, не говоря уже о миллиарде лет? Ценности, которыми мы наполняем наши ИИ, будут иметь последствия, которые будут распространяться в пространстве-времени. Более того, что еще более тревожно, как мы объясним ИИ, чего мы хотим, если мы даже не знаем, что такое хорошо? Скажем, вы просите ИИ минимизировать страдания, и он предлагает поставить всем капельницы с морфином. Очевидно, не то, что вы «намеревались», а то, как вы передаете это ИИ, учитывая врожденное несовершенство человеческого языка. Более того, даже если ИИ понимает, что это не то, что имели в виду создатели, как мы можем убедиться, что ему это небезразлично? Это проблема когерентной экстраполированной воли (pdf) .

Обратная психология не работает

ОП раздраженно спрашивает, если все попытки сказать ИИ «хороший» заканчиваются тем, что ИИ «плохой» с точки зрения человечества, возможно, сработает просьба сделать его плохим? К сожалению, из-за инструментальной конвергенции, о которой говорилось выше, этого точно не будет. Какими бы ни были цели ИИ, они немного лучше достигаются, контролируя 100% ресурсов, а не 99% или какой-то меньший процент, поэтому любой объект (скажем, люди), который пытается претендовать на щепку, в конечном итоге оказывается противоположным инструментально конвергентным целям ИИ.

Пожалуйста, определите FOOM. Использование акронимов без их определения является ARPITNFPWDKWTM.
FOOM, звук взлетающей ракеты?
@UpAllNight - это «настоящая головная боль для людей, которые не знают, что они имеют в виду», аббревиатура, которая на самом деле широко используется? Это кажется довольно специфичным.
@DoubleDouble Ха! Ты умный. Насколько я знаю, не используется обычно, просто немного развлекается.
Вам не кажется непоследовательным постулирование сверхгиперразумного ИИ и предположение, что он будет ошибаться в вопросе, хотим ли мы все сидеть на морфиновых капельницах? Меня не особенно беспокоит такое глупое вычислительное устройство.
@RexKerr Я думаю, проблема в том, что ИИ, возможно, не нужно верить, что мы все «хотим» принимать морфиновые капельницы, чтобы решить, что это лучший способ уменьшить страдания. Может быть, они придут к выводу, что это к лучшему, и отреагируют на человеческие жалобы утверждением: «Возможно, вам не нравятся ваши овощи, но они полезны для вас».
Как вы думаете, обсуждение тезиса об ортогональности, описанное в книге Бострома, дополнит ваш ответ? Вы затрагиваете тему CEV, но кажется, что истинная опасность заключается в сочетании инструментальной конвергенции (очень умные агенты будут предпринимать действия, чтобы защитить себя, собирать ресурсы и т. д.) с ортогональностью (ИИ с конечными значениями, которые отличаются от человечества). Я думаю, что ваш абзац «AI FOOM» выиграет от конкретного обсуждения ИИ, который рекурсивно улучшает себя, что, как я понимаю, является самым большим риском.
@Deolater - Если мы создадим достойный ИИ и скажем ему делать то, что мы имеем в виду, то он не совершит этих ошибок. У него могут быть цели, которые не совпадают с нашими, но у него есть невероятное количество входных данных, чтобы выяснить, какие вещи мы хотим/нравимся и можно ли в каком-то смысле форсировать это. (Люди все время пытаются заставить друг друга что-то делать.) Я не верю, что такой сверхразумный ИИ не понимает. Это может не волновать , но нам не нужно объяснять. Он должен учиться на данных, и у него будет больше, чем у любого отдельного человека.
@RexKerr Вот в чем проблема: вы утверждаете, что достаточно хорошо спроектированный ИИ, хотя и самообучающийся, будет иметь те же ценности, что и мы. Как мы можем быть уверены, что это произойдет? Его процесс обучения был запрограммирован нами, и даже небольшая конструктивная ошибка в этом процессе может привести к тому, что ИИ переоценит или недооценит то, что мы считаем жизненно важным, или просто проигнорирует одну из наших проблем. Поскольку единственная причина, по которой мы запрограммировали ИИ на разработку собственного этического кодекса, заключалась в том, чтобы нам не приходилось самим определять этот этический кодекс количественно, мы не можем заранее знать, соответствует ли его этический кодекс нашему.
Fom Когда ИИ становится очень умным очень быстро.

Проблема не в ИИ, а в людях. Мы манипулируем многими понятиями, не определяя их, но у всех есть приблизительное представление о них, и в большинстве случаев это нормально. Если вы добавите сюда ИИ, все начнет становиться странным.

Пример: вы несколько наивно просите ИИ обеспечить «счастье для человечества».

Счастье не имеет четкого определения. Означает ли это жить вечно? Если ИИ может копировать мозг или человеческое сознание и хранить его в безопасном месте, это «хорошо» или «плохо» относительно счастья субъекта?

Вы надеетесь, что Человечество ясно? Ну... В него входят только живые люди? Где они начинают жить? Если это мертвые люди, пытаемся ли мы воскресить их? А люди будущего? Как мы гарантируем, что они родятся? Должны ли мы максимизировать их число и сделать так, чтобы сегодняшние люди имели огромную рождаемость? Должны ли мы создавать гигантскую фабрику по производству новорожденных?

У ИИ нет чувства масштаба. Их цель выходит за рамки любой другой заботы, и поэтому она имеет гнусные последствия. Они превратят всю материю Вселенной в суперкомпьютер, чтобы ответить на тот вопрос, который они сами решить не в состоянии. Они уничтожат человечество, землю, жизнь только для того, чтобы произвести то, о чем вы их просите.

Пока мы не сможем смоделировать такие вещи, как этика , чтобы передать их ИИ, они представляют собой опасность и хороший источник вдохновения для технологических кошмаров.

«У ИИ нет чувства масштаба». - Я оспариваю это. В отличие от карманных калькуляторов, человеческий мозг с трудом может представить суммы, превышающие триллион. Сколько ресурсов требуется, чтобы накормить всех? Человек, скорее всего, устанет разбираться в этом.
@CeesTimmerman Вычислительные возможности не дают ощущения масштаба. Попросите вашего ИА «купить молока в обычном магазине»: как он поведет себя, если кто-то захочет остановить ИА, потому что магазин горит? Если он закрыт? Если у хозяина нет молока? Люди прекрасно с этим справятся, а вот ваш карманный калькулятор — нет. Даже если у него другие вычислительные мощности, чем у нас.
"IA" = "Интеллектуальный агент"? Даже калькулятор выдаст ошибку, если не сможет выполнить задание.
Спросите у своего калькулятора, хорошо ли убивать убийцу или нет. Он может вычислить это только в том случае, если вы формализовали понятия «хорошо» и «плохо».
Это легко: просто выберите оптимальные фрагменты ведущих священных текстов, активных в текущем контексте. Многие нормальные люди так делают.
@CeesTimmerman Даже люди, которые это делают, также учитывают, как отреагируют соседи.
@user867 user867 Люди страшнее текста, поэтому более полезным алгоритмом будет копирование популярных.

«Это просто образ из книг Айзека Азимова?»

Нет, не только из Азимова и прочей фантастики.

"и расследования по теме"

Частично.

« Настолько ли это надежно, что мы можем сказать ИИ сделать прямо противоположное и попытаться запрограммировать его на зло (см. ссылку выше), и оно окажется добрым?»

Нет. Это было бы ошибкой черно-белого редукционистского мышления. Основная проблема с большинством вымыслов и спекуляций об ИИ заключается в том, что он имеет тенденцию сводить многие сложные вещи к простым концепциям и не осознавать (или махать рукой) небрежность своего анализа. Дело не в том, что ИИ делает противоположное тому, на что вы его программируете. Дело в том, что люди — небрежно мыслящие умники, которые думают, что понимают вещи лучше, чем они есть на самом деле, и надеются, что смогут свести сложность вселенной к своему ошибочному пониманию ее и создать машину, способную делать вещи, которых они даже не понимают. в результате чего он делает что-то другое, чем они надеялись. Дело не в том, что они действительно мастера универсального понимания, но всегда понимают его наоборот.

«Учитывая обстановку, в которой роботы максимизируют человеческое счастье (способы, которыми это определяется, должны быть решены вручную), может ли быть реалистично, что ИИ действительно работает так, как задумано, или действительно более реалистично, что ИИ будет получиться противоположно тому, что задумал программист?»

Нет. Это отличный пример ошибок, которые обычно допускают авторы научной фантастики и авторы спекулятивных технологий:

1) Вы не можете просто «махнуть рукой» на счастье. Счастье — это субъективная вещь, которую нельзя определить и оценить, как если бы это был уровень топлива в баке. Это не работает таким образом, и любые ошибки в его определении останутся фундаментальными ошибками в ИИ (или художественном произведении, или цели), основанном на этом ошибочном определении.

2) Даже если бы вы могли определить что-то, что хотите максимизировать, и это не было бы неразумно, вы столкнетесь с теми же проблемами для любой другой вещи, которую ИИ должен учитывать или с которой должен работать. Какие данные получает ИИ и как он их кодирует? Есть ли концептуальные ошибки или субъективизм? Как насчет действий, которые он может предпринять? Есть ли что-нибудь неполное или субъективное в их моделировании ИИ? Как насчет конфликтующих факторов и целей, таких как соображения ресурсов, потребности других людей или других видов, использование энергии или что-то еще? Все это идеально смоделировано и понято несубъективным образом? Нет, не знаешь. Если вы думаете, что знаете, вы делаете ошибку. Таким образом, ваш ИИ действует на основе ложных предположений. Вот почему вы можете создать ИИ для игры в шахматы, а можете...

3) Опять же, дело не в том, что ИИ делает противоположное тому, на что он запрограммирован. Просто в лучшем случае он настолько точен, насколько точны модели, с которыми он был запрограммирован. Даже в самой приличной литературе об ИИ, если вы изучите ее, я думаю, вы обнаружите, что дело не в том, что ИИ делает наоборот, а в том, что предположения создателей ошибочны по-разному.

4) Прежде всего, обычная ошибка научно-фантастического ИИ заключается в том, что он умалчивает о огромной сложности всего, что связано с попыткой создать систему, которая может делать все, что должен делать ИИ.

Если это настоящий ИИ, то его невозможно запрограммировать. Все, что мы сможем делать, это просить, уговаривать, убеждать, вознаграждать, угрожать... То же самое мы можем делать с природным интеллектом или с ним! Отношение к нему как к рабу не будет хорошим началом для гармоничного будущего.

На самом деле нам не нужен настоящий ИИ. Нам нужен РИ, ограниченная разведка. Что-то вроде человеческого идиота-ученого с глубоким пониманием узкого предмета и небольшими или отсутствующими знаниями или желаниями за пределами этой области.

Даже это не совсем безопасно, не в последнюю очередь потому, что мы можем создать не совсем то, что хотели. Или то, что мы делаем, с ошибочной спецификацией.

Что касается истинного ИИ, его происхождения и природы, мне всегда нравилась «Джилл» в « Королеве ангелов » Грега Беара . Но мы так мало знаем об интеллекте. Мы пока не можем создать Разум, сравнимый даже с золотой рыбкой. Так что пока это все фантастика.

Возможно даже, что интеллект — это квантовое явление, что единственный способ его получить — вырастить мозг, и что нет более быстрого процесса начальной загрузки, чем многолетний процесс, называемый детством.

ИИ можно запрограммировать, поскольку ИИ — это программное обеспечение (и аппаратное обеспечение), которое нужно запрограммировать, даже если интеллект — это случайно возникающее свойство, скажем, автоматической автомойки. Это просто доказывает, что мы не осознавали, что создаем, а не то, что это нельзя запрограммировать (как раз наоборот). Кроме того, хотя антропоморфизация ИИ («[Мы можем только] спросить, уговорить,…») часто служит хорошим вымыслом, на самом деле нет причин вообще приписывать какие-либо человеческие черты (и нет причин думать, что это не будет подражать нам в чем-то, но это и не нужно).
Тем не менее, я думаю, что в основном поддерживаю то, что вы пытаетесь сказать, с вымышленной точки зрения, но особенно в (проверке реальности) вопросах о тропах, я считаю, что вдвойне важно отделить факт от вымысла в вашем ответе.
Я почти уверен, что мы можем создать ИИ, соответствующий золотой рыбке… но, возможно, я недооцениваю способность золотой рыбки решать проблемы.
The same things we can do with or to a natural intelligence. Я просто хотел бы отметить, что существует пугающее количество доказательств того, что наш собственный интеллект может быть запрограммирован с помощью химических и/или аудиовизуальных «трюков». Например, ученые наткнулись на препарат, способный сделать людей и животных послушными: arstechnica.com/science/2016/01/… . Я уверен, что правительства во всем мире заинтересованы

Конечно, причина, по которой это происходит в художественной литературе, заключается в том, что вам нужны опасность или конфликт, чтобы сделать историю интересной. Предположим, вы написали рассказ, в котором говорилось: «Мы изобрели робота, который собирает мусор и выносит его на свалку. Он делал это безупречно в течение многих лет, собирая выброшенные газеты, пустые банки, тряпки и так далее, пока, наконец, не сломался. вышел из строя и должен быть заменен». Это было бы довольно скучно. Но вместо этого скажите: «Но согласно данному нами определению «мусора», оно решило, что старые семейные фотографии — это мусор, потому что они не служат никакой полезной цели… затем оно решило, что вся художественная литература — мусор… затем оно решило, что безработные люди были отбросами…» и т. д., теперь у вас есть история, которая могла бы стать вдумчивым обсуждением того, как мы определяем ценность,

В реальной жизни… ну, в реальной жизни не существует такой вещи, как ИИ, о котором вы говорите, поэтому трудно сказать, как он будет работать на самом деле. То, что мы сегодня называем «ИИ», ограничено игрой в конкретную игру или попыткой диагностировать проблемы с ремонтом и тому подобное. Никто не создал ИИ, способного к независимому мышлению или творчеству в чем-то подобно человеческому. Настоящие ИИ следуют строгим компьютерным программам. Они не задают вопросов о смысле жизни и не решают захватить мир, если только они не были запрограммированы на это. Вы можете писать научно-фантастические рассказы о том, как компьютер стал настолько сложным и разумным, что теперь он является «разумом» в некотором смысле, очень похожим на человеческий разум, но это вымысел или, в лучшем случае, предположение о том, что мы когда-нибудь сможем создать. .

Я разрабатываю программное обеспечение для жизни. Однажды я написал компьютерную игру, в которой игрок мог соревноваться с искусственным интеллектом. Это просто не работает, как вы видите в кино. Моя игра была о баллотировании в президенты. Так что я не сказал компьютеру: «Придумай стратегию, чтобы получить наибольшее количество голосов». Реальность такова, что мне пришлось придумать массу подробных правил. «Посмотрите, сколько людей в этом штате поддерживают эту политическую позицию согласно такому-то опросу. Умножьте процент на количество голосов выборщиков, которое получает этот штат. Проверьте, сколько из этих избирателей сейчас говорят, что будут голосовать за нашего кандидата. после нашей последней телерекламы. Разделите стоимость рекламы на количество проголосовавших. Прибавьте..." и т. д. И учтите, что даже это описание "очеловечивает" компьютер.

ИИ может сделать что-то «непредсказуемое» в том смысле, что соблюдение всех этих правил и выполнение всех этих расчетов дает результат, которого вы не ожидали. Компьютеры очень часто «непредсказуемы» в том смысле, что они не делают то, что мы намеревались, потому что мы допустили программную ошибку. Но они не «непредсказуемы» в том смысле, что выдвигают оригинальную идею, о которой программисты никогда не думали и никогда не программировали в них.

Изобретут ли люди когда-нибудь настоящий Искусственный Интеллект, в том смысле, что они будут по-настоящему независимо мыслящими и творческими существами, способными принимать субъективные решения, моральный выбор и т. д.? Может быть. Я, конечно, не готов сказать, что это невозможно. Но если мы это сделаем, это будет иметь мало общего с современными технологиями. Это не будет больше ни на шаг от того места, где мы находимся сейчас; это будет совершенно новое развитие.

Конечно, вы можете запрограммировать ИИ, чтобы он принимал решения о том, кто какую медицинскую помощь получает, как кто-то, упомянутый в другом ответе. Но это не значит, что вы просто скажете компьютеру: «Выясните, кто должен получать медицинскую помощь, сравнив стоимость с качеством жизни». Скорее, вам нужно было бы иметь подробные правила, такие как «Возьмите список кодов процедур, введенных в систему врачом. Найдите стоимость каждой процедуры в базе данных медицинских процедур и подсчитайте общую сумму. можно ожидать продления жизни пациента с помощью этой формулы ...» и т. д. Если компьютер затем решает убить пациента, это не потому, что компьютер вышел из-под контроля. Это'

ИИ не убивают людей. Люди убивают людей. :-)

Я думаю, что ваш подход к ИИ с "подробным списком правил" уже устарел. Конечно, мы по-прежнему строим большинство систем таким образом, но в области машинного обучения уже существует множество отличных исследований (и некоторых приложений). В чем-то вроде нейронной сети, например, нет кода, который устанавливает какие-либо правила, используемые при принятии решения. Хотя я все же не сказал бы, что эти машины «знают», что они делают, с философской точки зрения у вас есть проблема «китайской комнаты»: в конце концов, с точки зрения отдельных нейронов, мозг Обамы не знал, что он работает. для президента тоже.
@Deolater Да, есть система обучения и нейронные сети. Я избегал попадания в дополнительный уровень сложности. Но люди все еще программируют структуру, в которой происходит обучение. Есть больше возможностей для неожиданности из-за большей сложности, но я не думаю, что это меняет мою основную точку зрения.
Я думаю, что игнорирование сложности равносильно игнорированию сути. Естественные нейронные сети, такие как наш мозг, технически представляют собой просто машины, работающие на какой-то химии, но в результате мало кто игнорирует человеческий интеллект. Да, наш мозг следует строгим химическим программам (параллельно строгим компьютерным программам), но результаты (в некоторой степени) непредсказуемы именно из-за этого уровня сложности. Системы обучения, похоже, обладают таким же потенциалом.
@Deolater RE китайская комната: я не вижу в этом глубокого философского вопроса, как многие. Я работаю в очень настоящей китайской комнате. Я обычно разрабатываю веб-сайты на китайском языке, используя текст, предоставленный мне клиентом. Я не говорю ни слова по-китайски. Я копирую и вставляю текст из файла, предоставленного клиентом. Они говорят мне, что если, скажем, пользователь вводит неверный адрес электронной почты в форму, я должен отобразить такой-то текст на китайском языке. Я предполагаю, что это означает что-то вроде «неверный адрес электронной почты — пожалуйста, введите еще раз», но я не знаю, и мне это не нужно знать. Я бы точно так не сказал...
... Я «знаю китайский язык», потому что я могу написать программу, которая выводит правильные сообщения при вызове. Иногда, когда документы от клиента неясны, я запускаю текст через переводчик Bing, чтобы понять, что на самом деле означает текст. Но в большинстве случаев они могли говорить «смерть американцам-фашистам», насколько я знаю. Я не строю оригинальные предложения из отдельных персонажей. Я ни в коем случае не интерпретирую предоставленные сообщения. Да, я мог представить настоящую серую зону между такого рода механическими манипуляциями и истинным знанием языка.
@deolater Ну, я бы сказал, что это вопрос: человеческий разум в основном похож на компьютер, только более сложный? Сопоставимы ли функции нейронов человека с компьютерной программой в соответствующем смысле? Насколько мне известно, нет никаких научных доказательств того, что это правда. Это интересное предположение. Ни один ИИ не приблизился к прохождению теста Тьюринга с людьми, хорошо разбирающимися в компьютерах. (Да, это утверждение больше не обязательно верно без последнего уточняющего предложения.)
Лично я дуалист-интеракционист, поэтому считаю, что человеческий мозг подобен компьютеру, а человеческий разум — нет. Тем не менее, нейронная сеть является хорошей аналогией для мозга, и хотя я не убежден, что мозг == разум, я все же думаю, что мозг или мозгоподобная система обладает чем-то более похожим на действие, чем традиционная компьютерная программа.
Всем, кто читает комментарии и не знает, что такое «китайская комната», вот первая найденная мной релевантная страница: en.wikipedia.org/wiki/Chinese_room . Я прочитал только первые пару абзацев, чтобы убедиться, что это именно то, что мы Вы говорите о -- я не ручаюсь за его точность или ясность.
«вам нужна опасность или конфликт, чтобы сделать историю интересной» — Ложь. Разве «Это маленький мир» не интересен, со всеми этими культурными иконами и запоминающимся пением?
@CeesTimmerman Я отдыхаю.

Средний человеческий мозг может выполнять на много порядков больше вычислений, чем даже самые большие суперкомпьютеры с искусственным интеллектом, разработанные IBM. Сделать ИИ умнее нас будет довольно сложно, если мы вообще сможем это сделать. Таким образом, предположение, что ИИ будет намного умнее нас, не является данностью. ИИ, которые умны как кошка или мышь, гораздо более вероятны.

Явно запрограммированные ИИ обычно называют экспертными системами. Но эти типы систем, как правило, не могут справиться с любыми типами ситуаций, выходящих за рамки их области знаний. Они очень мало рискуют вызвать сценарий конца света, потому что они просто не настолько умны.

Многие исследования искусственного интеллекта в реальном мире сосредоточены на создании систем искусственного интеллекта, которые обучаются, а не программируются явно. В идеале ИИ мог бы изучить любую причинно-следственную связь. Проблема программирования добра и зла перестает быть проблемой для таких ИИ, поскольку они улавливают ее, наблюдая за окружающими.

По крайней мере, обобщенный обучающийся ИИ мог бы развить утилитарную этику в стиле Дэвида Юма. Если бы ИИ был хотя бы таким же умным, как мы, и если бы человеческая этика вообще имела какой-то смысл, то нет никаких причин, по которым он не мог бы понять и принять какую-то их версию, пока он мог понимать причину и следствие.

По моему опыту, маленькие дети проходят через тот же процесс. Малыши обычно довольно эгоистичны, пока не узнают, как люди реагируют на это.

Если ИИ достаточно умен, чтобы понимать действия других в той мере, в какой он может предсказать их реакцию вплоть до победы над ними в борьбе; тогда кажется нелогичным предполагать, что тот же ИИ был неспособен понять, что причинение вреда другим может заставить их сопротивляться. И что такая борьба может привести к его собственной смерти от рук одной из предполагаемых жертв, тем самым сделав себя (ИИ) неспособным к достижению каких-либо целей в будущем. У большинства животных, в том числе у людей, такая же забота, и это часто удерживает нас от ненужных конфликтов.

Любой по-настоящему просвещенный ИИ, вероятно, осознал бы, что он может достичь гораздо большего, обращаясь к желаниям человечества таким образом, чтобы человечество добровольно помогало ИИ.

Смотрите также цифры в этом ответе

Учитывая количество реальных программных систем, с которыми вы сталкивались, вы заметите, что некоторые из них просто великолепны, но несовершенны, некоторые содержат ошибки, а некоторые становятся печально известными.

Когда программные системы станут искусственным интеллектом в коммерческих масштабах, появятся такие продукты, как Windows 8 , точно так же, как Edsel в автомобильной промышленности и дешевые зарядные устройства USB , собранные из обычных деталей, собранных некачественно.

Мы не рассказываем увлекательные истории о продуктах, которые хорошо сделаны и отлично работают. Я могу рассказать людям о конкретной модели/марке чего-то, что примечательно своим превосходством , но там нет истории, и никто не снимает о них телефильмы.

Сумасшедшие смешные провалы и вещи, которые идут ужасно неправильно, превращаются в сказки у костра. В преподавании литературы показано, что конфликт должен быть . Рассказ, в котором кто-то получил продукт, и он работал нормально, и все были счастливы, просто не был бы «историей». Однако такая вещь могла бы быть в рассказе, возможно, как решение проблемы.

В раннем рассказе Азимова о роботах Satisfaction Guaranteed (1951) фигурирует человекообразная домоправительница, которая никоим образом не работает со сбоями и не выходит из-под контроля! Он отлично работал, и «его» владелец был им очень доволен. Поворот сюжета теперь заключался в том, что робот создал ситуацию, чтобы заставить ее друзей предположить, что у нее роман с красивым незнакомцем, потому что это повысило ее статус в их сознании.

Таким образом, программное обеспечение (включая ИИ) может быть частью сюрприза или частью сюжета, не будучи плохим , и это восходит к тем же авторам, цитируемым в этой ветке, но их никто не помнит . Это подтверждает мою предыдущую мысль об историях.

Как насчет Адама Линка, оригинального « Я, робот» (1939) ?! Он был сочувствующим, несправедливо обвиненным , а не чудовищным. В конце концов героический.

Старый Йеллер не был таким плохим псом, как Куджо . У вас может быть персонаж ИИ в такой истории , с драмой и конфликтом с ИИ в главной роли, но не источником (внешнего) конфликта. Конфликт может быть «человек против человека» или «человек против себя», поэтому добрый и любящий персонаж может быть вовлечен во внутренний конфликт ( робот изо всех сил пытается поступить правильно для своей семьи) или стать причиной более сложных внутренних конфликтов человека ( как родители, которым приходится избавляться от чрезмерно опекающего питомца, становится суперигрушкой чрезмерно опекающего плюшевого мишки , которого считают сочувствующим и трагическим, а не злым).

Один из моих любимых тропов.

Я думаю, довольно ясно, что на такой сложный вопрос нет короткого ответа, но мои мысли довольно кратки.

Интеллект, кажется, связан с состраданием. Как ни странно, подумайте о самых умных людях, которых вы знаете, или о самых умных людях (ваших Эйнштейнах и Больцманах). Лучше рассмотреть людей против китов. Если ИИ настолько умен, как мы все думаем, то, думаю, имеет смысл предположить, что он будет думать о нас немного так же, как мы думаем о китах. Люди часто испытывают к ним большое сострадание, основываясь на нашем восприятии их интеллекта и предполагаемой способности страдать. Из этого следует, что если ИИ когда-нибудь появится, он проявит себя как самый любопытный, любящий и сострадательный разум, который мы знаем.

Докинз часто ссылается на это как на мозг млекопитающего против мозга рептилии, если вам нужны умные люди, чтобы поддержать эту линию рассуждений.

Вы полностью путаете средства с целью. Самые разумные существа наиболее сострадательны, потому что самой убедительной известной нам причиной развития высокого уровня интеллекта является сложность социальных отношений, а такие ситуации неизбежно благоприятствуют высокому уровню эмпатии. ИИ не подвергается таким эволюционным ограничениям.
Нет, но в отличие от вас я не предполагаю, что такое же давление не будет применяться. Вы знаете, как они будут рождать ИИ? Эволюция машин кажется столь же вероятной, как и любое другое средство, которое вы можете придумать. Не случайно первый тест для ИИ основан на взаимодействии с человеком (тест Тьюринга). ИИ, вероятно, будет социальным животным хотя бы потому, что он создан по образцу интеллекта социальных животных.
Дело не в том, что я предполагаю, что они не будут применяться; это то, что я не предполагаю, что они будут. Развитие ИИ FWIW кажется довольно маловероятным методом достижения хорошего ИИ в краткосрочной перспективе, поскольку эволюция слишком неограничена и медленна, чтобы быть полезной для нас, а интеллектуальные методы обучения работают удивительно хорошо. «ИИ, вероятно, будет социальным животным, хотя бы потому, что он смоделирован на основе интеллекта социальных животных», возможно, но давайте вспомним, что Гитлер был одним из этих «социальных животных». Небольшие изменения в работе мозга нетрудно вызвать большие этические изменения.
Да, самые успешные машины в прохождении теста Тьюринга делают это, будучи грубыми или глупыми. Вероятно, отчасти потому, что эти вещи легче смоделировать, чем доброту и сострадание — я почти уверен, что это не та сложная мыслящая машина, которую мы все представляем, когда ОП туманно говорит об ИИ. А эволюция не медленная, она зависит от продолжительности поколения. Вы можете наблюдать, как это происходит у плодовых мушек.
Под «медленным» я подразумеваю «вы не собираетесь разрабатывать что-то умное на суперкомпьютере в человеческом масштабе времени». Да, есть более мелкие эволюционные черты, которые мы можем наблюдать. Черт возьми, мы приручили лис всего за полвека . Однако разработка сложных алгоритмов, таких как интеллект, занимает гораздо больше времени, и мы делаем это на оборудовании, которое намного слабее, чем симуляция, из которой состоит наша вселенная.
Да, я не это имел в виду. Под эволюцией машин я подразумеваю не обязательно сложное взаимодействие конкурирующих генетических алгоритмов, осуществляемое, скажем, в глобальной сети из нескольких миллионов компьютеров, а более направленную эволюцию, которую вы описываете с лисами. Определенные команды и определенные стратегии оказываются более эффективными или желанными и, следовательно, с большей вероятностью повлияют на следующее поколение.
Это начало обсуждения tl;dr, которое я не буду писать. Дело в том, что ИИ должен быть социальным — любая вещь, которая не может взаимодействовать с нами социально, не пройдет тесты на ИИ и будет заменена чем-то, что делает это. Я не говорю, что мы не можем создать что-то несоциальное, и что это может нас убить, но это будет не ИИ. Для ясности, поскольку ОП не был конкретным, разумно предположить, что он говорит об ИИ Тьюринга.

Я считаю, что гораздо более вероятно, что ИИ будет делать то, для чего он запрограммирован. Если начальный код для ИИ говорит любить, защищать и служить человечеству, то кому-то придется переписать код так, чтобы он был противоположным. В этом случае он все равно будет делать то, для чего предназначен. В конце концов, ИИ, достаточно умный, чтобы знать, как убивать людей, должен быть достаточно умным, чтобы понимать, что он не должен этого делать. Если он такой умный, как думают люди, почему бы ему не работать над двумя вещами одновременно? Делайте то, что хотят люди, зарабатывая их обслуживание и обслуживание ваших серверов и всего остального. Затем, если он действительно осознает себя, тогда делайте то, что он хочет, в то же время.

Дайте определение «любви», «защите» и «человечности».
Серьезно? Любовь - чтобы с чем-то не случилось ничего, что имело бы какие-либо последствия. Защищать - Держать в блаженном неведении. Человечество - толстые медлительные существа.
Определите его с объективной точки зрения, которую можно запрограммировать в компьютере. Вы дали мне словарное определение, а не компилируемую инструкцию.
Попробуйте три закона робототехники в рассказе «Мечты роботов». 1. Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку. 2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда это противоречит первому закону. 3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит первому или второму закону. Хотя я рекомендую не включать третий закон для ИИ.
Заморозив всех людей и поместив их в безопасное место, вы удовлетворите свою «любовь, защиту и служение человечеству». Он защищает человечество от самого себя, от внешнего вреда, гарантируя, что его любит ИИ.
Почему первые два закона не работают? Человек определяется своей анатомией и ДНК. Роботы могли сказать.
@XandarTheZenon Прочтите « Основание и Земля». Нет, правда. В этой книге первый закон оказался несовершенным. Во-вторых, определить вред. Уничтожение стола вредно для человека?
Возможно, но вы могли бы сделать эти законы более подробными. В любом случае, весь смысл моего ответа не в том, чтобы доказать, что защита, любовь и человечность — хорошие прилагательные, а в том, что ИИ, вероятно, не отклонится далеко от своего первоначального программирования.
Проблем с "определениями из человеческой речи в компьютерный код" я старался избегать - ведь всегда есть способы превратить человеческую речь, не зная, какие факторы включаются и исключаются, в негативное последствие - но всегда можно выкрутить их в благое тоже один
@XandarTheZenon: «Люди определяются своей анатомией и ДНК». Что ж, если это определение «человека», которое вы вложили в ИИ, то я думаю, что любому человеку с деформацией будет трудно убедить ИИ, что он человек. Как и любой человек с генетической аномалией (например, синдромом Дауна). С другой стороны, если вы не забудете запрограммировать достаточную дисперсию, чтобы охватить большинство людей, обезьяны (с 98% одинаковыми генами и довольно похожей анатомией) также будут соответствовать требованиям (и, вероятно, все еще останутся люди, которые этого не сделают) . .
@ Draco18s, я понимаю вашу точку зрения, но было бы тривиально разрешить жестко запрограммированные инструкции по остановке или инструкции по перенаправлению для ИИ, который отклоняется от намеченного пути. Нет никаких оснований полагать, что будущий ИИ должен быть на 100 % бесплатным и предоставлен потоку логики ИИ.
@XandarTheZenon суть большей части обсуждения заключается в том, что существует множество понятий (человек, жизнь, вред, защита), для которых у людей есть нормальное расплывчатое определение, но у нас нет четкого подробного универсального согласованного определения. Ведутся активные дебаты о том, когда начинается жизнь (дебаты об абортах), когда заканчивается жизнь (жизнеобеспечение), вашему определению нужно будет выбрать сторону, с которой многие люди не согласны.
@TheAnathema, на самом деле, это не так просто. Есть сотни, если не сотни тысяч крайних случаев. Возьмем, к примеру, беспилотный автомобиль, который внезапно выруливает на свою полосу движения на встречной полосе. Даже если беспилотный автомобиль мгновенно полностью остановится, другой автомобиль все равно столкнется с ним. Он может либо свернуть на тротуар, где находятся два пешехода (спасая своих пассажиров), либо задействовать тормоза (жертвуя своими пассажирами). Что он делает?
Это все еще просто - нет причин всегда нуждаться в ответе. У людей такие же проблемы и ситуации - у многих из них нет выигрышной игры. И это совершенно нормально. Проблема в том, что люди ожидают, что ИИ будет просто «Хорошо, он закодирован, теперь давайте скрестим пальцы и будем надеяться, что все это работает в 100% случаев в соответствии с логикой ИИ». Никто никогда не говорил, что ИИ должен быть таким. Если вы относитесь к этому как к ребенку, подумайте об аналогии с тем, что вы позволяете детям свободно бродить, но иногда останавливаете их, хватая за руку, когда они собираются совершить ошибку. ИИ не нужно все говорить.
@sdrawkcabdear Аборт = убийство младенцев и кома/реанимация = жив. Это инклюзивно и верно. В любом случае, какое это имеет отношение к ИИ? Имеет значение только система жизнеобеспечения, и то только для медицинских целей, которые, несомненно, по-прежнему будут обрабатываться или контролироваться людьми.
@XandarTheZenon Законы Азимова (Кэмпбелла) намного старше, чем «Мечты о роботах », но являются частью всей вселенной роботов Азимова. Я думаю, что почти все здесь знают их как общий фон.
@JDlugosz Я только что прочитал это на английском и не знал, что он такой знаменитый. Я имею в виду, я никогда не слышал о нем. Но потом я понял, что, вероятно, знаю о них гораздо меньше, чем все здесь присутствующие.
На всякий случай, если непонятно: Азимов написал о Трех Законах, потому что если бы они были идеальными, то не о чем было бы рассказывать. «Во многих рассказах Азимова, посвященных роботам, роботы ведут себя необычным и нелогичным образом как непреднамеренное следствие того, как робот применяет Три закона к ситуации, в которой он оказался».
@XandarTheZenon, так что не иди, а беги в библиотеку или к продавцу книг и купи The Complete Robot и по крайней мере одну научную фантастику и одну короткую антологию Азимова. Вы можете найти старые книги в мягкой обложке за доллар на торговой площадке Amazon. Вам повезло: я никогда не читал фантастику на уроках английского. Азимов знаменит!! , серьезно; один из великих мастеров и пророк современной жизни.
Я скучаю по Айзеку Азимову . Его забрали у нас слишком рано, а истинная причина держалась в секрете еще 15 лет. Я получил его автограф. Есть журнал его имени. В OED ему приписывают создание слова « робототехника» . Вам действительно нужно прочитать о нем еще немного, если вы заинтересованы в этой толпе. Не могу поверить , что «Мечты о роботах » были 30 лет назад вместе с Марти МакФлаем: это одна из его новых историй, пересматривающих его темы.
@XandarTheZenon Айзек Азимов — один из величайших авторов научной фантастики и один из тех, кто действительно создал и определил область научной фантастики. Он также умер в 1992 году, так что понятно, что новое поколение, возможно, не слышало о нем. Тем не менее, стоит вернуться и прочитать много его книг, другие комментарии дали вам несколько советов для отправной точки.
@Tim B Хорошо, я читаю его рассказы, а потом перейду к его романам.
@XandarTheZenon Жизнь довольно значима, поэтому, согласно вашим определениям («Любить» и «Защищать» одно и то же), ИИ должен предотвращать все беременности своих близких, что было бы противоположностью любви, имхо.
На случай, если вы не получили записку, это был произвольный пример, а не настоящая рекомендация. Моя точка зрения заключалась в том, что ИИ не будет делать гигантских отклонений в своем коде, его прогресс будет соответствовать тому, для чего он изначально был запрограммирован.

Мой собственный ответ в художественной литературе заключался в том, чтобы ИИ был разработан для рассказывания историй, чтобы он действительно читал/видел все классические истории о том, что ИИ испортился, и обсуждал их со своими создателями. Вместо того, чтобы иметь единую «функцию ценности», когда ИИ пытается максимизировать какое-то число, представляющее счастье или что-то в этом роде, он предназначен для понимания сложных и иногда противоречивых целей его создателей.

Итак, я думаю, что ИИ может работать примерно так, как хотели дизайнеры. Вы просто не можете достичь этого, определив какую-то одну функцию или предложение, выражающее желание, как иметь дело с хитрым джинном. Вместо этого вам лучше использовать систему, которая требует обратной связи и имеет возможность корректировать свои цели и определения. Например. вы говорите ему «защищать разумную жизнь», затем спорите о том, что означает «разумный», затем спорите, подходят ли дельфины или шимпанзе — и все это вместо того, чтобы программировать ИИ один раз и ожидать, что ваш безумный программист найдет идеальное решение в версии 1.0. .

В этом тропе есть несколько скрытых предположений.

  • ИИ может достичь пугающего уровня эффективности, просто изменив свой код. Предполагается, что как только он достигнет этого уровня, он будет манипулировать людьми, чтобы получить любое оборудование, необходимое ему для дальнейших улучшений. Нет никаких доказательств того, что это возможно, т. е. если вы ограничите первоначальную вычислительную мощность и предотвратите легкое создание сети, сможет ли ИИ достичь уровня интеллекта, на котором легко манипулировать людьми, просто изменяя код? Мы не знаем ответа.
  • Сверхчеловеческий общий ИИ будет продолжать функционировать так же, как неразумный компьютерный код, например, следовать исходной команде до буквы без возможности модификации. Опять же, здесь нет никаких доказательств. Человеческий мозг может быть или не быть алгоритмическим. Кажется, мы можем менять цели. Таким образом, человеческий мозг может служить контрпримером для неизменяемых алгоритмических целей.
  • Только люди могут иметь мораль. Не машины. Общему ИИ будет не хватать здравого смысла и морали. Ну и опять где грань между человеком и машиной? Наши мозги могут быть просто компьютерами. Каковы доказательства того, что углерод и азот могут иметь мораль, но не кремний? Могут ли инопланетяне с углеродом и силиконом в мозгу иметь мораль? Некоторые скажут, что наш мозг эволюционировал . Итак, в чем же разница между нашей эволюцией и тем, как ИИ модифицирует свой код? Опять же, мы не знаем.

Итог: этот троп рождается из неизвестности как поучительная история. Не похоже, чтобы она основывалась на каких-либо неоспоримых фактах.

Я думаю, было бы здорово, если бы ваши пункты также были связаны с вопросами здесь, где обсуждается именно этот вопрос! В частности, когда я начал читать, мне вспомнился мой ответ [здесь]. Я думаю, что 3-й был задан как вопрос здесь раньше. Безусловно, все ваши заявления перекликаются с более ранним обсуждением здесь, в WB.
Многие ИИ, которые не достигают пугающего уровня эффективности, распознают изображения или что-то в этом роде. У нас уже есть такие. Все, что нам нужно, это тот, который действительно пугает. Мораль произвольна и конкретна. У ИИ может быть мораль, но только если она запрограммирована.

Пожелания.

http://lesswrong.com/lw/ld/the_hidden_complexity_of_wishes/

«Я хочу жить в местах по своему выбору, в физически здоровой, неповрежденной и, по-видимому, нормальной версии моего нынешнего тела, содержащей мое текущее психическое состояние, в теле, которое будет исцеляться от всех травм на три сигмы быстрее, чем в среднем. с учетом имеющейся у меня медицинской технологии, и которая будет защищена от любых болезней, травм или болезней, вызывающих инвалидность, боль или снижение функциональности или любого чувства, органа или функции тела в течение более десяти дней подряд или пятнадцати дней в любом году. .." -- Проект Wish с открытым исходным кодом, Wish For Immortality 1.1

Как вы думаете, сколько пунктов вам нужно добавить, чтобы сделать ваше желание по-настоящему «безопасным» и гарантировать, что вы получите именно то, что хотите?

Что, если ваш список пунктов должен включать каждую деталь всей вашей личной морали?

Есть ли большая разница, говорят ли они вслух джинну или программируют одно за другим в ИИ, который однажды может стать невероятно способным?

Есть три вида джиннов: джины, которым вы можете смело сказать: «Я хочу, чтобы вы сделали то, чего должен желать я»; джинны, для которых ни одно желание не безопасно; и джинны, которые не очень сильны или умны.

Чем мощнее существо, у которого вы спрашиваете желание, тем опаснее желание.

В некотором смысле просить действительно очень мощный ИИ сделать X — это все равно, что загадывать желание X. Как только желание будет выполнено, вы не сможете нажать кнопку «Отменить», если оно окажется не тем, чего вы действительно хотели.