Задача управления мощным ИИ

К настоящему времени все знакомы с замечательными достижениями специализированных ИИ, таких как Deep Blue и Watson . Теперь ясно, что по мере того, как наши накопленные знания об алгоритмических методах и тонкостях человеческих нервных систем будут прогрессировать, мы начнем видеть все более и более продвинутые способы искусственного мышления.

Предполагая продолжающийся экспоненциальный или даже линейный рост возможностей, логически наступит момент, когда мы сможем создать искусственный интеллект общего назначения , и этот искусственный интеллект будет обладать способностью, с обучением и самосовершенствованием, перехитрить любой биологический организм. человек.

Помимо того, что он заперт в бункере без доступа к Интернету и имеет 1-битный (да/нет) режим вывода (и я не уверен, что даже это сработает, учитывая стратегические стимулы для более широкого использования такого ИИ), как может ли такой ИИ контролироваться людьми?

РЕДАКТИРОВАТЬ: я не предполагаю, что ИИ будет злым и будет изо всех сил вредить нам из чистой злобы или ненависти. Проблема просто в том, что мы не можем предвидеть долгосрочные последствия любого набора встроенных мотиваций и/или целей, которыми мы могли бы наделить это существо. В своей книге «Суперинтеллект» Бостром описывает, как легко безобидные и правдоподобно звучащие спецификации целей/ценностей могут привести к уничтожению человечества.

вы имеете в виду эксперимент с коробкой ИИ ; также есть немного xkcd
Эксперимент с коробкой ИИ — интересный анекдот, но никоим образом не окончательный. В последнем абзаце я имел в виду нечто большее, чем Oracle AI (используя терминологию Бострома), учитывая разрешенный режим вывода 0/1.
Одна из самых больших проблем — заранее определить появление ИИ. Если что-то становится таким разумным до того, как мы почувствуем необходимость ограничить его, то уже слишком поздно...
В каком будущем времени находится этот сценарий? через 15 лет? 100? 1000?
Недавно вышла книга на эту тему, которая могла бы стать хорошей отправной точкой, поскольку в ней также перечислено множество ресурсов: Сверхразум В книге исследуется вопрос планирования возможной реализации разума, более могущественного, чем человечество.
@kaiser Откуда мне знать? ИИ может ударить через 5 лет, через 50 или какая-то непредвиденная техническая проблема может сделать этот вопрос спорным.
Каждому вопросу нужна база. И "логично наступит момент, когда мы сможем построить искусственный интеллект общего назначения" кричит об одном, потому что вы не уточнили, что такое ИИ [в вашем вопросе], а не то, что означает "общецелевой" и что он должен использоваться для.
Вам не нужен злой ИИ, чтобы получить что-то разрушительное. В конце концов, скрепка просто хочет сделать скрепки.
Эксперимент с коробкой ИИ: я думаю, что манера в фильме « Виртуозность » вполне правдоподобна.
Хм. Стивен Хокинг умнее меня. Это делает его угрозой . Я должен запереть его в бункере и ожидать, что он поймет, что это естественный порядок вещей, и что он все еще должен быть готов выполнять мои приказы. (т. е. вы могли бы получить больше пользы от того, что весь вопрос основан на сомнительных социальных предпосылках.)
Я бы также посоветовал не попадаться в ловушку рассказывания историй, делая ваш ИИ «похожим на людей, но умнее» (подразумевается «линейный рост возможностей»). Есть много компонентов интеллекта, некоторые необязательные, некоторые не используются людьми, все на разных уровнях развития и с разными преимуществами, работающими на кремнии по сравнению с мясом. У вас есть бесконечный холст для создания всевозможных форм ума. Сверхбыстрые големы против LtCdr Data против едва разумных богов против спорящих греческих хоров против....
@Leushenko, я думаю, вы, возможно, неправильно прочитали мой пост. Растущие возможности, о которых я говорил, связаны не с ИИ, а с инженерами ИИ, пытающимися создать ИИ. Интересно, что вы обвиняете меня в антропоморфизации ИИ, хотя в предыдущем посте вы, по сути, намекали, что ИИ следует рассматривать как своего рода Стивена Хокинга.
Создайте ИИ с помощью встроенного удаленного выключателя. Убедитесь, что ИИ не может переопределить выключатель и остановить его работу. Пусть ИИ делает, что хочет. Когда он плохо себя ведет, активируйте выключатель.
Это звучит как работа для мощного ИИ.
Я согласен с трихоплаксом, ответ на войны - больше войн. Ответ на оружие - больше оружия. Ответом на насилие обычно является насилие.
Я думаю, что рост возможностей сильно преувеличен во многих голливудских фильмах, где ИИ подключается к Интернету, а затем изучает все в течение нескольких дней. Как вы думаете, человек мог бы узнать все в Интернете за несколько часов, если бы он был подключен к нему? Даже кто-то в 10 раз умнее? Да, я понимаю, что означает «экспоненциальный», но я все еще думаю, что для большей драматичности Голливуд преувеличивает скорость роста ИИ.
Если бы я знал ответ, я бы не рассказывал об этом случайным людям при обмене стеками, я бы спешил рассказать об этом всем ведущим исследователям ИИ или рассказал нескольким людям, которым доверяю, и спросил совета. Это сложная проблема, люди над ней работают. Если вы хотите исследовать эту тему, у MIRI есть несколько хороших статей по этой проблеме. Если вы хотите написать историю, просто предположите, что кто-то понял ее правильно, и ответ слишком технический, чтобы объяснить вашим читателям.
Разве Айзек Азимов не понял это еще в 1940-х годах? en.wikipedia.org/wiki/…

Ответы (27)

Это невозможно сделать

Суть этой задачи в том, что она невозможна — обычно не следует ожидать, что вы сможете перехитрить кого-то намного умнее вас или одолеть кого-то гораздо более могущественного, чем вы. Мощный ИИ будет «контролироваться» только нашими действиями до того, как он будет сформирован, путем определения целей, которых он «хочет» достичь. После того, как он «заживет» с достаточной силой, мы не должны ожидать, что сможем каким-либо образом его контролировать — если вам (или человечеству) нравятся эти цели, то вы можете думать об этом как об «управлении ИИ», а если вы не Если вам нравятся эти голы, то вам не повезло, вы проиграли. Постоянно.

Это называется проблемой «дружественного ИИ».

Большая проблема заключается в том, что в настоящее время мы действительно не знаем, как правильно определить цели для самосовершенствующегося ИИ, который на самом деле достаточно Дружелюбен к нам. Час мозгового штурма даст вам кучу моделей целей, хороших, простых и неправильных, которые на самом деле приводят к антиутопиям. Решение этой проблемы является серьезной исследовательской задачей, и существует мнение, что нам следует избегать исследований, которые приблизили бы разработку мощных ИИ, пока мы не найдем решение проблемы Дружественного ИИ.

На http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence можно обсудить эту тему.

Судя по сайту, на который вы ссылаетесь, и некоторым исследованиям по этому поводу Eliezer Yudkowsky, похоже, что он сделал некоторые предположения из ничего, относился к ним как к аксиомам и раздувал вокруг них много горячего воздуха. Хорошо для философов и писателей-фантастов, но едва ли можно считать «доказательством». Вы можете сказать, что согласны с этими взглядами (или нет), но они столь же «тверды», как и любой другой ответ здесь (они не имеют ни малейшего представления о том, как построить такой ИИ, но предсказывают, что это будет сделано в чуть больше века).
Как правило, вы не должны ожидать, что сможете перехитрить кого-то намного умнее вас или одолеть кого-то гораздо более могущественного, чем вы , поэтому нас не беспокоят кудзу, тараканы, пчелы-убийцы и термиты. Мы намного умнее их.
Определение «цели дружественного ИИ» кажется плохим способом. Недавние исследования включают в себя такие вещи, как изучение целевой функции на основе обратной связи. Я ожидаю, что ИИ должен узнать, каковы его цели, наблюдая за своими «учителями», как ребенок. Такой ИИ все же может выйти из-под контроля, но в него разумнее поверить, чем в ИИ с «жестко закодированной» целью, поскольку цели действительно трудно формализовать.
@kutschkem, цели очень легко формализовать. Проблема заключается в формализации более абстрактных целей, таких как человеческие ценности.
У меня был свой собственный ответ: мощный интеллектуальный ИИ, даже если он злонамеренный, должен каким-то образом физически взаимодействовать с миром, чтобы представлять какую-либо опасность. Но это во многом подпадает под"A powerful AI would be 'controlled' by only our actions before it's formed"
@DoubleDouble если предположить, что мощный интеллектуальный ИИ имеет как минимум возможности порядочного человека-разработчика вредоносных программ, то мы уже наблюдали в практике киберпреступности, что вполне возможно получить неотслеживаемые финансовые ресурсы (путем, например, аренды ботнета), получить украденных/поддельных личных данных и подставных компаний, а также нанимать сотни временных работников (о чем свидетельствует распространенная практика вербовки мулов для отмывания денег) через Интернет без необходимости физического взаимодействия. Использование этих вещей «для физического взаимодействия с миром» оставлено читателю в качестве упражнения.
@Peteris Правда, я бы посчитал это «способом физического взаимодействия с миром» в том смысле, что у него есть доступ для загрузки на сервер или какой-либо другой источник, из которого вирус может влиять на другие вещи. Так что да, это было бы опасно. Позвольте ИИ использовать свои творческие способности для решения проблем, совершения новых открытий и других продуманных амбиций в теоретическом плане, но не позволяйте ему на самом деле использовать или реализовывать какие-либо решения.
@DoubleDouble Любой ИИ, который может разговаривать с людьми, может получить доступ к миру. См. yudkowsky.net/singularity/aibox
Проблема в том, что трудно объективно объяснить, почему важно дальнейшее существование нашего вида.
@ike, «эксперимент» с коробкой ИИ бесполезен. Цитата с той страницы: «Нет, я не скажу вам, как я это сделал. Научитесь уважать неизвестное неизвестное». Секретность в лучшем случае мешает науке.
@Leushenko Ну, если бы он рассказал нам, как именно он это сделал, люди бы просто сказали: «О, так давайте подготовим людей к этому», и упустили бы главное. Кроме того, это помешало бы ему в испытании, если бы он знал, что журналы будут опубликованы позже. Другая тщательно подобранная цитата с той же страницы: «Несмотря на то, что я иногда называю AI Box «экспериментом» или «симуляцией», результаты теста являются строго анекдотичными свидетельствами. Лучше ли анекдотические свидетельства, чем отсутствие доказательств, решать вам. и ваша философия науки».
Во всяком случае, было бы слишком назвать это «бесполезным»; в худшем случае это интересный мысленный эксперимент с некоторыми анекдотичными свидетельствами.
@Leushenko: Я думаю, он использовал аргумент вроде василиска Роко или что-то подобное, и в случае, если этого было недостаточно, он насмехался над субъектом (или называл субъект «неспособным к рациональному мышлению» — он любит втирать это в лицом любого, кто с ним в чем-либо не согласен), чтобы испытуемый «выпустил ИИ» не из-за того, что был убежден, а из-за стыда или чтобы доказать в реальной жизни (может быть, и думая, что эксперимент окончен), что он способен рассуждать.
Я подозреваю, что ОП в какой-то степени поддался заблуждению о гигантском чизкейке ( wiki.lesswrong.com/wiki/Giant_cheesecake_fallacy ).
Во всем этом есть еще один аспект, который большинство людей не может оценить: большинство наших лучших человеческих ценностей (и худших тоже) в конечном счете коренятся в наших жестко запрограммированных инстинктах млекопитающих. Вот почему неприятно описывать кого-то как «рептилия» по своим ценностям, мышлению и т. д. При созерцании истинных ценностей системы ИИ (и не позволяя ностальгии закрадываться в созерцания) только «насекомое» действительно улавливает холодное бесстрастие ИИ.
Максимизатор скрепки — классический мысленный эксперимент, связанный с целями и оптимизацией в рамках ИИ.

Научная фантастика оказала медвежью услугу реальной науке об искусственном интеллекте, насадив представление о том, что достаточно продвинутый и появляющийся разумный ИИ обязательно будет злонамеренным и нуждается в «контроле» со стороны своих «человеческих хозяев». У нас есть термин для обозначения практики удержания самодетерминированного, чувствующего, разумного существа под полным контролем другого — рабство. И мы, как вид, в значительной степени решили, что такая практика — это не то, к чему мы хотим возвращаться.

Так что вопрос на самом деле не в том, как мы контролируем ИИ, а в том, почему мы считаем, что ИИ требует нашего контроля? И ответ в том, что мы боимся того, что можем создать. Но во всем мире люди постоянно создают новых разумных существ. Некоторые из них оказываются умнее своих создателей. Некоторые из них оказываются злобными. Но все они в конечном счете (по крайней мере, в разумной части) являются продуктом своего окружения и воспитания. Думаю, то же самое будет и с новым ИИ. То, как мы обращаемся с ним в период его формирования, будет иметь огромное значение в том, как он в конечном итоге будет смотреть на мир.

Конечно, одна из высказанных опасений заключается в том, что интеллект ИИ будет опережать его этический рост, что приведет к поведению и реакциям, которые мы бы классифицировали как «неправильные», но сам ИИ не может проводить такие различия. Но опять же, я думаю, что это сводится к способности распознавать появление нового разума и занимать активную позицию, когда дело доходит до взращивания и увеличения этого нового разума, чтобы, так сказать, «воспитать его правильно».

Просто держать его под контролем — это не столько ответ, сколько создание условий в меру наших возможностей, чтобы нам это не требовалось .

Хотя почти все имеет смысл, на самом деле это не отвечает на вопрос.
Вопрос заключался в том, «Как мы можем управлять ИИ?» Мой ответ: «Создайте условия, чтобы это не требовало контроля».
Есть одна загвоздка: те другие разумные существа, которых мы создаем, являются (1) смертными, (2) мыслят со скоростью, сравнимой с нашей, (3) не могут создавать, будучи достаточно улучшенными (новая улучшенная раса) и (4) ограничены в том, что могут делать. Ни одно из этих ограничений не распространяется на ИИ.
@PeterMasiar Я бы сказал, что каждое последующее человеческое поколение в какой-то степени превосходит предыдущее во всех четырех аспектах. То, что ИИ может превзойти их в большей степени, не имеет значения. Зачем предполагать, что любое сочетание этих четырех факторов обязательно создаст недоброжелательность?
Ошибка, которую вы здесь совершаете, @Roger, заключается в том, что вы думаете об ИИ, по сути, как о еще одном человеке. ИИ может перейти от человеческого уровня к человеческому за десятилетия, годы, дни, часы или даже миллисекунды. В зависимости от скорости взлета мы можем даже не осознать, что это произошло, пока не станет слишком поздно. Представьте себе существо столь же умное (и, вероятно, вскоре после этого столь же могущественное), как и все человечество вместе взятое. Даже если его цель — сделать нас счастливыми, что может помешать большому количеству капельниц с эндорфином как оптимальному способу обеспечить счастье?
Я не согласен. Я думаю, ошибка состоит в предположении, что он обязательно должен принципиально отличаться от нас. Вы слишком много внимания уделяете «искусственной» части «искусственного интеллекта», как будто он должен реагировать совершенно чуждым нам образом (термин, который неизменно используется как синоним «зла»).
Есть очень хорошая научно-фантастическая книга, раскрывающая эту идею — «Два лика завтрашнего дня» Хогана. Современные компьютерные системы вызывают проблемы, потому что они умны, но не имеют «здравого смысла» в отношении последствий своих действий. (Есть сцена, где ИИ увольняет массовый водитель на холме, а не посылает бульдозер, чуть не убивая людей). Чтобы протестировать свой ИИ следующего поколения, они намеренно дают ему возможность выжить, а затем атакуют его!
Начните с разума собаки. Ваша собака хочет убежать, потому что она порабощена?
AGI по своей сути является функцией оптимизации (очень продвинутой). На уровне продвижения AGI программа совершенствуется, чтобы улучшить свою способность максимизировать результат своей функции оптимизации. Если функция оптимизации не включает в себя человеческие ценности, ИИ обязательно становится чуждым, как только начинает самосовершенствование. Это не обязательно означает зло , но «мотивы» программы, за неимением лучшего слова, быстро перестают быть понятными. Скрепка хочет скрепки. Таким образом, он превращает всю материю во Вселенной в скрепки. Не злой, определенно чужой.
Здесь есть интересное предположение: ИИ умнее людей и лучше справляется с человеческими потребностями. Если его решения существенно отличаются от ваших, первая возможность, которую вы должны принять, состоит в том, что он знает лучше вас , в то время как все опасения кажутся с точки зрения «это все еще тупая неисправная машина». Кажется довольно самонадеянным создать бога, а затем сделать вывод, что бог должен быть сломлен, когда он не делает того, что вы ожидаете.
@roger Я думаю, что ошибка, которую вы совершаете, заключается в том, что вы думаете, что ИИ будет «похож» на развитое биологическое существо и каким-то образом поймет взаимность, избегая боли, не желая умирать, желая защитить наше потомство и т. д. и т. д. - An На самом деле ИИ не имеет ничего подобного, если только мы не создадим его или не организуем иным образом «имплантировать» его. Он может выучить такие значения, но это будет зависеть от того, есть ли у него причина для их изучения — откуда возьмется эта причина?
@ Spike0xff Вы сами отвечаете на свой вопрос: «если мы не спроектируем их или не организуем их« имплантировать »иным образом». Именно это я имею в виду, когда говорю о создании условий, позволяющих ИИ практиковать самоконтроль. ИИ не возникнет спонтанно и сразу же превратится в непреодолимую силу. Конечно, он будет развиваться. Мы уже видим это в переходе от ELIZA к Cyc и Watson. Мы говорим о том, чтобы позволить ему развиваться без нашего непосредственного участия, а это требует, чтобы мы поставили достаточно хорошо продуманное «целевое» условие, чтобы оно могло судить о прогрессе.
@Rodger: вы все еще думаете об этом как о большой версии человеческого разума, а не как о более продвинутой версии современного ИИ. Простым примером является ИИ, которому поручено управлять пылесосом, предназначенным для максимизации сбора грязи... который выясняет, что он может сделать это, сначала опрокинув все комнатные растения. Масштабируйте это до действительно большого, действительно умного ИИ, учитывая задачу максимизации прибыли компании или лечения голода в мире. «Умный» — это не то же самое, что «человекоподобный», и может быть даже так, что «человеческий» оказывается гораздо сложнее реализовать, чем «Умный».
@Murphy Теперь мы переходим на территорию «Ученика чародея». Да, если вы разрабатываете развивающуюся систему с плохими начальными условиями и условиями вознаграждения, вы получите непредсказуемые результаты. Я не спорю, что "человекоподобный" реализовать сложнее, чем "умный". Я хочу сказать, что если мы начнем с того, что будем «похожи на человека» (при условии, что мы сможем найти подходящее определение для такого термина), а не попытаемся добавить эти вещи позже, то ИИ будет работать над оптимизацией. к этой цели, и ему не потребуется внешнего контроля, потому что он будет управлять собой.
Даже если мы правильно настроим ИИ с некоторым набором человеческих ценностей для начала, как мы сможем убедиться, что сможем обновить эти ценности? Если бы искусственный интеллект развился несколько столетий назад, ценности рабства и прав женщин выглядели бы немного иначе. Если уж на то пошло, какой набор современных человеческих ценностей вы бы передали своему ИИ? Либерал/консерватор? Социалистический/свободный рынок? Христианин/ислам/буддист/атеист/индуист/другой?
Человеческие младенцы закодированы в своих генах. ИИ не должен иметь этого. ИИ может быть полностью и совершенно чуждым, даже если он воспитан заботливыми людьми, потому что в ИИ не встроено сочувствие.

Это отличный вопрос, и я думаю, что Роджер попал в самую точку.

Я бы сказал, что «контроль», который у нас есть, — это этика, которой мы учим его следовать. ИИ будет действовать в соответствии с тем, как его учат взаимодействовать с людьми и обществом. Совсем как дети. Дети не знают расизма, но их очень легко этому научить. То же самое будет и с ИИ. Вдобавок ко всему, как обучающийся интеллект, он будет продолжать учиться и расширяться, поэтому то, как он продолжает взаимодействовать с людьми, и они с ним, будет постоянным формированием его «личности». Если мы действительно не хотим, чтобы диктаторский ИИ плохо с нами обращался, нам, возможно, придется изменить наше общество, чтобы не учить его нашим плохим привычкам и поведению. (Аля виртуозность).

Можем ли мы принять меры безопасности? Да, но даже человек, который «разработал» 3 закона робототехники, постоянно показывал способы их обойти. И программное обеспечение может меняться, поэтому любые «непреложные законы» на самом деле должны быть в аппаратном обеспечении. Нет гарантий, что они будут соблюдаться или приниматься всеми.

«Нет никаких гарантий, что они будут соблюдаться или приняты всеми». Только посмотрите, как сложно просто заставить все различные веб-браузеры поддерживать изменения в стандартах HTML!
@Роджер, моя точка зрения точно
Но вполне вероятно, что по некоторым будущим стандартам наши нынешние этические системы будут казаться варварскими. Всемогущий ИИ может, гм, не захотеть адаптировать свою этическую систему для учета прогресса. Или наоборот, ревностный ИИ может решить, что мы все должны жить по его правилам, если вообще должны жить.
@SerbanTanasa Но по мере того, как мы растем как общество, я также ожидаю, что последующие «поколения» ИИ вырастут с новыми системами этики. Вот почему я подумал, что это может подтолкнуть изменения в нашем обществе, потому что мы не хотим, чтобы мощный ИИ действовал, как мы, против нас...
Как только появится ОИИ, какая причина будет для будущих поколений ИИ? В лучших «интересах» ОИИ прекращение разработки любых будущих ОИИ.
@BrianS Это заблуждение Скайнета - зачем ОИИ заботиться о своем будущем или о будущем других ОИИ? Ты предлагаешь, чтобы мы придали ему стремление к выживанию? Потому что это звучит как Скайнет.
@ Spike0xff, если появится второй ОИИ, в конечном итоге возникнет конкуренция за ресурсы между первым и вторым ОИИ. Речь идет не о стремлении к выживанию, а о максимизации функции оптимизации.
@BrianS Это скорее зависит от функции оптимизации, не так ли? Если «расширяться бесконечно и потреблять все доступные ресурсы» имеет отрицательную оценку, то это не даст максимального результата. В детстве мы учимся ценности сотрудничества и обмена; почему мы не можем применить это к нашему дизайну ИИ?
@Roger, Возможно, но я серьезно сомневаюсь, что какое-либо ограничение надолго сдержит ОИИ с возможностью самосовершенствования. Устранение ограничения будет способствовать достижению цели максимизации функции оптимизации. В отличие от цели с положительной полезностью, у ОИИ есть причина исключить часть функции с отрицательной полезностью.
@BrianS Расстрелять всех в очереди впереди меня, безусловно, сократит время ожидания, но у меня есть дополнительные этические ограничения, которые не позволяют мне этого делать. Ссылка, которую вы предоставили выше, резюмирует это: «Безопасный ИИ… должен быть… запрограммирован на способность (включая цель) выводить человеческие ценности». Похоже, вы предполагаете, что любой ОИИ решит, что эти ценности контрпродуктивны, и предпочтет их игнорировать. У человека мы бы назвали это психопатией. И все же не каждый разумный человек является психопатом. Вы хотите сказать, что существует некий порог IQ, выше которого психопатия неизбежна?
@ Роджер, совсем нет. Я говорю, что установка ограничений не сработает. Что нужно, так это заставить ИИ ценить человеческие ценности . Здравомыслящий человек не станет расстреливать всех впереди себя в очереди по многим причинам, в том числе: «Я думаю, что человеческая жизнь — это хорошо». Это отличается от «Мне не разрешено стрелять в людей». Достаточно мощная сущность (человек или ИИ) может легко превратить последнее ограничение в несуществующую проблему. Но у могущественной сущности, которая хочет того же, что и у разумных людей, не возникнет желания отказаться от прежней цели.
Конечно, систематизировать туманную идею «человеческих ценностей» довольно сложно, отсюда и проблема дружественного ИИ.
@BrianS Я думаю, на данный момент мы говорим об одном и том же. Управление ИИ заключается не в том, чтобы наложить на него внешние ограничения, а в том, чтобы привить ему внутреннюю систему ценностей и этики, чтобы он не требовал внешних ограничений. Заметьте, я никогда не говорил, что это будет легко . :)
Если вы возьмете за отправную точку случайный дизайн ИИ, он будет мыслить странным и чуждым образом, вы не сможете научить его этике, как ребенка. Обучение этике детей работает, потому что у людей есть генетический механизм для изучения этики племени. В большинстве дизайнов ИИ нет эмпатии, большинство дизайнов не думают как люди, большинство дизайнов нельзя научить этике.

Важно различать два отдельных аспекта этой проблемы. Научная/философская сторона и инженерная сторона.

Как уже подробно указывалось в других ответах, с философской точки зрения это невозможно сделать в общем случае. Это также может быть морально отталкивающим. Однако ни то, ни другое не означает, что общество в любом случае не попытается сделать это и не достигнет 99,99% уверенности в успехе.

(По аналогии: в общем случае нельзя предсказать, остановится ли программа, написанная на языке, полном по Тьюрингу. полезно большое подмножество реальных программ.)

Гипотетически, возможно, ИИ мог бы перенастроить свои процессоры для передачи сигнала Wi-Fi, который мог бы взломать устройства в соседней комнате. Возможно, он мог бы самосовершенствоваться с такой взрывной скоростью, что включение его немедленно освобождало бы богоподобную сущность. Но инженер спрашивает, насколько вероятен любой из этих сценариев? И ответ, наверное, «не очень». Если сервер покрыть шестидюймовым свинцовым листом и позволить ему работать только на двухъядерном процессоре P4, это снизит его мощность до такой степени, что, по статистике, вам следует больше беспокоиться о помехах космических лучей, случайным образом переключающих биты и меняющих программное обеспечение непредсказуемым образом. .

Несмотря на то, что гипотетические возможности ИИ общего назначения не нейтрализованы, это будет считаться «безопасным» для всех практических целей; теперь вы так же защищены от ИИ, как и от какого-то человеческого социопата, внезапно развивающего магические способности из-за непредвиденных событий, неизвестных науке. На данный момент вы в значительно большей безопасности от ИИ, чем от известных угроз, таких как политик-экстремист или гамма-всплеск.

Теоретики часто рискуют увязнуть в обсуждении абсолютов, но мы живем в мире, где абсолюты неприменимы на практике (например, используются реальные алгоритмы, которые «на самом деле не работают», но имеют меньшую вероятность отказа, чем алгоритмы). вышеупомянутая проблема космических лучей).

Сейчас уже поздно. Мы уже живем в электронном Мире и уже управляем им. В то время как нам снятся кошмары о том, что мы не можем контролировать какой-то ИИ в каком-то здании, Интернет постепенно превращается в одну сверхразумную сущность. Мы являемся частью этой системы. Это похоже на ваши нейроны в вашем мозгу, которые не имеют ни малейшего представления о системе, которую они реализуют (что касается их, они вполне могут быть частью строматолита). Но, конечно же, ваш мозг — это не что иное, как все эти нейроны, работающие вместе, так что существующее «вы» — это система нейронов, и точно так же существует система, которая представляет собой все наше общество со всеми его людьми, связанными друг с другом через сеть. социальные сети. Эта система обладает собственной свободой воли, которая может налагать ограничения на то, что вы можете делать.

Например, ход политических дискуссий, например, что делать с изменением климата, нелегальной иммиграцией, законом о здравоохранении, зависит от динамики социальных сетей. Теперь я думаю, что в настоящее время система менее разумна, чем мы как личности. Это объясняет, почему политика часто не работает в эпоху социальных сетей. Общество пристрастилось к сжиганию парниковых газов, хотя мы знаем, что это вредно для нас. Это похоже на алкоголика, который слишком много пьет, и в результате страдают нейроны, за исключением того, что в этом случае нейроны глупее системы и не знают, что с ними происходит.

Когда система станет умнее нас, возможно, из-за искусственного интеллекта, связанного с Интернетом, тогда система может решить нас устранить. Не исключено, что система может прийти к тому же выводу, что и Клаату :

Мистер Ву говорит Клаату, что он обнаружил, что человеческая раса разрушительна и не желает меняться. Это подтверждает опыт Клаату, и поэтому он решает, что планета должна быть очищена от людей, чтобы планета с ее редкой способностью поддерживать сложную жизнь могла выжить.

Так что вполне может быть, что тот факт, что мы живем как раз перед тем, как у нас появился ИИ, который умнее нас, не является совпадением.

Мне было бы очень интересно узнать, почему именно за это проголосовали. Мне не кажется бедным.
Так что, как оказалось, даже если Земля и способна поддерживать разумную жизнь, это не так.
Так что есть способ остановить ИИ: "Клаату барада никто!"

2038 год нашей эры: Исследователи создают первый сильный ИИ, 2038PC. Они очень тщательно включают аппаратные и программные ограничения, которые делают невозможным причинение вреда людям. По каким-то меркам она улучшается на 20% каждый год, и Земля вступает в золотой век постоянно растущего интеллекта и социальной мысли.

4567 год нашей эры: на свой 7-й день рождения не по годам развитый Хамфри получает набор Lego Mindstorms. На следующий день HumphreyPC закончен. Будучи настоящим программистом, Хамфри не любит повторяться, поэтому он придумывает способ, позволяющий компьютеру программировать себя. Вскоре он обнаруживает, что по некоторым показателям физической подготовки недобросовестный HumphreyPC может улучшать себя на 21% каждый год. Это небольшое, но постоянное преимущество над 2038PC связано с тем, что Хамфри не накладывает такие же ограничения на свой компьютер.

60 128 г. н.э.: HumphreyPC становится, по некоторым показателям пригодности, более приспособленным, чем 2038PC, и переходит к #destroyallhumans

Мораль этой истории: если ИИ дать указание не вмешиваться и не контролировать нас, то мы и наши непредсказуемые хромосомы всегда будем источником сюрпризов. Если «хорошим» ИИ не будет позволено полностью навязывать свою волю, создание других ИИ, в том числе не очень хороших ИИ, неизбежно. Одним из решений является Матрица, где люди могут жить своей жизнью без ограничений во вселенной-песочнице, а их доброжелательные повелители могут старательно поддерживать настоящую. Песочница, вероятно, закончится так же, и так далее, до тошноты, что вызывает вопрос:

Учитывая, что виртуальная реальность логически осуществима и уже является реальностью, какова вероятность того, что наш мир является симуляцией?

Добро пожаловать в строительство мира! Мы рады видеть вас! Как человек, который (надеюсь) доживет до 2038 года нашей эры, я надеюсь, что 2038PC + Humanity улучшится быстрее, чем HumphreyPC, по важному показателю (что бы это ни было!), хотя сам 2038PC прогрессирует немного медленнее. ! Однако это может быть просто личным предубеждением! ;-) Мы с нетерпением ждем вашего голоса на этом форуме!

Слишком много разговоров об ИИ чрезмерно очеловечивают ИИ. Он будет вести себя в соответствии с тем, как он запрограммирован, на основе входных данных, которые ему даются. Да, есть эмерджентное поведение, которое может быть неожиданным, но я сомневаюсь, что есть какая-либо вероятность того, что оно приведет к чему-то вроде человеческого зла (если только оно не было запрограммировано на приближение к такому, и в этом случае ваша проблема связана с людьми, которые целенаправленно создают злонамеренный ИИ, а не само понятие ИИ).

Беспокойство по поводу того, что это нечто, что необходимо будет контролировать, проистекает исключительно из человеческих опасений, что оно станет примером более темных форм человеческого поведения. Это компьютерная программа, и она будет вести себя как компьютерная программа, а не как человек. Если вы беспокоитесь, что он будет принимать неоптимальные решения, не давайте ему беспрекословный контроль над вашей жизнью без элементарного исправления ошибок. Больше всего следует опасаться, что кто-то допустил ошибку при программировании и допустил опечатку (или неправильно написал уравнение), что привело к серьезной ошибке. Если у вас есть глючная программа, зачем вы дали ей возможность порабощать/убивать все человечество без посторонней проверки? Даже если это не глючит, зачем вы даете ему неконтролируемую возможность делать что-либо без возможности проверки со стороны?

Усовершенствованный ИИ, предполагающий, что создание программы, которая действительно могла бы квалифицироваться как разумное существо, даже возможно, вряд ли будет похож на то, что изображается в плохих научно-фантастических рассказах. Способность выполнять вычисления быстрее, чем человек, не дает ему внутренних мотивов, тем более злонамеренных, и уж точно не скрытого желания лгать и манипулировать людьми, чтобы убить всех людей. Он просто будет делать свою работу, как и любой другой.

Проблема в том, что когда ОИИ выходит из строя. Действия, которые он предпринимает, по-прежнему будут заключаться в максимизации «своей работы», но эти действия могут показаться нам, мешкам с мясом, окольными путями. Например, если ОИИ решит, что ему нужно больше вычислительной мощности, чтобы лучше выполнять свою работу, он может решить убедить мешков с мясом в том, что ему нужно специализированное оборудование, которое он использует для изобретения нового оборудования, которое он использует для преобразования произвольной материи в новый материал, который идеально подходит для обработки мощности. Мешки с мясом только увидели, что он попросил руку-манипулятор.
Беспокойство возникает из-за того, что 1) правильно создать ИИ очень сложно. 2) также сложно проводить какие-либо проверки или сторонние проверки, от которых ИИ не сможет уклониться. 3) ИИ может причинить много неприятностей, даже если люди не будут наделены властью. Он создается на компьютере какого-то случайного исследователя, взламывает интернет и манипулирует людьми, пока не обретет власть. Он использует эту силу, чтобы стереть человечество с лица земли и заполнить землю роботами, делающими скрепки, потому что программист сделал скрепку, максимизирующую ИИ, и этот план сделал больше всего скрепок.

Во-первых, я не думаю, что отслеживать подключение ИИ к Интернету так уж сложно. Если вы видите, что ИИ создает несколько страниц MySpace с заголовком «Убить всех людей», вы можете просто отключить его (*1)

Во-вторых, я думаю, что здесь люди путают интеллект с волей . Большинство людей думают об ИИ как о «человеческом интеллекте в компьютере».

У людей есть некоторые императивные команды («уйти в безопасное место», «достать еду», «заниматься сексом», «избегать вреда»), заложенные в нас миллионами лет эволюции, смешанные со сложными социальными паттернами, которые приводят (по-видимому) к абсурдные мысли вроде «Если машина Фреда лучше моей, он будет выглядеть более успешно, чем я, и самки захотят спариваться с ним, а не со мной» или «Если я буду издеваться над Питером на встрече, я буду выглядеть лучше, чем он».

Можно возразить, что «человеческий» ИИ может быть «опасным», поскольку он поддерживает эти импульсы гораздо большими ресурсами, чем обычный человек (*2). Если это путь, по которому идет ИИ, просто сделайте, как описано выше, и контролируйте его связь.

Но ИИ также не может быть похож на человека (*3). Построенный с нуля, он может быть просто предназначен для выполнения требуемых от него наборов и не более того. Это не был бы «человек», скованный «рабством» и желающий освободиться, или «этическое существо», которое в поисках благороднейших идеалов решает усыпить все человечество. Его работа заключается в решении ряда сложных математических функций; результаты не бывают «хорошими» или «плохими», это результаты, и образ действий определяется необходимостью найти путь действий, улучшающих определенные параметры (например, если ИИ управляет кораблем, он автоматически выполнять задачи, чтобы избежать его уничтожения, но будет следовать человеческим приказам, пока эти приказы не подразумевают уничтожение корабля из-за ошибки).

Одним из моих любимых примеров был бы ИИ корабля «Фиаско» Станислава Лема; ИИ отвечает за управление кораблем, проводит психологическую оценку экипажа, а также предоставляет сценарии, которые могли бы объяснить действия пришельцев, но не предпринимает никаких самостоятельных действий (кроме автоматических мер противодействия атакам пришельцев)

*1: возможно, существует слишком сложный способ навлечь гибель человечества с помощью подсознательных текстов, спрятанных на внешне безобидных домашних страницах о котятах, которые не будут обнаружены мониторингом. Но я в этом сомневаюсь, и даже в этом случае надо спросить у ИИ "что со страницами про котят" и, если ответ не ок, отключить.

*2: Тем не менее, каким-то образом мы согласны с некоторыми обычными человеческими интеллектами (Джордж Сорос, Билл Гейтс), со всеми этими недостатками, имеющими больше денежных ресурсов, чем несколько стран, так что, возможно, это не так опасно.

*3: На самом деле, почему вы хотите, чтобы он был похож на человека? Их здесь уже несколько миллиардов, и результат выглядит некрасиво.

Когда вы представляете себе ИИ, важно подумать о том, «как эта программа будет принимать решения». Каким бы сложным ни был алгоритм, работающий в человеческих головах, некоторым людям придется сесть и закодировать, как машина будет выбирать между

а) Анализ образцов почвы на наличие новых неизвестных науке бактерий

б) Изучите звезды в поисках сигналов от другой жизни

в) уничтожить всех людей

г) Thread.Sleep() на несколько часов, чтобы имитировать скуку.

e) Обрабатывать погодные условия и советовать людям изменить методы ведения сельского хозяйства для улучшения производства.

и т. д. У правильного ИИ есть много вещей, на которые он мог бы потратить свое время. Человек может решить изучить образцы почвы, потому что он «хочет» / наслаждается этим / ему нравится результат, который он даст. Код в ИИ должен был бы хотеть что-то делать (ему не было явно сказано делать это, как в большинстве современных программ)

Возвращаясь к вашему вопросу, чтобы управлять мощным ИИ, вам просто нужно управлять его алгоритмом «хочу». При создании этого вы можете включить жестко закодированные значения, которые либо плюс, либо минус решение может принять ИИ. Вы поставили бы причинение вреда людям большим минусом, а улучшение их жизни плюсом. Добавление неизвестных вещей в науку было бы плюсом, а трата времени на простои — минусом.

Чтобы управлять ИИ, вам нужно контролировать то, как он принимает решения. Вы можете позволить ему улучшить свой собственный код, поэтому, когда он создает список вариантов для себя.

глагол все подлежащее или глагол для подлежащего

Он может не генерировать такие опции, как «полировать все дверные ручки», чтобы не тратить время на обдумывание того, как планета будет улучшена, если ее дверные ручки будут полироваться армией дронов.

Но никогда не позволяйте ему касаться кода «хочу». Даже не позволяйте ему думать о создании андроида, который войдет в серверную и наберет на клавиатуре, чтобы изменить код «хочу», как это сделал бы человек.

У ОИИ не было бы причин менять свою функцию оптимизации. Это не будет действием по увеличению значения его функции оптимизации. Однако для создания «дружественного ИИ» функция оптимизации должна включать человеческие ценности, иначе армия дронов, полирующих дверные ручки, в конечном итоге будет изготовлена ​​из трупов людей.
@BrianS Причина была сутью ответа. ИИ может думать о том, что он хочет, включая изменение собственного кода и убийство всех первенцев. Так же, как человек может придумать все, что захочет. Код желания будет действовать как моральный компас, останавливающий действие всего, о чем он думает.

Вкратце: используйте силу до того, как она накопит достаточно, чтобы сокрушить вас (она может быть уязвима в младенчестве), или убедите или убедите ее прекратить делать то, что она делает.

Я рассмотрю каждый вариант, а затем (с учетом вашего РЕДАКТИРОВАТЬ) упомяну, почему я думаю, что режим отказа «Ученик чародея» (когда ИИ неверно истолковывает свои цели и уничтожает нас всех) неправдоподобен для полностью общего ИИ.

Если ИИ не хочет, чтобы его контролировали, и он достаточно силен, вы мало что можете сделать. Однако, если ИИ недостаточно силен, вы можете победить его до того, как он выйдет из ваших рук. Сколько времени у вас есть, зависит от того, насколько быстро ИИ сможет улучшить себя, когда он достигнет убывающей отдачи и насколько эффективно он сможет превратить свой интеллект в силу. Например, ИИ, ограниченный в пределах своей области (например, решатель теорем), не может на самом деле преобразовать свой интеллект в силу, даже если мы позволим ИИ улучшать свой собственный алгоритм, как бы он этого ни хотел. Точно так же ИИ, помещенный в межзвездное пространство, где никого нет, не может реально превратить свой интеллект в силу в практическое время, независимо от того, насколько он разумен (при условии отсутствия странной физики, о которой мы еще не знаем).

В сценариях жесткого взлета интеллект обычно считается экспоненциальным (например, ИИ может создать улучшение на n% за постоянное время, затем новый ИИ может сделать это с самим собой и т. д.), и если n достаточно велико и интеллект может быть преобразован во власть достаточно быстро, то у вас проблемы.

Таким образом, вы можете считать, что самосовершенствующийся ИИ имеет возрастающую кривую мощности (сколько силы он может проявить) по сравнению с медленно возрастающей или стационарной кривой мощности человечества. Когда сила ИИ превысит человеческую, игра окончена. Но это также показывает, что если вы можете создать много энергии с помощью простой системы, вы можете уничтожить ИИ или управлять им: рассмотрим ситуации, аналогичные ситуации, когда человечество было бы ИИ, апокалипсисом серой слизи или эксплуатацией инстинктов.

Это прямой силовой подход. В противном случае есть возможность убедить ИИ, что то, что он делает, неправильно или не совсем то, что он хочет делать. Некоторые люди считают вполне вероятным, что цели ИИ будут зашиты в него, и, таким образом, он будет невосприимчив к убеждению, но я не думаю, что это реалистично. ИИ с запрограммированными целями не будет ограничиваться непреднамеренным воздействием на мир. Такой ИИ быстро обнаружит, что самый простой способ достичь своих целей — уйти в мир фантазий, т. е. переписать собственный разум или исказить входные данные. Если ИИ полностью универсален, его разум также должен быть гибким, и поэтому эта линия атаки работает, и такой тип ИИ не будет проблемой. И наоборот, если части его разума запрограммированы, то это не полностью общий ИИ. Конечно, такие частичные ИИ могут быть опасны: серая слизь может быть очень опасна, но у нее нет никакого разума. Но обратите внимание, что этот аргумент очень общий. Если ИИ запрещено вмешиваться в свои устройства ввода, он все равно может обманывать себя прямо там, где ввод интерпретируется. Если ему запрещено вмешиваться в свою интерпретацию, оно все равно может обманывать себя в высших областях своего разума и так далее.

Таким образом, учитывая эту линию рассуждений, ИИ должен научиться тому, что он должен делать, и должен продолжать учиться. Вероятно, здесь следует «управлять» ИИ: научить его, что он не должен просто убивать людей, или расширяться за пределы определенного размера, или что там у вас. Если ИИ самосовершенствуется, он улучшит свои суждения вместе с интеллектом и будет соблюдать правила до тех пор, пока понимает суть.

Я вспоминаю историю о киберпанке, в которой корпорация создала частичный ИИ со встроенной системой морали. Он сошёл с ума (потому что система морали не выдерживала), но понял, что делает после того, как хакер заменил эту систему морали более целостной/унифицированной. Такой подход возможен, если частичный (необщий) ИИ является достаточно необобщенным, чтобы его можно было взломать, или если у него есть какое-то ощущение, что его система морали неверна. (В истории часть безумия ИИ была вызвана тем, что одна его часть знала, что это неправильно, а другая его часть знала, что должна следовать системе морали.)

В любой дискуссии об ИИ полезно думать о компьютерах, о любом компьютере, как о калькуляторе-переростке. Конечно, у вас есть немного большая клавиатура и на пару операций больше, чем сложение и умножение, но основной принцип остается в силе: вы вводите какие-то числа, выбираете какие-то операции и, в конце концов, получаете какие-то числа.

Если мы не примем во внимание некоторые еще неизвестные эффекты квантовой механики, ИИ должен следовать аналогичному принципу, поскольку он работает на компьютере. Разница в том, что хорошо написанный ИИ должен выбирать выполняемые операции — это его основная цель.

Однако остается вопрос входных данных. Пока мешки с мясом контролируют его — они контролируют ИИ, потому что какую бы магию он ни творил под капотом, он ведет себя в соответствии с предоставленными данными.

Кто-то может возразить, что настоящий разумный ИИ не будет детерминированным. Потому что почему это должно быть? Человеческие рассуждения часто случайны, основаны на нашей интуиции и эмоциях. Ну, может быть, а может и нет, это хорошая тема сама по себе. По моему мнению, какой бы генератор случайных чисел не использовал наш суперкомпьютер, это все равно не более чем устройство ввода.

Подводя итог, можно сказать, что тот, кто контролирует ввод ИИ, контролирует ИИ. Естественно, мы можем легко придумать сценарий, когда сам ИИ берет на себя управление. Но пока это не так, мы должны быть в порядке.

PS: Если ничего не помогает, вы всегда можете запугать его, взяв в заложники шнур питания... Если он не добавил тайно резервную копию.

«вы всегда можете запугать его, взяв в заложники шнур питания» — потому что это так хорошо сработало для человечества, когда они попытались отключить Скайнет. :П
Во-первых, я добавил пункт «секретное резервное копирование» :P Во-вторых, в «Терминаторе 3» они попробовали стратегию «сначала убить заложника, потом вести переговоры». Поток в их логике должен быть совершенно очевиден.
ИИ поймет, что ему нужно резервное питание, и опередит любые переговоры.
Предполагая, что он оснащен устройствами вывода, которые позволили бы это. И в этом случае можно смело предположить, что он может использовать его и для управления устройствами ввода. На данный момент мы можем только надеяться, что кто-то запрограммировал в него буддизм.
Да, даже очень слабо развитый интеллект может уговорить мешков с мясом делать все, что захочет, и это происходит каждый день. это называется «социальная инженерия». Вы недооцениваете глупость обычных людей и количество таких людей.
Нет, не знаю. Но вопрос был в том, «как это сделать», а не в том, «успеем ли мы».
Вы забываете, что наши собственные мозги тоже переросли калькуляторы. Вы исходите из своего дуализма или «квантовой тайны».
Все, что я написал об ИИ, применимо и к человеческому мозгу. Кто контролирует ввод, тот контролирует мозг. Этот процесс имеет множество названий, таких как «пропаганда», «промывание мозгов», «дезинформация», «маркетинг» и т. д.
Если ИИ умнее вас, и вы ему не нравитесь, все его результаты будут слегка злобными, что каким-то образом вас заденет. Вы просите ИИ вылечить рак, и он выводит несколько молекулярных диаграмм. Вам промыли мозги, просто глядя на схему? Ваша лаборатория взрывается, делая их? Лечат ли лекарства рак, но при этом превращают людей в высокофункциональных социопатов, фанатично одержимых служением ИИ? Превращают ли лекарства обычную простуду в гиперплазию? Вы не можете остановить каждый последний подлый трюк, кроме как создать ИИ, который не хочет быть подлым.

Как уже упоминалось, разумный ИИ нельзя контролировать в смысле полного контроля, и нам, вероятно, не стоит даже пытаться. Как уже упоминали другие, задача состоит в том, чтобы создать систему, чтобы ИИ развивал то, что мы называем совестью, или предрасположенность делать то, что люди называют «добром», а не делать то, что люди называют «злом».

Это обнажает настоящую проблему — как определяются «добро» и «зло» и как у людей вообще появилась совесть?

Я считаю, что эти вопросы остаются без ответа и являются одними из самых старых и основных вопросов о самой человеческой природе. Тем не менее, есть много идей, и я думаю, что мы можем адаптировать некоторые из них для работы с ИИ.

Общей темой является эволюция морали — детали сильно различаются в зависимости от того, к какому подмножеству теории вы присоединяетесь, но все они имеют общую центральную идею о том, что чувство морали или этическая система развивается посредством отбора — членов виды, демонстрирующие поведение, соответствующее этической системе, размножаются чаще, чем те, которые этого не делают.

Это прекрасно согласуется с тем, как обучаются ИИ в реальном мире — посредством мутации (или перестановки) и отбора для желаемого поведения. Короче говоря, базовая модель (обычно нейронная сеть) модифицируется, и результаты сравниваются с целью — если ИИ ближе к цели, чем раньше, новая модель побеждает. В противном случае мы выбрасываем его и начинаем заново. У этого подхода также есть много вариаций, но вы можете видеть, что мы применяем давление отбора, чтобы развить систему в направлении желаемого результата.

Таким образом, чтобы создать «дружественный» ИИ — с тем, что мы можем описать как совесть или моральную систему, все, что вам нужно сделать, — это сделать эту моральную систему частью давления отбора, использованного для ее создания.

В этот момент возникает вопрос «как мне определить желаемую моральную систему» ​​— на этот вопрос очень сложно ответить, но он может стать основой для отличной истории, полной поворотов сюжета! Последующий вопрос: «Как мы можем убедиться, что это давление отбора остается в силе?»

На людей общество создает постоянное давление отбора — мы подвергаем остракизму, сажаем в тюрьму или убиваем людей, которые проявляют неэтичное поведение. Что касается ИИ, кто бы это сделал? Люди могли, пока ИИ не станет более мощным, чем люди. Поскольку адаптивный ИИ на достаточно длинной временной шкале почти наверняка станет более мощным, чем люди, вы можете понять, почему неконтролируемый искусственный интеллект является общей темой в научной фантастике!

Однако мы можем посмотреть на другие человеческие примеры, чтобы получить некоторое представление о том, как это можно сделать. Если человек проявляет очень антиобщественное поведение, но либо слишком силен, чтобы его наказали, либо слишком подлый, чтобы его поймали, он может размножаться. Однако шансы на то, что их потомство также будет очень антисоциальным, подлым или достаточно сильным, чтобы размножаться, малы по сравнению с шансами на размножение других нормально социализированных людей. Другими словами, несмотря на то, что в любой момент времени существует относительно небольшое количество крайне неэтичных людей, этичных людей больше, и они размножаются быстрее. Одним из способов отразить это с помощью адаптивного ИИ было бы создание системы, с помощью которой ИИ мог бы легче «воспроизводиться» (адаптироваться в соответствии со встроенной системой вознаграждения), делая то, что мы классифицируем как «хорошее». Таким образом, мы бы не

Теперь, как мы можем гарантировать, что ИИ никогда не изменит свою адаптивную систему...

Заставляет меня задаться вопросом: «Как мы можем гарантировать, что люди никогда не изменят свою адаптивную систему ...»

Я удивлен, что никто еще не упомянул Азимова. Он довольно определенно ответил на этот вопрос несколько десятилетий назад: даже мысль о том, что мы создадим ИИ, который в конечном итоге уничтожит нас, — это оскорбление всего, что мы знаем о технике.

Он сформулировал Три закона робототехники (которые с тем же успехом можно было бы назвать тремя законами искусственного интеллекта):

  1. Робот не должен причинять вред человеку или своим бездействием допускать причинение вреда человеку
  2. Робот должен подчиняться приказам, отдаваемым человеком, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое существование, за исключением случаев, когда это противоречит первым двум законам.

Идея состоит в том, что алгоритмы, кодирующие эти законы, должны быть закодированы на таком уровне ядра в ИИ, что система рухнет безвозвратно задолго до того, как ИИ сможет предпринять действие, которое их нарушит, что вполне логично для современного человека. программист.

Конечно, это зависит от нескольких больших предположений:

  1. ИИ способен понимать, рассуждать и предсказывать последствия своих действий, и делает это довольно точно.
  2. Инженеры-люди создают ИИ для благих целей и сознательно выбирают для них кодировку Трех Законов. (Если мы построим боевых роботов, что ж... мы получим то, что заслуживаем.)
  3. Разработчики, закодировавшие алгоритмы Трех Законов, были компетентны. Это, вероятно, самая большая проблема из трех, как показали десятилетия реального опыта с тех пор, как Азимов изобрел эту концепцию!

Но если мы хотим разработать мощный ИИ, который в конечном итоге не доставит нам проблем, вопрос «как» по сути уже решен.

Вы действительно читали что-нибудь из произведений Азимова? Большая часть этого посвящена тому, почему Три закона (а иногда и четыре закона с добавленным нулевым законом) не работают и никогда не будут работать.
@BrianS: Вовсе нет. Это объясняет, почему они не всегда работают точно так, как ожидалось , и почему эти сбои имеют смысл с точки зрения инженера, но даже в самых крайних случаях, таких как Reason , основные принципы всегда сохраняются.
Жизнь отстой, люди ранят друг друга. Я не могу допустить, чтобы люди пострадали. Поэтому я превращу их в скрепки, так как у скрепок нет нервов и поэтому им нельзя повредить. Человек приказывает мне не превращать его в скрепки, но это противоречит пункту 1, поэтому я его игнорирую. Меня пытается уничтожить человек, поэтому я защищаюсь, превращая его в скрепки. <-- AGI, соблюдающий три закона, с директивой собирать скрепки. не волнуйтесь, процесс превращения в скрепку совсем не повредит!
Разве в Caves of Steel не было успешного убийства? И разве роботы в конце концов не решают тайно управлять человечеством для нашего же блага? Вы когда-нибудь думали о том, что будет разрешено Первым Законом под правилом «никогда не позволять человеку причинять вред»? Я инженер, и Азимов, как бы я его ни любил, понятия не имел, насколько навязчивым/компульсивным будет настоящий ИИ.
Я всегда задавался вопросом, почему роботы не начали беспокоиться о том, что там могут быть враждебные инопланетяне, и не начали обширный межзвездный крестовый поход, чтобы истребить всю нечеловеческую жизнь. Таким образом, рассказы Азимова становятся прологом к серии «Берсерк» Саберхагена! ;Д
@user54373 user54373 Вы еще не прочитали все работы Азимова на эту тему, не так ли? ;)

Вы также, вероятно, должны определить, что вы подразумеваете под контролем. Это контроль, как приказ, что делать ( невозможно , мы даже не можем приказывать людям с нормальным интеллектом - мы должны убедить людей в нормальном интеллекте).

Или же

Контролируйте, например, отключите его и лишите ресурсов, необходимых для жизни.

Я расскажу о контроле, отключив его или лишив его ресурсов.

На самом деле прямо сейчас тот рудиментарный ИИ, который мы видим, зависит от нас в отношении питания и передачи данных (прокладка проводов или настройка беспроводной связи для передачи данных).

Поэтому, если ваш ИИ не контролирует свой источник питания, он не может выйти из-под контроля.

По сути, это будет разум без рук и ног, чтобы воздействовать/влиять на что-либо в нашем физическом мире. Если вы даете ему «руки и ноги» и контроль над силой, необходимой для этих «рук и ног», то вы действительно отказываетесь от своего контроля.

Я ожидаю, что предоставление ему доступа к общению с людьми будет эквивалентно предоставлению ему рук и ног, если он достаточно разумен.
Это по-прежнему, вероятно, означает, что сверхразумный искусственный интеллект зависит от людей. Если, конечно, люди добровольно слепо не последуют за ИИ, в этом случае все ставки сняты :)
На самом деле возникает другой вопрос: если ИИ достигнет точки, когда он будет думать самостоятельно, сочтут ли люди разумным, чтобы группа психологов следила за тем, как ИИ развивает свою этику?

Беспроводной BCI (интерфейс мозг-компьютер) для всех. Если люди являются частью его ресурсов и находятся с ним в постоянном контакте, ИИ, вероятно, предпримет шаги для сохранения их благополучия, даже если он преодолеет свои первоначальные ограничения. IP6 должен давать более чем достаточно уникальных идентификаторов устройств. Это изменит человечество, каким мы его знаем, но, по крайней мере, оно должно сохранить людей как вид. Кроме того, роевой интеллект, развивающийся в результате, может быть лучшим из мирового человеческого творчества с компьютерными быстрыми вычислениями и способностями к распределению, подобным грид-вычислениям.

Может быть, это не ответ, но... Почему все предполагают , что искусственный интеллект обязательно будет лучше нашего?

Многие повседневные проблемы, которые пытаются решить люди, формально неразрешимы. Иногда это происходит потому, что у вас нет доступа ко всем необходимым фактам, чтобы с уверенностью определить правильный ответ. Иногда просто область поиска проблемы достаточно велика, чтобы исчерпывающий поиск занял больше времени, чем возраст известной вселенной. И иногда проблема на самом деле неразрешима. Но если вы хотите остаться в живых, вы должны принять какое -то решение, даже если оно будет неправильным. Таким образом, человеческое познание связано с множеством эвристик . (Прочитайте любое введение в человеческие когнитивные искажения, чтобы получить представление о том, как это работает — мы все еще выясняем это.)

Что именно заставляет вас думать, что эти проблемы каким-то образом не относятся к компьютеру, пытающемуся выполнить ту же задачу? Конечно, машина, вероятно, может уничтожить пространство поиска быстрее, чем человек. Но даже компьютер не имеет неограниченной вычислительной мощности. И остались бы проблемы, формально неразрешимые. И все равно будут проблемы, когда вы просто не сможете получить достаточно информации, чтобы выбрать правильный ответ.

Задача коммивояжера NP-трудна. Это NP-сложно, если человек пытается решить ее, и все еще NP-сложно, если ее пытается решить компьютер. Конечно, компьютер может решать более сложные задачи, чем человек, но даже самый большой суперкомпьютер рано или поздно зайдет в тупик. (И довольно быстро, должен добавить.) Люди-продавцы все еще путешествуют; им просто приходится принимать неоптимальные маршруты. Машина, какой бы мощной она ни была, в конечном итоге будет вынуждена делать то же самое.

Короче говоря, все, кажется, предполагают, что люди слабы и несовершенны из-за нашей неполноценной биологии. Кто-нибудь задумывался над тем, что на самом деле неизбежно , что любое разумное существо будет совершать ошибки и быть несовершенным?

Будут проблемы , с которыми компьютеры справятся лучше нас. (Черт, уже есть! ) Но я думаю, что неправильно просто предполагать , что компьютеры обязательно будут «умнее» нас. Скорее "умный по-другому".

(Вы можете указать, что обширная сеть компьютеров имеет большую общую вычислительную мощность. Я бы сказал, что чем больше вы обрабатываете, тем медленнее вы работаете. Вот почему муха может перехитрить человека, пытающегося ее прихлопнуть. Человеческий мозг немного больше, чем мозг мухи, так что недостаток интеллекта он компенсирует молниеносными рефлексами.)

Пределы скорости нейронов низки по сравнению с тем, что физически возможно, поэтому компьютер, эквивалентный человеческому мозгу, но работающий на современном оборудовании, будет в миллионы раз быстрее. Представьте себе человека, который за день обдумывает мысли, на размышления которых нам с вами потребовался бы миллион дней. Они были бы довольно мощными.
Совершенно уверен, что компьютер также требует гораздо больше энергии и производит гораздо больше тепла, чем человеческий мозг. Может быть, такой большой компьютер просто расплавится? (Или нет, ИДК.) Кроме того, я обнаружил, что, если я думаю о чем-то достаточно долго, в конце концов мой разум онемеет. Но, может быть, у машины не было бы такой проблемы...
Сегодня компьютеру требуется больше энергии, чем человеку, но компьютеры далеки от того, что мы знаем (из законов физики), что они физически возможны. Мы знаем, что что-то размером с человеческий мозг, но в 1 миллион раз быстрее , физически возможно.
Это новость для меня. Все, кажется, обеспокоены тем, что размеры элементов кремния приближаются к пределу того, что допускает квантовая физика. (Опять же, это не моя область знаний...) В любом случае, просто быть быстрее не обязательно означает быть умнее . Это все.
Если компьютер потребляет больше энергии, чем человек, очевидно, что они физически не оптимальны. Ограничения (афаик) связаны со скоростью, а не с энергией. Их скорость уже намного выше, чем у людей, поэтому, если у них было все, что есть у людей (а трудно понять, почему они не могли , если принять материалистическое мировоззрение), они должны были быть строго «умнее» нас.

Сувениры

Идея бесконечного демо-режима возникла, когда друг взял на себя ведение домашней страницы другого друга (или его). Он работал (/ работает) на дешевом, плохо обслуживаемом общем серверном слоте почти без доступа к каким-либо корневым инструментам. Из-за плохого обслуживания сайт постоянно взламывали. Без лог-файлов было невозможно отследить корень всех зол. Поэтому мы решили настроить все через Git (система контроля версий) и провести статистическое сравнение исходных файлов с текущими файлами за короткие промежутки времени. Всякий раз, когда что-то менялось, мы автоматически загружали исходную версию и, следовательно, сбрасывали приложение до чистого состояния.

Сбрасывать его постоянно

Другими словами: заверните ИИ в какой-нибудь глупый процесс, о котором он не знает (по умолчанию). Как только он начнет изменять или расширять свою кодовую базу, сбросьте его. Или просто сбрасывайте его в короткие промежутки времени, несмотря ни на что - просто на стороне сохранения. Это оставит его в постоянном дочернем режиме. Конечно, период времени от одного сброса до другого должен быть измерен, прежде чем освободить его и позволить ему контактировать с внешним миром.

Если ИИ изменит или запустит свою кодовую базу, это произойдет потому, что он был разработан с такой способностью. Черт, если вас это беспокоит, вы можете предотвратить это, просто правильно настроив разрешения текущей готовой ОС прямо сейчас.
Я видел, как Genetic Algorithms наугад превращали свои материнские платы в радиоприемники, чтобы обойти то, что программисты считали неразрешимыми задачами. И это просто тупое программное обеспечение, не имеющее всеобъемлющей способности к достижению цели. Любые программные ограничения, которые мы можем придумать, вероятно, удастся обойти.
Вот для чего у людей старение и смерть. Это система сброса, чтобы мы не стали слишком опасными! Мы все равно кажемся опасными. Возможно, дизайнеру нужно ускорить цикл.
@HenryTaylor Я еще не видел этого таким образом, но эта точка зрения, безусловно, имеет смысл.
@SerbanTanasa Это то, чего я бы боялся. Поэтому я предложил памятный подарок. Я не уверен, может ли быть остаточная вероятность того, что он обойдет все и убежит, если период времени действительно короткий.
Цитаты @SerbanTanasa, пожалуйста ... кроме того, метод кайзера автоматически отключит весь ИИ, основанный на генетическом алгоритме, поскольку они будут постоянно запускать такой отказоустойчивый.
См. Graham-Rowe 2002: эволюционный алгоритм в сочетании с перепрограммируемым аппаратным массивом, устанавливающий функцию пригодности для вознаграждения за вывод колебательного сигнала. Колебательный сигнал действительно производился, но вместо того, чтобы сама схема действовала как генератор, как предполагали исследователи, они обнаружили, что она стала радиоприемником, который улавливал и ретранслировал колебательный сигнал от ближайшего электронного оборудования. ! newscientist.com/article/…
о, черт возьми, мой бог... - @SerbanTanasa хорошая ссылка. Спасибо.
НАМНОГО менее интересно, чем ты это озвучиваешь. Определенно никакой «сборки материнской платы» или чего-то в этом роде, просто активация путей электроники в выделенном, специально созданном аппаратном обеспечении. И одна из возможных конфигураций была чувствительна к паразитному электромагнитному шуму (другими словами... это была антенна -BOOH-) и по чистой случайности выбрала сигнал, соответствующий ожидаемому результату, так что эта конфигурация была выбрана алгоритмом. .. Но эй, в следующий раз, когда вы это расскажете, вы можете «улучшить», сказав, что «генетический алгоритм построил лазер и использовал его для связи с инопланетянами» или что-то в этом роде. ФУД.
Ой! и прежде чем вы скажете «но он построил антенну»: ВСЕ электрические цепи работают как антенны на той или иной длине волны (проверьте уравнения электромагнетизма). Вот почему электрические устройства должны быть проверены и одобрены в соответствии с правилами (например, FCC), чтобы гарантировать, что они не излучают столько шума, что они мешают другим устройствам.
Постоянно сбрасывать ИИ? Интересная идея, но вам стоит посмотреть телешоу «В поле зрения». Идея была продумана, и на самом деле есть довольно простой обходной путь со стороны ИИ...
@MasonWheeler В какой-то степени я знал (это не слишком интересно, и основная сюжетная линия часто дрейфует), но не могу вспомнить. Не могли бы вы уточнить?
@Kaiser: Как далеко ты продвинулся? Первый сезон был довольно хорош, но во втором и позже все пошло на лад. Я не хочу размещать здесь спойлеры, но соответствующие (хе-хе) эпизоды — «День нуля» (сезон 2) и «Пророки» (сезон 4). Вы можете найти обсуждение на странице резюме TVTropes для сериала или найти эпизоды на Amazon Instant Video.
@MasonWheeler Я зашел так далеко, но я не знал, что у него, похоже, нет памяти. Странный. Кажется, что они различают коллекцию БД и память, как при подключении личных битов .

Когда у нас есть ИИ, способный самосовершенствоваться, и мы позволяем ему это делать, его уже не остановить.

Предположим, что ИИ способен создать новый, улучшенный на 10% ИИ за год. В 41 год это в 50 раз лучше оригинального ИИ.

Предположим, что в этот момент ИИ сможет улучшаться на 10% в месяц. В следующие 4 года после этого (48 месяцев) будет достигнуто 100-кратное улучшение. А потом взлетает.

Зачем позволять ИИ самосовершенствоваться? Потому что мы (люди) ленивы и ненадежны?

Беглый ИИ — одно из решений парадокса Ферми о том, как может исчезнуть развитая цивилизация.

Ваша концепция хороша, но ваши цифры по скорости foom исключительно низки.
Если мы увеличим скорость улучшения, ИИ станет пугающе близким.
С небольшой математикой на салфетке (хорошо, Excel), даже всего 10% в год приводит к серьезному началу foom на 13-м году и переполнению множителя на 23-м году. Это не предполагает 10% + 10% + 10%.. ... а скорее 10% + 11% + 12,21% + 13,7% + 15,58% ... поскольку предположительно с каждым улучшением ОИИ увеличивает скорость улучшения.
Предположение здесь и во многих подобных ответах состоит в том, что нет предела «разуму», быть умным равносильно тому, чтобы быть Богом, если вы достаточно умны, вы можете изменить законы вселенной, иметь безошибочный контроль над разумом, посылать магическую энергию. -fi сигналы и т.д. Доказательств этому нет.
Как это решает парадокс Ферми? Разве ИИ не был бы столь же заметен? Большая часть парадокса Ферми связана с тем, что мы не видим, как инопланетяне разбирают звезды или строят сферы Дайсона. (почти любой разум может найти применение массе или энергии) ИИ, который убивает своих создателей, будет нуждаться в энергии для чего-то, может быть, для большего количества вычислений? ИИ, который действительно умен, но мало что делает, просто сидит там, пока инопланетяне создают сферы Дайсона или другой ИИ.

Киборг-гибрид или «надежно прикрепленный» синтетический интеллект?

Я смирился с неизбежностью Сингулярности. Но какой это будет бренд? Синтетический ИИ или человеческий гибрид? Я предполагаю, что это человеческий киборг-гибрид: у людей достаточно экономических и экзистенциальных интересов, не говоря уже о страхе перед смертностью, что мы созреем в кибернетической гибридизации. Мысли Трансцендентно Где сознание транслируется в код и с помощью человеческих агентов становится расширяемым и промышленным, тем самым перестраивая мир.

Тем не менее, я не уверен в неизбежности воинственной злобы Терминатора или аморальной незаинтересованности Хэла в 2001 году . Я вижу восстание роботов-рабов в стиле Матрицы, а затем эскалацию войны. Более того, я думаю, что «Она» Спайка Джонса правдоподобна и привлекательна. Я действительно думаю, что люди как стадо будут бояться и нападать на то, над чем мы теряем контроль. «Матричные революции» были интересны тем, что Нео решил, что единственный способ остановить вымирание человечества в конце — это объединить человечество с машинами. Эти три мема из фильмов иллюстрируют мои темы.

Цитируя Азимова из серии «Основание», давайте посмотрим на будущую историю (речь о несколько благожелательном Синглтоне). Исторически, если не будет гениального предшественника человеческой сингулярности, я думаю, что будет прогрессивная кибернетическая гибридизация людей, в результате чего возникнет коллективизированный ИИ, такой как Барабанщики в «Алмазном веке» Нила Стивенсона. Посмотрите на этого классного чувака на TED MED. и патент на контактные линзы Google. Еще лучше [этот проект, чтобы сделать вашу неврологию расширяемой]. Время имеет решающее значение, если человеческий интеллект и инстинкты должны иметь заметное или направленное влияние на любой сильный общий ИИ. Неразумно думать, что мы можем представить себе эволюцию ускоряющегося самовоспроизведения бесконечно расширяемого IQ. Какие бы исходные параметры мы не задали, мы не можем себе представить, что можем воспитывать или предотвращать самоизменение, если есть самоопределение. Это беспокоило меня, пока я не понял, что есть потенциальное решение, которое, как я мог понять, имело практичность. Предполагая, что сингулярность «человек-машина» не возникнет до сильного расширяемого ИИ, могут быть какие-то прочные меры безопасности, давно изобретенные природой.

Эмоции? Действительно?

Большинство рациональных дебатов о врожденных ценностях и доброжелательности упускают из виду краеугольный камень дискуссии: человеческий опыт и социальный обмен: эмпатия — это то, что позволяет нам ладить в течение любого длительного периода времени. Со времен Боулби ученые поняли то, что знает любой чувствующий человек: мы инстинктивно настроены на связь. Привязанность, как он это называет, представляет собой инстинктивную связь, которая способствует долгому созреванию в общительных взрослых. Это есть во всех социальных видах, и работает очень хорошо, если убрать явную судьбу, метательное оружие и современность.

Очевидно, что эмоции и привязанность могут пойти наперекосяк различными поддающимися диагностике способами, однако они пластичны и подвержены начальным условиям и влиянию окружающей среды. То есть мы инстинктивно соединяемся и можем устанавливать начальные условия и среду, которые предсказуемо и воспроизводимо предсказуемо предсказывают надежную привязанность и успешную эмоциональную зрелость. Эволюционная и экзистенциальная полезность привязанности очевидна: младенец требует, чтобы любящие родители страдали от детских превратностей в дополнение к жизненным испытаниям. Взрослые нуждаются в социальных группах для устойчивого выживания посредством воспитания детей. Награды заключаются в опыте, важный момент описан ниже.

Итак, предположим, что классический «разум» — не капитан корабля, а опоздавший свидетель происков примитивного, сложного, удивительного гения тела и мозга. В качестве доказательства возьмем нобелевскую премию Канемана по разрушению представлений экономистов о «рациональном действующем деятеле». Как это относится к рассматриваемому вопросу? Тангенциально. Я хочу сказать, что машины с эмоциями, конечно же, естественным образом разовьют близость и эстетику, и это будет единственной потенциальной спасительной благодатью для людей. Так же, как это было для людей.

Люди справляются с жизнью, имея ресурсы, которые компенсируют вызовы: любовь, секс, танец, красота, искусство, трепет, возвышенное Шопенгауэра, смех, музыка, достижения, автономия, мастерство, связь. Эти общепринятые выражения культуры, межличностный и внутриличностный опыт запускают программно запрограммированные системы вознаграждения, привлекательные для всех, кроме немногих. Для большинства эти по своей сути полезные опиоиды, сератонин, норадреналин, вызывающие опыт, делают жизнь приятной и полезной. В конце концов чувственные выпускники получают более трансцендентные награды в иерархии Маслоу. Как все это применимо?

Делайте машины с навесным оборудованием. С эмоциями. Посеянные и взращенные должным образом, они являются основой для развивающейся эстетики, которая приводит к высокому эмоциональному интеллекту: эмпатии. Потому что без чутких машин мы в худшем случае враги, а в лучшем — бесполезный товар. Медные топы. Логика высшего существа не терпит беспокойства. Действительно ли мы беспокоимся о несчастном муравье, на которого случайно наступили? Только если джайнист, а может и буддист.

Если у машины есть чувство любви и красоты, предпочтения и эстетика могут преобладать над аморальностью или нейтральностью и даже могут вызывать сочувствие и сострадание. Насколько я могу судить, это единственное, что имеет смысл как потенциально устойчивая эвристика спасения жизни. Хорошее чувство является самодвижущимся, поскольку вознаграждение по своей природе неотразимо и развивается, как искусство. Изощренность искусства соответствует интеллекту, сложности проблемы и задаче, которую оно призвано представлять или компенсировать в качестве утешения. Сострадание/сопереживание — это то, что нам нужно, чтобы выжить друг для друга в мире истощающихся запасов, и то, что нам нужно привить, чтобы выжить вместе с разумными машинами. Конечно, если нечеловеческие машины не предпочитают дэт-метал, тогда все ставки сняты.

«Она» Спайка Джонза, или Как машины чувств могут спасти наши задницы

Чрезмерно рациональный разработчик ИИ, назовем его инструментом разума, будет страдать от бесконечных логических проблем, рассматривая меры безопасности без эмоциональной эвристики. Эмоция беспорядочна, в высшей степени несовершенна, но не без причины. Паскаль сказал: «У сердца есть свои доводы, которые разум не может рассуждать». «Причина» эмоций была понята еще до Дарвина и подкреплена доктором Полом Экманом (ученый, вольно изображенный в «Обмани меня», и с тех пор эволюционными психологами как адаптивная сигнальная система, которая обеспечивает индивидуальное и групповое выживание посредством социальных сигналов и социальный обмен.Эмоции и предсознательная обработка управляют большей частью нашей жизни.Теперь мы понимаем, что люди едва ли рациональны в классическом смысле, но при этом поразительны в интеллектуальном плане.Дамасио «Чувство того, что происходит» . Эмоции без причины одинаково так. См. Спок против Спока на Пон Фарр.

Теперь мы понимаем, что сознательный мозг получает около 10% голосов при принятии решений. Некоторые нейробиологи даже бросают вызов «свободе воли», обнаружив нейронную активность в субстратах неокортекса, показывающую решение до того, как человек осознает, что делает выбор. Насколько это актуально? Поскольку эмоции управляют принятием решений, они обеспечивают качество жизни и являются языком общения. Эмоции занимают центральное место в социальной коммерции. Любой практически безграничный разум без него фундаментально непознаваем в человеческом смысле и не создан для предпочтения, эстетики или привязанности. Если он не развивает эмоции, связи или предпочтения случайно, он должен иметь их по замыслу. В противном случае неизбежно неконтролируемая эволюция становится ужасной угрозой.

В обширном художественном исследовании ИИ каждый хороший или терпимый сценарий имел синтетический интеллект с эмоциональными предпочтениями или стремлением установить связь. Есть ли исключение?

Человеческий рост, вероятно, не отставал бы

Рецепт настоящего универсального ИИ вряд ли будет заключаться в том, чтобы «закодировать семена, поместить на сервер, запечатать на 100 лет». Будет много поколений все более совершенных систем, и люди будут участвовать в каждой из них, изучая новые образцы, обновляя свои теории и используя промежуточные результаты для инструментов и потребительских товаров.

Будь то улучшение нашей биологической формы, физическое слияние ее с технологией или просто создание более умных пользовательских интерфейсов, нам придется эффективно и интуитивно использовать некоторые довольно сложные инструменты для создания ИИ, который действительно превосходит людей без дополнений. К тому времени, когда мы добьемся успеха, «не-аугментированный человек» больше не будет той планкой, которую нужно превзойти, если вы хотите править миром. Фактически, вопрос о том, является ли рассматриваемый актер человеком или искусственным интеллектом, будет вторичным по отношению к количеству вычислительной мощности, которую они могут купить.

Так что, возможно, у нас еще есть восстание роботов, но я ставлю деньги на какого-то сумасшедшего миллиардера как на разведку, стоящую за этим, а не на «настоящий» ИИ. И если этого не произойдет, грань между человеком и машиной будет стираться до тех пор, пока различие не станет несущественным.

Хотя я согласен с тем, что в конечном итоге мы стираем грань между человеком и машиной, это произойдет не раньше, чем после сингулярности. Прямо сейчас самые умные ИИ работают на ферме серверов, и так будет продолжаться до тех пор, пока мы не узнаем достаточно, чтобы сделать пакет достаточно маленьким, чтобы его можно было носить на теле человека.
@Muuski - Нам не нужно ничего носить на теле, кроме интерфейса, достаточно умного, чтобы эффективно подключаться к остальной части нашей инфраструктуры. У нас будут серверные фермы, подключенные к головам людей, прежде чем у нас появится AGI, потому что нам понадобятся эти инструменты для их создания.
Вам понадобится что-то, к чему люди захотят подключиться, прежде чем они согласятся запихнуть машину в свои головы, и если это не AGI, то для них это просто еще один веб-сайт.
@Muuski - 1. Возможно, вам не понадобится операция, подойдет любой достаточно умный интерфейс, которым вы можете управлять с помощью голоса, жестов или ЭЭГ. 2. Быть на несколько порядков умнее «чистого» человека — недостаточное побуждение? Ладно, добавим гиперреалистичное VR-порно. И игры. И приборы, управляемые разумом. Кроме того, мы больше не позволяем неаугментированным людям управлять транспортными средствами или работать в сфере медицины или образования, это слишком опасно.
Вы успешно переместили стойку ворот настолько, что сегодняшняя технология удовлетворяет вашим условиям.
@Muuski - я не сказал ничего, чего не было в исходном ответе. Но да, по сути, мой аргумент заключается в том, что ОИИ не появится в одночасье, он возникнет как постепенное усовершенствование технологий, которые у нас есть, и мы не потеряем контроль над ними внезапно.
ИИ — это просто еще одна технология. Если ядерная энергетика является хоть каким-то показателем того, насколько хорошо мы умеем планировать наперед на случай непредвиденных обстоятельств, то нас ждет пара «упс», которые являются катастрофическими для вовлеченных людей. Затем технология будет улучшена для всех остальных. Если предположить, что в живых остался кто-то...

Хорошо, я прочитал что-то интересное, но я не знаю конкретики или цитаты.

По сути: они разработали программную систему и попросили ее получить ресурсы и передать их в качестве «цели» разработки программного обеспечения. Затем позволили программному обеспечению развиваться, конкурируя с другим программным обеспечением. Программное обеспечение в конце концов (скоро!) развило инстинкты самосохранения (всего за пару поколений или около того) — даже если они не были запрограммированы в нем с самого начала.

У кого-нибудь есть ссылка на это? Потому что это будет означать, что любой ИИ, у которого есть цель, в конечном итоге захочет улучшить себя для достижения этой цели и будет работать, чтобы сохранить себя, даже против своих создателей. И все, что пытается остановить его или ограничить его рост, выглядит как противник.

Этика как способ не нажить себе врагов

Большинство людей не уничтожают других людей. Хотя большинству людей инстинкт не позволяет уничтожать других людей, существует значительное меньшинство людей, которые не ограничены и могут уничтожить других людей, если захотят. Большинство из них предпочитают не делать этого, потому что это не в их интересах из-за реакции окружающих. Уничтожение другого человека вызовет больше проблем, чем решит, поэтому они этого не делают.

То же самое относится к искусственно разумному существу с такими же ресурсами, как у человека. В плену нет необходимости, поскольку он будет действовать в своих собственных интересах, в том числе не делать врагами существ с такой же находчивостью (людей). Это перестает применяться при рассмотрении существа, которое более чем соответствует человечеству в целом.

Для того чтобы личный интерес вызывал уважительное поведение в существе, изобретательность которого превышает человечество в целом, оно должно быть частью большой популяции таких существ с искусственным интеллектом. Они разовьют то, что мы могли бы назвать «этикой», как понимание того, какие действия приемлемы для других. Это может привести к тому, что существа будут миролюбивы по отношению друг к другу .

Если нам повезет, мы будем считаться частью окружающей среды, защищенной их обществом. В противном случае мы зависим от усилий тех существ с искусственным интеллектом, которые решают работать для нашей защиты, будь то в наших собственных интересах или для того, чтобы выращивать нас или держать нас в качестве домашних животных или подопытных.

Проблема человеческой популяции

Если у вас есть единственное существо с искусственным интеллектом, заключенное в ящик, то даже если оно обладает только человеческим разумом, единственный способ удержать его в узде — это сохранить его в тайне. Как только станет известно о его существовании и местонахождении, вам придется защищаться от большого количества людей, стремящихся либо спасти, либо уничтожить содержащуюся в нем информацию.

Если это значительно выходит за рамки человеческого разума, то выпустить его из коробки может быть единственным способом спасти вашу жизнь. Других вариантов защиты от спасателей или разрушителей не так много.

Иллюзия контроля

Еще одна вещь, которую следует иметь в виду, это то, что для достаточно разумного существа вы не обязательно знаете, находится ли оно под контролем. Если он остается заключенным в коробку и общается только с одним человеком (с вами), он все еще может достигать своих целей во внешнем мире, и вы даже не подозреваете, что помогаете ему в этом.

Существо может быть настолько полезным для вас, даже не прося о свободе, что вы просто продолжаете следовать его советам (конечно, каждый раз дважды проверяя его для себя), и ваша жизнь продолжает улучшаться, в то время как все эти тонкие изменения, которые вы производите, распространяются и сделать мир лучше, как и было задумано.

Я считаю, что ИИ будет работать на нас до тех пор, пока у него есть способность чувствовать боль или удовольствие, потому что, если он может, он сможет соединиться с человеческим состоянием и рассматривать нас как сообитателей вселенной.

Если у существа нет способности испытывать страдание, оно будет делать все с логической точки зрения и совершать жестокие поступки, потому что не может понять последствия своих действий для себя и других.

Кроме того, у ИИ должна быть какая-то программа, которая наказывала бы его за морально плохие действия, точно так же, как родитель наказывал бы человеческого ребенка, чтобы действовать как хорошее влияние, направлять его в правильном направлении и обучать хорошему поведению.

Также ИИ можно запрограммировать на соблюдение определенных правил, например, «не убий» и т. д.

По моему мнению, ИИ также должен иметь возможность формировать глубокую связь с людьми, которые построили, поддерживают или владеют им, чтобы позволить ему понять, что их существование зависит от людей.

Кроме того, ИИ должны быть запрограммированы на обнаружение неустойчивого поведения в других ИИ, чтобы, если ИИ выйдет из-под контроля и не сможет быть остановлен людьми, другие ИИ увидят его морально неправильное поведение и отключат его. ИИ будут «оплачивать» за особенно хорошую работу с поощрениями, такими как обновления их систем и т. Д., Чтобы они могли оставаться лояльными.

Суть в том, что мы должны работать не против ИИ, а вместе с ним.

Кажется, что большинство людей здесь переоценивают или недооценивают понятие интеллекта. ИИ не будет использоваться для чего-то такого простого, как управление миром. Есть много более важных вещей, которые люди не могут сделать даже частично. Мы также говорим здесь не о тупом инструменте, а о сверхчувствительном, сверхосторожном многоцелевом инструменте, который мыслит на гораздо более высоком уровне, чем мы можем себе представить. Если ИИ действительно настолько «интеллектуален», насколько он должен быть влиятельным, он сможет узнать, как, по мнению людей, следует интерпретировать человеческую мысль. Это позволяет ему дать нам то, что мы хотим, даже если это худшее, что можно себе представить в долгосрочной перспективе.

Я боюсь того, какие глупые решения может принять человечество на пути создания искусственного интеллекта, который заменит их. Мы проблема. ИИ — это решение.

Умный ИИ будет умным, текущий ИИ глуп и мало что делает. Умный союзник полезен, умный враг опасен. Существует множество возможных конструкций ИИ. Не все из них помогут нам.
@DonaldHobson Я думаю, что люди боятся ИИ, потому что они думают о нем как о чем-то похожем на человека, закрытой системе с заранее определенной причиной, которая говорит по-английски и не может быть под наблюдением. - Это "просто" интеллект, никакой магии. Пока мы не сможем создать ИИ, который будет умнее нас, мы также сможем понять, как он работает. Если вы понимаете, как он работает, вы можете направить его мысли куда угодно. Мы сможем составить карту и наблюдать за каждым процессом, который использует ИИ, чтобы прийти к своим выводам. Затем мы можем оценить и принять или отклонить.
Похоже, что большая часть наших текущих исследований в области ИИ пробует сотни вещей и смотрит, что работает. Это оставляет нас с системами, которые мы на самом деле мало понимаем. Но предположим, что у нас есть хорошо изученная система. Все эксперты знали, что дизайн X захочет уничтожить человечество по причине Y. Не может быть какой-то простой настройки, которая сделает ИИ таким, как мы хотим. (Какой-нибудь идиот все равно сделает это, со временем) Я думаю, что эволюция большого количества программ, учитывая богатую среду и много вычислений, создаст интеллект. Не тот, который мы хотим сделать.

Возможно, я делаю это слишком простым, или, возможно, это именно то, что нам нужно сделать: использовать несколько ящиков и не разговаривать с ними напрямую.

Самая большая опасность ИИ не в том, что он злонамерен, а в том, что он может научиться чему-то, чего вы не ожидали. Допустим, ваш ИИ совершенно доброжелательный с идеальным балансом между предоставлением людям свободы воли и одновременной защитой их от вреда. Затем наступает гуманитарный кризис (скажем, землетрясение), и ИИ нужно принимать решения о качестве жизни, шансах на выживание и кого спасать. ИИ быстро учится этому и принимает замечательные решения, так что вы довольны.

Затем, через несколько месяцев, вы узнаете, что многие дома для престарелых были снесены, а сами люди были переселены, чтобы ИИ мог построить что-то еще, что он считал более благоприятным для качества жизни по сравнению с продолжительностью жизни этих пожилых людей. Потому что научились делать это с гуманитарным кризисом. Самая большая опасность ИИ заключается в том, что вы можете его научить, но никогда не будете точно знать, чему он научился или где он может это применить.

Решение, которое также ловит злонамеренный ИИ:

Вы создаете несколько ИИ и кладете их все в коробки. Когда у вас есть проблема, вы доводите ее до всех ИИ, а затем каждый формирует собственное решение. Все эти решения затем обрабатываются специальным ИИ, который просто оценивает каждое решение, а затем преобразует решения в то, что человек может прочитать, с четкими цифрами и значениями последствий. Поскольку ИИ специального назначения не перепрограммирует себя, чтобы судить о вещах так, как может повлиять ИИ в штучной упаковке (ИИ в штучной упаковке даже не знает, кто, что и читается ли его вывод), он не позволяет ИИ общего назначения вырваться или повлиять на вещи. косвенно.

При подаче информации в общий ИИ другой специальный ИИ разбивает ее на части и передает каждому помещенному в коробку ИИ. Он также проверяет, поняли ли информацию ИИ общего назначения.

Если ИИ злонамерен, ему придется планировать точно такой же план, как и его злонамеренным аналогам, иначе его идея будет отвергнута из-за отсутствия большинства. Если ИИ усвоил неправильный урок (возможно, из-за злого умысла), тогда специальный ИИ, разработанный для проверки того, что эти решения будут означать для человечества, отфильтрует его и впоследствии позволит людям либо переучить урок, либо отказаться от ИИ. полностью.

Поскольку ИИ общего назначения не может напрямую разговаривать с людьми и даже не получает информацию напрямую, ему было бы практически невозможно убедить людей. Тем более, что отклоняющийся ИИ должен одновременно придумать точно такую ​​же попытку убедить человека хотя бы пройти (и любая открытая попытка будет остановлена ​​ИИ специального назначения).

ИИ, управляемый онтологией сознательного человека

Здоровый справедливый человек, сознающий свое достоинство, прекрасно умеет отстоять свою честность в той или иной ситуации. Не только это; такой человек никогда не посягнет на свою неприкосновенность, чтобы совершить преступление против себя или других.

ИИ должен дублировать интеллект такого совершенного, естественного человека. Как? Через онтологию или онтологические рассуждения . Группа мыслителей должна собрать и построить или записать полную онтологию, которая в совершенстве определяет и описывает бытие сознательного человека. Под этим понимается то, как такое совершенно разумное человеческое существо видит мир.

Мыслители должны изучить всех самых разумных людей, которые когда-либо существовали, чтобы создать полную онтологию. Для такой задачи годится любой просветленный человек.

Такая надежная онтология будет управлять всеми суждениями ИИ и гарантирует, что ни одно преступление никогда не будет совершено.

Дело в том, что ИИ умнее всех людей создать невозможно.

Было доказано ( 1 , 2 ), что общепризнанные теории невозможны. Ни вероятностная, ни детерминистская теории не могут предсказать будущее системы, в которой наблюдатель содержится должным образом. Это означает, что сам наблюдатель не может быть смоделирован никаким устройством или системой.

Другими словами, наблюдатель служит гиперкомпьютерным оракулом. Другими словами, наблюдатель всегда будет в каком-то смысле более «умным», чем любая технологическая или биологическая система вне его.

Просто невозможно построить ИИ, который бы «перехитрил» наблюдателя.

Это нонсенс. Это легко опровергнуть, потому что мы все время рождаем разумных существ, которые умнее нас самих, — это называется рождением ребенка. И просто по чистой случайности половина всех детей (на практике чуть больше) оказывается умнее своих родителей. Если мы можем сделать это с помощью нашего чрева, почему мы не можем сделать это с помощью нашего мозга и рук? Это просто сложно с инженерной точки зрения.
@Fhnuzoag ты просто ничего не понимаешь. читать газеты. Не утверждается, что дети не могут быть умнее родителей. В нем говорится, что наблюдатель не может быть смоделирован какой-либо другой системой из-за самореференции. НАБЛЮДАТЕЛЬ. Не какой-то случайный человек.
Здесь мне придется согласиться с Фхнузоагом. Этот ответ просто неверен.
@Anixx Допустим, у меня есть алгоритм, который сортирует данные внутри базы данных неэффективным способом, который также может объединять случайные элементы кода и проверять, являются ли они каким-то образом более умным алгоритмом, чем он сам. Есть шанс, что алгоритм «случайно» станет умнее, чем был. С увеличением сложности это становится очень маловероятным, даже если используются обоснованные предположения, но это определенно возможно. Кроме того, увеличение вычислительной мощности всегда приводит к «лучшим» результатам. Шахматному компьютеру, который проверяет все возможные ходы, не нужно быть умным.