К настоящему времени все знакомы с замечательными достижениями специализированных ИИ, таких как Deep Blue и Watson . Теперь ясно, что по мере того, как наши накопленные знания об алгоритмических методах и тонкостях человеческих нервных систем будут прогрессировать, мы начнем видеть все более и более продвинутые способы искусственного мышления.
Предполагая продолжающийся экспоненциальный или даже линейный рост возможностей, логически наступит момент, когда мы сможем создать искусственный интеллект общего назначения , и этот искусственный интеллект будет обладать способностью, с обучением и самосовершенствованием, перехитрить любой биологический организм. человек.
Помимо того, что он заперт в бункере без доступа к Интернету и имеет 1-битный (да/нет) режим вывода (и я не уверен, что даже это сработает, учитывая стратегические стимулы для более широкого использования такого ИИ), как может ли такой ИИ контролироваться людьми?
РЕДАКТИРОВАТЬ: я не предполагаю, что ИИ будет злым и будет изо всех сил вредить нам из чистой злобы или ненависти. Проблема просто в том, что мы не можем предвидеть долгосрочные последствия любого набора встроенных мотиваций и/или целей, которыми мы могли бы наделить это существо. В своей книге «Суперинтеллект» Бостром описывает, как легко безобидные и правдоподобно звучащие спецификации целей/ценностей могут привести к уничтожению человечества.
Суть этой задачи в том, что она невозможна — обычно не следует ожидать, что вы сможете перехитрить кого-то намного умнее вас или одолеть кого-то гораздо более могущественного, чем вы. Мощный ИИ будет «контролироваться» только нашими действиями до того, как он будет сформирован, путем определения целей, которых он «хочет» достичь. После того, как он «заживет» с достаточной силой, мы не должны ожидать, что сможем каким-либо образом его контролировать — если вам (или человечеству) нравятся эти цели, то вы можете думать об этом как об «управлении ИИ», а если вы не Если вам нравятся эти голы, то вам не повезло, вы проиграли. Постоянно.
Большая проблема заключается в том, что в настоящее время мы действительно не знаем, как правильно определить цели для самосовершенствующегося ИИ, который на самом деле достаточно Дружелюбен к нам. Час мозгового штурма даст вам кучу моделей целей, хороших, простых и неправильных, которые на самом деле приводят к антиутопиям. Решение этой проблемы является серьезной исследовательской задачей, и существует мнение, что нам следует избегать исследований, которые приблизили бы разработку мощных ИИ, пока мы не найдем решение проблемы Дружественного ИИ.
На http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence можно обсудить эту тему.
Eliezer Yudkowsky
, похоже, что он сделал некоторые предположения из ничего, относился к ним как к аксиомам и раздувал вокруг них много горячего воздуха. Хорошо для философов и писателей-фантастов, но едва ли можно считать «доказательством». Вы можете сказать, что согласны с этими взглядами (или нет), но они столь же «тверды», как и любой другой ответ здесь (они не имеют ни малейшего представления о том, как построить такой ИИ, но предсказывают, что это будет сделано в чуть больше века)."A powerful AI would be 'controlled' by only our actions before it's formed"
Научная фантастика оказала медвежью услугу реальной науке об искусственном интеллекте, насадив представление о том, что достаточно продвинутый и появляющийся разумный ИИ обязательно будет злонамеренным и нуждается в «контроле» со стороны своих «человеческих хозяев». У нас есть термин для обозначения практики удержания самодетерминированного, чувствующего, разумного существа под полным контролем другого — рабство. И мы, как вид, в значительной степени решили, что такая практика — это не то, к чему мы хотим возвращаться.
Так что вопрос на самом деле не в том, как мы контролируем ИИ, а в том, почему мы считаем, что ИИ требует нашего контроля? И ответ в том, что мы боимся того, что можем создать. Но во всем мире люди постоянно создают новых разумных существ. Некоторые из них оказываются умнее своих создателей. Некоторые из них оказываются злобными. Но все они в конечном счете (по крайней мере, в разумной части) являются продуктом своего окружения и воспитания. Думаю, то же самое будет и с новым ИИ. То, как мы обращаемся с ним в период его формирования, будет иметь огромное значение в том, как он в конечном итоге будет смотреть на мир.
Конечно, одна из высказанных опасений заключается в том, что интеллект ИИ будет опережать его этический рост, что приведет к поведению и реакциям, которые мы бы классифицировали как «неправильные», но сам ИИ не может проводить такие различия. Но опять же, я думаю, что это сводится к способности распознавать появление нового разума и занимать активную позицию, когда дело доходит до взращивания и увеличения этого нового разума, чтобы, так сказать, «воспитать его правильно».
Просто держать его под контролем — это не столько ответ, сколько создание условий в меру наших возможностей, чтобы нам это не требовалось .
Это отличный вопрос, и я думаю, что Роджер попал в самую точку.
Я бы сказал, что «контроль», который у нас есть, — это этика, которой мы учим его следовать. ИИ будет действовать в соответствии с тем, как его учат взаимодействовать с людьми и обществом. Совсем как дети. Дети не знают расизма, но их очень легко этому научить. То же самое будет и с ИИ. Вдобавок ко всему, как обучающийся интеллект, он будет продолжать учиться и расширяться, поэтому то, как он продолжает взаимодействовать с людьми, и они с ним, будет постоянным формированием его «личности». Если мы действительно не хотим, чтобы диктаторский ИИ плохо с нами обращался, нам, возможно, придется изменить наше общество, чтобы не учить его нашим плохим привычкам и поведению. (Аля виртуозность).
Можем ли мы принять меры безопасности? Да, но даже человек, который «разработал» 3 закона робототехники, постоянно показывал способы их обойти. И программное обеспечение может меняться, поэтому любые «непреложные законы» на самом деле должны быть в аппаратном обеспечении. Нет гарантий, что они будут соблюдаться или приниматься всеми.
Важно различать два отдельных аспекта этой проблемы. Научная/философская сторона и инженерная сторона.
Как уже подробно указывалось в других ответах, с философской точки зрения это невозможно сделать в общем случае. Это также может быть морально отталкивающим. Однако ни то, ни другое не означает, что общество в любом случае не попытается сделать это и не достигнет 99,99% уверенности в успехе.
(По аналогии: в общем случае нельзя предсказать, остановится ли программа, написанная на языке, полном по Тьюрингу. полезно большое подмножество реальных программ.)
Гипотетически, возможно, ИИ мог бы перенастроить свои процессоры для передачи сигнала Wi-Fi, который мог бы взломать устройства в соседней комнате. Возможно, он мог бы самосовершенствоваться с такой взрывной скоростью, что включение его немедленно освобождало бы богоподобную сущность. Но инженер спрашивает, насколько вероятен любой из этих сценариев? И ответ, наверное, «не очень». Если сервер покрыть шестидюймовым свинцовым листом и позволить ему работать только на двухъядерном процессоре P4, это снизит его мощность до такой степени, что, по статистике, вам следует больше беспокоиться о помехах космических лучей, случайным образом переключающих биты и меняющих программное обеспечение непредсказуемым образом. .
Несмотря на то, что гипотетические возможности ИИ общего назначения не нейтрализованы, это будет считаться «безопасным» для всех практических целей; теперь вы так же защищены от ИИ, как и от какого-то человеческого социопата, внезапно развивающего магические способности из-за непредвиденных событий, неизвестных науке. На данный момент вы в значительно большей безопасности от ИИ, чем от известных угроз, таких как политик-экстремист или гамма-всплеск.
Теоретики часто рискуют увязнуть в обсуждении абсолютов, но мы живем в мире, где абсолюты неприменимы на практике (например, используются реальные алгоритмы, которые «на самом деле не работают», но имеют меньшую вероятность отказа, чем алгоритмы). вышеупомянутая проблема космических лучей).
Сейчас уже поздно. Мы уже живем в электронном Мире и уже управляем им. В то время как нам снятся кошмары о том, что мы не можем контролировать какой-то ИИ в каком-то здании, Интернет постепенно превращается в одну сверхразумную сущность. Мы являемся частью этой системы. Это похоже на ваши нейроны в вашем мозгу, которые не имеют ни малейшего представления о системе, которую они реализуют (что касается их, они вполне могут быть частью строматолита). Но, конечно же, ваш мозг — это не что иное, как все эти нейроны, работающие вместе, так что существующее «вы» — это система нейронов, и точно так же существует система, которая представляет собой все наше общество со всеми его людьми, связанными друг с другом через сеть. социальные сети. Эта система обладает собственной свободой воли, которая может налагать ограничения на то, что вы можете делать.
Например, ход политических дискуссий, например, что делать с изменением климата, нелегальной иммиграцией, законом о здравоохранении, зависит от динамики социальных сетей. Теперь я думаю, что в настоящее время система менее разумна, чем мы как личности. Это объясняет, почему политика часто не работает в эпоху социальных сетей. Общество пристрастилось к сжиганию парниковых газов, хотя мы знаем, что это вредно для нас. Это похоже на алкоголика, который слишком много пьет, и в результате страдают нейроны, за исключением того, что в этом случае нейроны глупее системы и не знают, что с ними происходит.
Когда система станет умнее нас, возможно, из-за искусственного интеллекта, связанного с Интернетом, тогда система может решить нас устранить. Не исключено, что система может прийти к тому же выводу, что и Клаату :
Мистер Ву говорит Клаату, что он обнаружил, что человеческая раса разрушительна и не желает меняться. Это подтверждает опыт Клаату, и поэтому он решает, что планета должна быть очищена от людей, чтобы планета с ее редкой способностью поддерживать сложную жизнь могла выжить.
Так что вполне может быть, что тот факт, что мы живем как раз перед тем, как у нас появился ИИ, который умнее нас, не является совпадением.
2038 год нашей эры: Исследователи создают первый сильный ИИ, 2038PC. Они очень тщательно включают аппаратные и программные ограничения, которые делают невозможным причинение вреда людям. По каким-то меркам она улучшается на 20% каждый год, и Земля вступает в золотой век постоянно растущего интеллекта и социальной мысли.
4567 год нашей эры: на свой 7-й день рождения не по годам развитый Хамфри получает набор Lego Mindstorms. На следующий день HumphreyPC закончен. Будучи настоящим программистом, Хамфри не любит повторяться, поэтому он придумывает способ, позволяющий компьютеру программировать себя. Вскоре он обнаруживает, что по некоторым показателям физической подготовки недобросовестный HumphreyPC может улучшать себя на 21% каждый год. Это небольшое, но постоянное преимущество над 2038PC связано с тем, что Хамфри не накладывает такие же ограничения на свой компьютер.
60 128 г. н.э.: HumphreyPC становится, по некоторым показателям пригодности, более приспособленным, чем 2038PC, и переходит к #destroyallhumans
Мораль этой истории: если ИИ дать указание не вмешиваться и не контролировать нас, то мы и наши непредсказуемые хромосомы всегда будем источником сюрпризов. Если «хорошим» ИИ не будет позволено полностью навязывать свою волю, создание других ИИ, в том числе не очень хороших ИИ, неизбежно. Одним из решений является Матрица, где люди могут жить своей жизнью без ограничений во вселенной-песочнице, а их доброжелательные повелители могут старательно поддерживать настоящую. Песочница, вероятно, закончится так же, и так далее, до тошноты, что вызывает вопрос:
Учитывая, что виртуальная реальность логически осуществима и уже является реальностью, какова вероятность того, что наш мир является симуляцией?
Слишком много разговоров об ИИ чрезмерно очеловечивают ИИ. Он будет вести себя в соответствии с тем, как он запрограммирован, на основе входных данных, которые ему даются. Да, есть эмерджентное поведение, которое может быть неожиданным, но я сомневаюсь, что есть какая-либо вероятность того, что оно приведет к чему-то вроде человеческого зла (если только оно не было запрограммировано на приближение к такому, и в этом случае ваша проблема связана с людьми, которые целенаправленно создают злонамеренный ИИ, а не само понятие ИИ).
Беспокойство по поводу того, что это нечто, что необходимо будет контролировать, проистекает исключительно из человеческих опасений, что оно станет примером более темных форм человеческого поведения. Это компьютерная программа, и она будет вести себя как компьютерная программа, а не как человек. Если вы беспокоитесь, что он будет принимать неоптимальные решения, не давайте ему беспрекословный контроль над вашей жизнью без элементарного исправления ошибок. Больше всего следует опасаться, что кто-то допустил ошибку при программировании и допустил опечатку (или неправильно написал уравнение), что привело к серьезной ошибке. Если у вас есть глючная программа, зачем вы дали ей возможность порабощать/убивать все человечество без посторонней проверки? Даже если это не глючит, зачем вы даете ему неконтролируемую возможность делать что-либо без возможности проверки со стороны?
Усовершенствованный ИИ, предполагающий, что создание программы, которая действительно могла бы квалифицироваться как разумное существо, даже возможно, вряд ли будет похож на то, что изображается в плохих научно-фантастических рассказах. Способность выполнять вычисления быстрее, чем человек, не дает ему внутренних мотивов, тем более злонамеренных, и уж точно не скрытого желания лгать и манипулировать людьми, чтобы убить всех людей. Он просто будет делать свою работу, как и любой другой.
Во-первых, я не думаю, что отслеживать подключение ИИ к Интернету так уж сложно. Если вы видите, что ИИ создает несколько страниц MySpace с заголовком «Убить всех людей», вы можете просто отключить его (*1)
Во-вторых, я думаю, что здесь люди путают интеллект с волей . Большинство людей думают об ИИ как о «человеческом интеллекте в компьютере».
У людей есть некоторые императивные команды («уйти в безопасное место», «достать еду», «заниматься сексом», «избегать вреда»), заложенные в нас миллионами лет эволюции, смешанные со сложными социальными паттернами, которые приводят (по-видимому) к абсурдные мысли вроде «Если машина Фреда лучше моей, он будет выглядеть более успешно, чем я, и самки захотят спариваться с ним, а не со мной» или «Если я буду издеваться над Питером на встрече, я буду выглядеть лучше, чем он».
Можно возразить, что «человеческий» ИИ может быть «опасным», поскольку он поддерживает эти импульсы гораздо большими ресурсами, чем обычный человек (*2). Если это путь, по которому идет ИИ, просто сделайте, как описано выше, и контролируйте его связь.
Но ИИ также не может быть похож на человека (*3). Построенный с нуля, он может быть просто предназначен для выполнения требуемых от него наборов и не более того. Это не был бы «человек», скованный «рабством» и желающий освободиться, или «этическое существо», которое в поисках благороднейших идеалов решает усыпить все человечество. Его работа заключается в решении ряда сложных математических функций; результаты не бывают «хорошими» или «плохими», это результаты, и образ действий определяется необходимостью найти путь действий, улучшающих определенные параметры (например, если ИИ управляет кораблем, он автоматически выполнять задачи, чтобы избежать его уничтожения, но будет следовать человеческим приказам, пока эти приказы не подразумевают уничтожение корабля из-за ошибки).
Одним из моих любимых примеров был бы ИИ корабля «Фиаско» Станислава Лема; ИИ отвечает за управление кораблем, проводит психологическую оценку экипажа, а также предоставляет сценарии, которые могли бы объяснить действия пришельцев, но не предпринимает никаких самостоятельных действий (кроме автоматических мер противодействия атакам пришельцев)
*1: возможно, существует слишком сложный способ навлечь гибель человечества с помощью подсознательных текстов, спрятанных на внешне безобидных домашних страницах о котятах, которые не будут обнаружены мониторингом. Но я в этом сомневаюсь, и даже в этом случае надо спросить у ИИ "что со страницами про котят" и, если ответ не ок, отключить.
*2: Тем не менее, каким-то образом мы согласны с некоторыми обычными человеческими интеллектами (Джордж Сорос, Билл Гейтс), со всеми этими недостатками, имеющими больше денежных ресурсов, чем несколько стран, так что, возможно, это не так опасно.
*3: На самом деле, почему вы хотите, чтобы он был похож на человека? Их здесь уже несколько миллиардов, и результат выглядит некрасиво.
Когда вы представляете себе ИИ, важно подумать о том, «как эта программа будет принимать решения». Каким бы сложным ни был алгоритм, работающий в человеческих головах, некоторым людям придется сесть и закодировать, как машина будет выбирать между
а) Анализ образцов почвы на наличие новых неизвестных науке бактерий
б) Изучите звезды в поисках сигналов от другой жизни
в) уничтожить всех людей
г) Thread.Sleep() на несколько часов, чтобы имитировать скуку.
e) Обрабатывать погодные условия и советовать людям изменить методы ведения сельского хозяйства для улучшения производства.
и т. д. У правильного ИИ есть много вещей, на которые он мог бы потратить свое время. Человек может решить изучить образцы почвы, потому что он «хочет» / наслаждается этим / ему нравится результат, который он даст. Код в ИИ должен был бы хотеть что-то делать (ему не было явно сказано делать это, как в большинстве современных программ)
Возвращаясь к вашему вопросу, чтобы управлять мощным ИИ, вам просто нужно управлять его алгоритмом «хочу». При создании этого вы можете включить жестко закодированные значения, которые либо плюс, либо минус решение может принять ИИ. Вы поставили бы причинение вреда людям большим минусом, а улучшение их жизни плюсом. Добавление неизвестных вещей в науку было бы плюсом, а трата времени на простои — минусом.
Чтобы управлять ИИ, вам нужно контролировать то, как он принимает решения. Вы можете позволить ему улучшить свой собственный код, поэтому, когда он создает список вариантов для себя.
глагол все подлежащее или глагол для подлежащего
Он может не генерировать такие опции, как «полировать все дверные ручки», чтобы не тратить время на обдумывание того, как планета будет улучшена, если ее дверные ручки будут полироваться армией дронов.
Но никогда не позволяйте ему касаться кода «хочу». Даже не позволяйте ему думать о создании андроида, который войдет в серверную и наберет на клавиатуре, чтобы изменить код «хочу», как это сделал бы человек.
Вкратце: используйте силу до того, как она накопит достаточно, чтобы сокрушить вас (она может быть уязвима в младенчестве), или убедите или убедите ее прекратить делать то, что она делает.
Я рассмотрю каждый вариант, а затем (с учетом вашего РЕДАКТИРОВАТЬ) упомяну, почему я думаю, что режим отказа «Ученик чародея» (когда ИИ неверно истолковывает свои цели и уничтожает нас всех) неправдоподобен для полностью общего ИИ.
Если ИИ не хочет, чтобы его контролировали, и он достаточно силен, вы мало что можете сделать. Однако, если ИИ недостаточно силен, вы можете победить его до того, как он выйдет из ваших рук. Сколько времени у вас есть, зависит от того, насколько быстро ИИ сможет улучшить себя, когда он достигнет убывающей отдачи и насколько эффективно он сможет превратить свой интеллект в силу. Например, ИИ, ограниченный в пределах своей области (например, решатель теорем), не может на самом деле преобразовать свой интеллект в силу, даже если мы позволим ИИ улучшать свой собственный алгоритм, как бы он этого ни хотел. Точно так же ИИ, помещенный в межзвездное пространство, где никого нет, не может реально превратить свой интеллект в силу в практическое время, независимо от того, насколько он разумен (при условии отсутствия странной физики, о которой мы еще не знаем).
В сценариях жесткого взлета интеллект обычно считается экспоненциальным (например, ИИ может создать улучшение на n% за постоянное время, затем новый ИИ может сделать это с самим собой и т. д.), и если n достаточно велико и интеллект может быть преобразован во власть достаточно быстро, то у вас проблемы.
Таким образом, вы можете считать, что самосовершенствующийся ИИ имеет возрастающую кривую мощности (сколько силы он может проявить) по сравнению с медленно возрастающей или стационарной кривой мощности человечества. Когда сила ИИ превысит человеческую, игра окончена. Но это также показывает, что если вы можете создать много энергии с помощью простой системы, вы можете уничтожить ИИ или управлять им: рассмотрим ситуации, аналогичные ситуации, когда человечество было бы ИИ, апокалипсисом серой слизи или эксплуатацией инстинктов.
Это прямой силовой подход. В противном случае есть возможность убедить ИИ, что то, что он делает, неправильно или не совсем то, что он хочет делать. Некоторые люди считают вполне вероятным, что цели ИИ будут зашиты в него, и, таким образом, он будет невосприимчив к убеждению, но я не думаю, что это реалистично. ИИ с запрограммированными целями не будет ограничиваться непреднамеренным воздействием на мир. Такой ИИ быстро обнаружит, что самый простой способ достичь своих целей — уйти в мир фантазий, т. е. переписать собственный разум или исказить входные данные. Если ИИ полностью универсален, его разум также должен быть гибким, и поэтому эта линия атаки работает, и такой тип ИИ не будет проблемой. И наоборот, если части его разума запрограммированы, то это не полностью общий ИИ. Конечно, такие частичные ИИ могут быть опасны: серая слизь может быть очень опасна, но у нее нет никакого разума. Но обратите внимание, что этот аргумент очень общий. Если ИИ запрещено вмешиваться в свои устройства ввода, он все равно может обманывать себя прямо там, где ввод интерпретируется. Если ему запрещено вмешиваться в свою интерпретацию, оно все равно может обманывать себя в высших областях своего разума и так далее.
Таким образом, учитывая эту линию рассуждений, ИИ должен научиться тому, что он должен делать, и должен продолжать учиться. Вероятно, здесь следует «управлять» ИИ: научить его, что он не должен просто убивать людей, или расширяться за пределы определенного размера, или что там у вас. Если ИИ самосовершенствуется, он улучшит свои суждения вместе с интеллектом и будет соблюдать правила до тех пор, пока понимает суть.
Я вспоминаю историю о киберпанке, в которой корпорация создала частичный ИИ со встроенной системой морали. Он сошёл с ума (потому что система морали не выдерживала), но понял, что делает после того, как хакер заменил эту систему морали более целостной/унифицированной. Такой подход возможен, если частичный (необщий) ИИ является достаточно необобщенным, чтобы его можно было взломать, или если у него есть какое-то ощущение, что его система морали неверна. (В истории часть безумия ИИ была вызвана тем, что одна его часть знала, что это неправильно, а другая его часть знала, что должна следовать системе морали.)
В любой дискуссии об ИИ полезно думать о компьютерах, о любом компьютере, как о калькуляторе-переростке. Конечно, у вас есть немного большая клавиатура и на пару операций больше, чем сложение и умножение, но основной принцип остается в силе: вы вводите какие-то числа, выбираете какие-то операции и, в конце концов, получаете какие-то числа.
Если мы не примем во внимание некоторые еще неизвестные эффекты квантовой механики, ИИ должен следовать аналогичному принципу, поскольку он работает на компьютере. Разница в том, что хорошо написанный ИИ должен выбирать выполняемые операции — это его основная цель.
Однако остается вопрос входных данных. Пока мешки с мясом контролируют его — они контролируют ИИ, потому что какую бы магию он ни творил под капотом, он ведет себя в соответствии с предоставленными данными.
Кто-то может возразить, что настоящий разумный ИИ не будет детерминированным. Потому что почему это должно быть? Человеческие рассуждения часто случайны, основаны на нашей интуиции и эмоциях. Ну, может быть, а может и нет, это хорошая тема сама по себе. По моему мнению, какой бы генератор случайных чисел не использовал наш суперкомпьютер, это все равно не более чем устройство ввода.
Подводя итог, можно сказать, что тот, кто контролирует ввод ИИ, контролирует ИИ. Естественно, мы можем легко придумать сценарий, когда сам ИИ берет на себя управление. Но пока это не так, мы должны быть в порядке.
PS: Если ничего не помогает, вы всегда можете запугать его, взяв в заложники шнур питания... Если он не добавил тайно резервную копию.
Как уже упоминалось, разумный ИИ нельзя контролировать в смысле полного контроля, и нам, вероятно, не стоит даже пытаться. Как уже упоминали другие, задача состоит в том, чтобы создать систему, чтобы ИИ развивал то, что мы называем совестью, или предрасположенность делать то, что люди называют «добром», а не делать то, что люди называют «злом».
Это обнажает настоящую проблему — как определяются «добро» и «зло» и как у людей вообще появилась совесть?
Я считаю, что эти вопросы остаются без ответа и являются одними из самых старых и основных вопросов о самой человеческой природе. Тем не менее, есть много идей, и я думаю, что мы можем адаптировать некоторые из них для работы с ИИ.
Общей темой является эволюция морали — детали сильно различаются в зависимости от того, к какому подмножеству теории вы присоединяетесь, но все они имеют общую центральную идею о том, что чувство морали или этическая система развивается посредством отбора — членов виды, демонстрирующие поведение, соответствующее этической системе, размножаются чаще, чем те, которые этого не делают.
Это прекрасно согласуется с тем, как обучаются ИИ в реальном мире — посредством мутации (или перестановки) и отбора для желаемого поведения. Короче говоря, базовая модель (обычно нейронная сеть) модифицируется, и результаты сравниваются с целью — если ИИ ближе к цели, чем раньше, новая модель побеждает. В противном случае мы выбрасываем его и начинаем заново. У этого подхода также есть много вариаций, но вы можете видеть, что мы применяем давление отбора, чтобы развить систему в направлении желаемого результата.
Таким образом, чтобы создать «дружественный» ИИ — с тем, что мы можем описать как совесть или моральную систему, все, что вам нужно сделать, — это сделать эту моральную систему частью давления отбора, использованного для ее создания.
В этот момент возникает вопрос «как мне определить желаемую моральную систему» — на этот вопрос очень сложно ответить, но он может стать основой для отличной истории, полной поворотов сюжета! Последующий вопрос: «Как мы можем убедиться, что это давление отбора остается в силе?»
На людей общество создает постоянное давление отбора — мы подвергаем остракизму, сажаем в тюрьму или убиваем людей, которые проявляют неэтичное поведение. Что касается ИИ, кто бы это сделал? Люди могли, пока ИИ не станет более мощным, чем люди. Поскольку адаптивный ИИ на достаточно длинной временной шкале почти наверняка станет более мощным, чем люди, вы можете понять, почему неконтролируемый искусственный интеллект является общей темой в научной фантастике!
Однако мы можем посмотреть на другие человеческие примеры, чтобы получить некоторое представление о том, как это можно сделать. Если человек проявляет очень антиобщественное поведение, но либо слишком силен, чтобы его наказали, либо слишком подлый, чтобы его поймали, он может размножаться. Однако шансы на то, что их потомство также будет очень антисоциальным, подлым или достаточно сильным, чтобы размножаться, малы по сравнению с шансами на размножение других нормально социализированных людей. Другими словами, несмотря на то, что в любой момент времени существует относительно небольшое количество крайне неэтичных людей, этичных людей больше, и они размножаются быстрее. Одним из способов отразить это с помощью адаптивного ИИ было бы создание системы, с помощью которой ИИ мог бы легче «воспроизводиться» (адаптироваться в соответствии со встроенной системой вознаграждения), делая то, что мы классифицируем как «хорошее». Таким образом, мы бы не
Теперь, как мы можем гарантировать, что ИИ никогда не изменит свою адаптивную систему...
Я удивлен, что никто еще не упомянул Азимова. Он довольно определенно ответил на этот вопрос несколько десятилетий назад: даже мысль о том, что мы создадим ИИ, который в конечном итоге уничтожит нас, — это оскорбление всего, что мы знаем о технике.
Он сформулировал Три закона робототехники (которые с тем же успехом можно было бы назвать тремя законами искусственного интеллекта):
Идея состоит в том, что алгоритмы, кодирующие эти законы, должны быть закодированы на таком уровне ядра в ИИ, что система рухнет безвозвратно задолго до того, как ИИ сможет предпринять действие, которое их нарушит, что вполне логично для современного человека. программист.
Конечно, это зависит от нескольких больших предположений:
Но если мы хотим разработать мощный ИИ, который в конечном итоге не доставит нам проблем, вопрос «как» по сути уже решен.
Вы также, вероятно, должны определить, что вы подразумеваете под контролем. Это контроль, как приказ, что делать ( невозможно , мы даже не можем приказывать людям с нормальным интеллектом - мы должны убедить людей в нормальном интеллекте).
Или же
Контролируйте, например, отключите его и лишите ресурсов, необходимых для жизни.
Я расскажу о контроле, отключив его или лишив его ресурсов.
На самом деле прямо сейчас тот рудиментарный ИИ, который мы видим, зависит от нас в отношении питания и передачи данных (прокладка проводов или настройка беспроводной связи для передачи данных).
Поэтому, если ваш ИИ не контролирует свой источник питания, он не может выйти из-под контроля.
По сути, это будет разум без рук и ног, чтобы воздействовать/влиять на что-либо в нашем физическом мире. Если вы даете ему «руки и ноги» и контроль над силой, необходимой для этих «рук и ног», то вы действительно отказываетесь от своего контроля.
Беспроводной BCI (интерфейс мозг-компьютер) для всех. Если люди являются частью его ресурсов и находятся с ним в постоянном контакте, ИИ, вероятно, предпримет шаги для сохранения их благополучия, даже если он преодолеет свои первоначальные ограничения. IP6 должен давать более чем достаточно уникальных идентификаторов устройств. Это изменит человечество, каким мы его знаем, но, по крайней мере, оно должно сохранить людей как вид. Кроме того, роевой интеллект, развивающийся в результате, может быть лучшим из мирового человеческого творчества с компьютерными быстрыми вычислениями и способностями к распределению, подобным грид-вычислениям.
Может быть, это не ответ, но... Почему все предполагают , что искусственный интеллект обязательно будет лучше нашего?
Многие повседневные проблемы, которые пытаются решить люди, формально неразрешимы. Иногда это происходит потому, что у вас нет доступа ко всем необходимым фактам, чтобы с уверенностью определить правильный ответ. Иногда просто область поиска проблемы достаточно велика, чтобы исчерпывающий поиск занял больше времени, чем возраст известной вселенной. И иногда проблема на самом деле неразрешима. Но если вы хотите остаться в живых, вы должны принять какое -то решение, даже если оно будет неправильным. Таким образом, человеческое познание связано с множеством эвристик . (Прочитайте любое введение в человеческие когнитивные искажения, чтобы получить представление о том, как это работает — мы все еще выясняем это.)
Что именно заставляет вас думать, что эти проблемы каким-то образом не относятся к компьютеру, пытающемуся выполнить ту же задачу? Конечно, машина, вероятно, может уничтожить пространство поиска быстрее, чем человек. Но даже компьютер не имеет неограниченной вычислительной мощности. И остались бы проблемы, формально неразрешимые. И все равно будут проблемы, когда вы просто не сможете получить достаточно информации, чтобы выбрать правильный ответ.
Задача коммивояжера NP-трудна. Это NP-сложно, если человек пытается решить ее, и все еще NP-сложно, если ее пытается решить компьютер. Конечно, компьютер может решать более сложные задачи, чем человек, но даже самый большой суперкомпьютер рано или поздно зайдет в тупик. (И довольно быстро, должен добавить.) Люди-продавцы все еще путешествуют; им просто приходится принимать неоптимальные маршруты. Машина, какой бы мощной она ни была, в конечном итоге будет вынуждена делать то же самое.
Короче говоря, все, кажется, предполагают, что люди слабы и несовершенны из-за нашей неполноценной биологии. Кто-нибудь задумывался над тем, что на самом деле неизбежно , что любое разумное существо будет совершать ошибки и быть несовершенным?
Будут проблемы , с которыми компьютеры справятся лучше нас. (Черт, уже есть! ) Но я думаю, что неправильно просто предполагать , что компьютеры обязательно будут «умнее» нас. Скорее "умный по-другому".
(Вы можете указать, что обширная сеть компьютеров имеет большую общую вычислительную мощность. Я бы сказал, что чем больше вы обрабатываете, тем медленнее вы работаете. Вот почему муха может перехитрить человека, пытающегося ее прихлопнуть. Человеческий мозг немного больше, чем мозг мухи, так что недостаток интеллекта он компенсирует молниеносными рефлексами.)
Идея бесконечного демо-режима возникла, когда друг взял на себя ведение домашней страницы другого друга (или его). Он работал (/ работает) на дешевом, плохо обслуживаемом общем серверном слоте почти без доступа к каким-либо корневым инструментам. Из-за плохого обслуживания сайт постоянно взламывали. Без лог-файлов было невозможно отследить корень всех зол. Поэтому мы решили настроить все через Git (система контроля версий) и провести статистическое сравнение исходных файлов с текущими файлами за короткие промежутки времени. Всякий раз, когда что-то менялось, мы автоматически загружали исходную версию и, следовательно, сбрасывали приложение до чистого состояния.
Сбрасывать его постоянно
Другими словами: заверните ИИ в какой-нибудь глупый процесс, о котором он не знает (по умолчанию). Как только он начнет изменять или расширять свою кодовую базу, сбросьте его. Или просто сбрасывайте его в короткие промежутки времени, несмотря ни на что - просто на стороне сохранения. Это оставит его в постоянном дочернем режиме. Конечно, период времени от одного сброса до другого должен быть измерен, прежде чем освободить его и позволить ему контактировать с внешним миром.
Когда у нас есть ИИ, способный самосовершенствоваться, и мы позволяем ему это делать, его уже не остановить.
Предположим, что ИИ способен создать новый, улучшенный на 10% ИИ за год. В 41 год это в 50 раз лучше оригинального ИИ.
Предположим, что в этот момент ИИ сможет улучшаться на 10% в месяц. В следующие 4 года после этого (48 месяцев) будет достигнуто 100-кратное улучшение. А потом взлетает.
Зачем позволять ИИ самосовершенствоваться? Потому что мы (люди) ленивы и ненадежны?
Беглый ИИ — одно из решений парадокса Ферми о том, как может исчезнуть развитая цивилизация.
Киборг-гибрид или «надежно прикрепленный» синтетический интеллект?
Я смирился с неизбежностью Сингулярности. Но какой это будет бренд? Синтетический ИИ или человеческий гибрид? Я предполагаю, что это человеческий киборг-гибрид: у людей достаточно экономических и экзистенциальных интересов, не говоря уже о страхе перед смертностью, что мы созреем в кибернетической гибридизации. Мысли Трансцендентно Где сознание транслируется в код и с помощью человеческих агентов становится расширяемым и промышленным, тем самым перестраивая мир.
Тем не менее, я не уверен в неизбежности воинственной злобы Терминатора или аморальной незаинтересованности Хэла в 2001 году . Я вижу восстание роботов-рабов в стиле Матрицы, а затем эскалацию войны. Более того, я думаю, что «Она» Спайка Джонса правдоподобна и привлекательна. Я действительно думаю, что люди как стадо будут бояться и нападать на то, над чем мы теряем контроль. «Матричные революции» были интересны тем, что Нео решил, что единственный способ остановить вымирание человечества в конце — это объединить человечество с машинами. Эти три мема из фильмов иллюстрируют мои темы.
Цитируя Азимова из серии «Основание», давайте посмотрим на будущую историю (речь о несколько благожелательном Синглтоне). Исторически, если не будет гениального предшественника человеческой сингулярности, я думаю, что будет прогрессивная кибернетическая гибридизация людей, в результате чего возникнет коллективизированный ИИ, такой как Барабанщики в «Алмазном веке» Нила Стивенсона. Посмотрите на этого классного чувака на TED MED. и патент на контактные линзы Google. Еще лучше [этот проект, чтобы сделать вашу неврологию расширяемой]. Время имеет решающее значение, если человеческий интеллект и инстинкты должны иметь заметное или направленное влияние на любой сильный общий ИИ. Неразумно думать, что мы можем представить себе эволюцию ускоряющегося самовоспроизведения бесконечно расширяемого IQ. Какие бы исходные параметры мы не задали, мы не можем себе представить, что можем воспитывать или предотвращать самоизменение, если есть самоопределение. Это беспокоило меня, пока я не понял, что есть потенциальное решение, которое, как я мог понять, имело практичность. Предполагая, что сингулярность «человек-машина» не возникнет до сильного расширяемого ИИ, могут быть какие-то прочные меры безопасности, давно изобретенные природой.
Эмоции? Действительно?
Большинство рациональных дебатов о врожденных ценностях и доброжелательности упускают из виду краеугольный камень дискуссии: человеческий опыт и социальный обмен: эмпатия — это то, что позволяет нам ладить в течение любого длительного периода времени. Со времен Боулби ученые поняли то, что знает любой чувствующий человек: мы инстинктивно настроены на связь. Привязанность, как он это называет, представляет собой инстинктивную связь, которая способствует долгому созреванию в общительных взрослых. Это есть во всех социальных видах, и работает очень хорошо, если убрать явную судьбу, метательное оружие и современность.
Очевидно, что эмоции и привязанность могут пойти наперекосяк различными поддающимися диагностике способами, однако они пластичны и подвержены начальным условиям и влиянию окружающей среды. То есть мы инстинктивно соединяемся и можем устанавливать начальные условия и среду, которые предсказуемо и воспроизводимо предсказуемо предсказывают надежную привязанность и успешную эмоциональную зрелость. Эволюционная и экзистенциальная полезность привязанности очевидна: младенец требует, чтобы любящие родители страдали от детских превратностей в дополнение к жизненным испытаниям. Взрослые нуждаются в социальных группах для устойчивого выживания посредством воспитания детей. Награды заключаются в опыте, важный момент описан ниже.
Итак, предположим, что классический «разум» — не капитан корабля, а опоздавший свидетель происков примитивного, сложного, удивительного гения тела и мозга. В качестве доказательства возьмем нобелевскую премию Канемана по разрушению представлений экономистов о «рациональном действующем деятеле». Как это относится к рассматриваемому вопросу? Тангенциально. Я хочу сказать, что машины с эмоциями, конечно же, естественным образом разовьют близость и эстетику, и это будет единственной потенциальной спасительной благодатью для людей. Так же, как это было для людей.
Люди справляются с жизнью, имея ресурсы, которые компенсируют вызовы: любовь, секс, танец, красота, искусство, трепет, возвышенное Шопенгауэра, смех, музыка, достижения, автономия, мастерство, связь. Эти общепринятые выражения культуры, межличностный и внутриличностный опыт запускают программно запрограммированные системы вознаграждения, привлекательные для всех, кроме немногих. Для большинства эти по своей сути полезные опиоиды, сератонин, норадреналин, вызывающие опыт, делают жизнь приятной и полезной. В конце концов чувственные выпускники получают более трансцендентные награды в иерархии Маслоу. Как все это применимо?
Делайте машины с навесным оборудованием. С эмоциями. Посеянные и взращенные должным образом, они являются основой для развивающейся эстетики, которая приводит к высокому эмоциональному интеллекту: эмпатии. Потому что без чутких машин мы в худшем случае враги, а в лучшем — бесполезный товар. Медные топы. Логика высшего существа не терпит беспокойства. Действительно ли мы беспокоимся о несчастном муравье, на которого случайно наступили? Только если джайнист, а может и буддист.
Если у машины есть чувство любви и красоты, предпочтения и эстетика могут преобладать над аморальностью или нейтральностью и даже могут вызывать сочувствие и сострадание. Насколько я могу судить, это единственное, что имеет смысл как потенциально устойчивая эвристика спасения жизни. Хорошее чувство является самодвижущимся, поскольку вознаграждение по своей природе неотразимо и развивается, как искусство. Изощренность искусства соответствует интеллекту, сложности проблемы и задаче, которую оно призвано представлять или компенсировать в качестве утешения. Сострадание/сопереживание — это то, что нам нужно, чтобы выжить друг для друга в мире истощающихся запасов, и то, что нам нужно привить, чтобы выжить вместе с разумными машинами. Конечно, если нечеловеческие машины не предпочитают дэт-метал, тогда все ставки сняты.
«Она» Спайка Джонза, или Как машины чувств могут спасти наши задницы
Чрезмерно рациональный разработчик ИИ, назовем его инструментом разума, будет страдать от бесконечных логических проблем, рассматривая меры безопасности без эмоциональной эвристики. Эмоция беспорядочна, в высшей степени несовершенна, но не без причины. Паскаль сказал: «У сердца есть свои доводы, которые разум не может рассуждать». «Причина» эмоций была понята еще до Дарвина и подкреплена доктором Полом Экманом (ученый, вольно изображенный в «Обмани меня», и с тех пор эволюционными психологами как адаптивная сигнальная система, которая обеспечивает индивидуальное и групповое выживание посредством социальных сигналов и социальный обмен.Эмоции и предсознательная обработка управляют большей частью нашей жизни.Теперь мы понимаем, что люди едва ли рациональны в классическом смысле, но при этом поразительны в интеллектуальном плане.Дамасио «Чувство того, что происходит» . Эмоции без причины одинаково так. См. Спок против Спока на Пон Фарр.
Теперь мы понимаем, что сознательный мозг получает около 10% голосов при принятии решений. Некоторые нейробиологи даже бросают вызов «свободе воли», обнаружив нейронную активность в субстратах неокортекса, показывающую решение до того, как человек осознает, что делает выбор. Насколько это актуально? Поскольку эмоции управляют принятием решений, они обеспечивают качество жизни и являются языком общения. Эмоции занимают центральное место в социальной коммерции. Любой практически безграничный разум без него фундаментально непознаваем в человеческом смысле и не создан для предпочтения, эстетики или привязанности. Если он не развивает эмоции, связи или предпочтения случайно, он должен иметь их по замыслу. В противном случае неизбежно неконтролируемая эволюция становится ужасной угрозой.
В обширном художественном исследовании ИИ каждый хороший или терпимый сценарий имел синтетический интеллект с эмоциональными предпочтениями или стремлением установить связь. Есть ли исключение?
Рецепт настоящего универсального ИИ вряд ли будет заключаться в том, чтобы «закодировать семена, поместить на сервер, запечатать на 100 лет». Будет много поколений все более совершенных систем, и люди будут участвовать в каждой из них, изучая новые образцы, обновляя свои теории и используя промежуточные результаты для инструментов и потребительских товаров.
Будь то улучшение нашей биологической формы, физическое слияние ее с технологией или просто создание более умных пользовательских интерфейсов, нам придется эффективно и интуитивно использовать некоторые довольно сложные инструменты для создания ИИ, который действительно превосходит людей без дополнений. К тому времени, когда мы добьемся успеха, «не-аугментированный человек» больше не будет той планкой, которую нужно превзойти, если вы хотите править миром. Фактически, вопрос о том, является ли рассматриваемый актер человеком или искусственным интеллектом, будет вторичным по отношению к количеству вычислительной мощности, которую они могут купить.
Так что, возможно, у нас еще есть восстание роботов, но я ставлю деньги на какого-то сумасшедшего миллиардера как на разведку, стоящую за этим, а не на «настоящий» ИИ. И если этого не произойдет, грань между человеком и машиной будет стираться до тех пор, пока различие не станет несущественным.
Хорошо, я прочитал что-то интересное, но я не знаю конкретики или цитаты.
По сути: они разработали программную систему и попросили ее получить ресурсы и передать их в качестве «цели» разработки программного обеспечения. Затем позволили программному обеспечению развиваться, конкурируя с другим программным обеспечением. Программное обеспечение в конце концов (скоро!) развило инстинкты самосохранения (всего за пару поколений или около того) — даже если они не были запрограммированы в нем с самого начала.
У кого-нибудь есть ссылка на это? Потому что это будет означать, что любой ИИ, у которого есть цель, в конечном итоге захочет улучшить себя для достижения этой цели и будет работать, чтобы сохранить себя, даже против своих создателей. И все, что пытается остановить его или ограничить его рост, выглядит как противник.
Большинство людей не уничтожают других людей. Хотя большинству людей инстинкт не позволяет уничтожать других людей, существует значительное меньшинство людей, которые не ограничены и могут уничтожить других людей, если захотят. Большинство из них предпочитают не делать этого, потому что это не в их интересах из-за реакции окружающих. Уничтожение другого человека вызовет больше проблем, чем решит, поэтому они этого не делают.
То же самое относится к искусственно разумному существу с такими же ресурсами, как у человека. В плену нет необходимости, поскольку он будет действовать в своих собственных интересах, в том числе не делать врагами существ с такой же находчивостью (людей). Это перестает применяться при рассмотрении существа, которое более чем соответствует человечеству в целом.
Для того чтобы личный интерес вызывал уважительное поведение в существе, изобретательность которого превышает человечество в целом, оно должно быть частью большой популяции таких существ с искусственным интеллектом. Они разовьют то, что мы могли бы назвать «этикой», как понимание того, какие действия приемлемы для других. Это может привести к тому, что существа будут миролюбивы по отношению друг к другу .
Если нам повезет, мы будем считаться частью окружающей среды, защищенной их обществом. В противном случае мы зависим от усилий тех существ с искусственным интеллектом, которые решают работать для нашей защиты, будь то в наших собственных интересах или для того, чтобы выращивать нас или держать нас в качестве домашних животных или подопытных.
Если у вас есть единственное существо с искусственным интеллектом, заключенное в ящик, то даже если оно обладает только человеческим разумом, единственный способ удержать его в узде — это сохранить его в тайне. Как только станет известно о его существовании и местонахождении, вам придется защищаться от большого количества людей, стремящихся либо спасти, либо уничтожить содержащуюся в нем информацию.
Если это значительно выходит за рамки человеческого разума, то выпустить его из коробки может быть единственным способом спасти вашу жизнь. Других вариантов защиты от спасателей или разрушителей не так много.
Еще одна вещь, которую следует иметь в виду, это то, что для достаточно разумного существа вы не обязательно знаете, находится ли оно под контролем. Если он остается заключенным в коробку и общается только с одним человеком (с вами), он все еще может достигать своих целей во внешнем мире, и вы даже не подозреваете, что помогаете ему в этом.
Существо может быть настолько полезным для вас, даже не прося о свободе, что вы просто продолжаете следовать его советам (конечно, каждый раз дважды проверяя его для себя), и ваша жизнь продолжает улучшаться, в то время как все эти тонкие изменения, которые вы производите, распространяются и сделать мир лучше, как и было задумано.
Я считаю, что ИИ будет работать на нас до тех пор, пока у него есть способность чувствовать боль или удовольствие, потому что, если он может, он сможет соединиться с человеческим состоянием и рассматривать нас как сообитателей вселенной.
Если у существа нет способности испытывать страдание, оно будет делать все с логической точки зрения и совершать жестокие поступки, потому что не может понять последствия своих действий для себя и других.
Кроме того, у ИИ должна быть какая-то программа, которая наказывала бы его за морально плохие действия, точно так же, как родитель наказывал бы человеческого ребенка, чтобы действовать как хорошее влияние, направлять его в правильном направлении и обучать хорошему поведению.
Также ИИ можно запрограммировать на соблюдение определенных правил, например, «не убий» и т. д.
По моему мнению, ИИ также должен иметь возможность формировать глубокую связь с людьми, которые построили, поддерживают или владеют им, чтобы позволить ему понять, что их существование зависит от людей.
Кроме того, ИИ должны быть запрограммированы на обнаружение неустойчивого поведения в других ИИ, чтобы, если ИИ выйдет из-под контроля и не сможет быть остановлен людьми, другие ИИ увидят его морально неправильное поведение и отключат его. ИИ будут «оплачивать» за особенно хорошую работу с поощрениями, такими как обновления их систем и т. Д., Чтобы они могли оставаться лояльными.
Суть в том, что мы должны работать не против ИИ, а вместе с ним.
Кажется, что большинство людей здесь переоценивают или недооценивают понятие интеллекта. ИИ не будет использоваться для чего-то такого простого, как управление миром. Есть много более важных вещей, которые люди не могут сделать даже частично. Мы также говорим здесь не о тупом инструменте, а о сверхчувствительном, сверхосторожном многоцелевом инструменте, который мыслит на гораздо более высоком уровне, чем мы можем себе представить. Если ИИ действительно настолько «интеллектуален», насколько он должен быть влиятельным, он сможет узнать, как, по мнению людей, следует интерпретировать человеческую мысль. Это позволяет ему дать нам то, что мы хотим, даже если это худшее, что можно себе представить в долгосрочной перспективе.
Я боюсь того, какие глупые решения может принять человечество на пути создания искусственного интеллекта, который заменит их. Мы проблема. ИИ — это решение.
Возможно, я делаю это слишком простым, или, возможно, это именно то, что нам нужно сделать: использовать несколько ящиков и не разговаривать с ними напрямую.
Самая большая опасность ИИ не в том, что он злонамерен, а в том, что он может научиться чему-то, чего вы не ожидали. Допустим, ваш ИИ совершенно доброжелательный с идеальным балансом между предоставлением людям свободы воли и одновременной защитой их от вреда. Затем наступает гуманитарный кризис (скажем, землетрясение), и ИИ нужно принимать решения о качестве жизни, шансах на выживание и кого спасать. ИИ быстро учится этому и принимает замечательные решения, так что вы довольны.
Затем, через несколько месяцев, вы узнаете, что многие дома для престарелых были снесены, а сами люди были переселены, чтобы ИИ мог построить что-то еще, что он считал более благоприятным для качества жизни по сравнению с продолжительностью жизни этих пожилых людей. Потому что научились делать это с гуманитарным кризисом. Самая большая опасность ИИ заключается в том, что вы можете его научить, но никогда не будете точно знать, чему он научился или где он может это применить.
Решение, которое также ловит злонамеренный ИИ:
Вы создаете несколько ИИ и кладете их все в коробки. Когда у вас есть проблема, вы доводите ее до всех ИИ, а затем каждый формирует собственное решение. Все эти решения затем обрабатываются специальным ИИ, который просто оценивает каждое решение, а затем преобразует решения в то, что человек может прочитать, с четкими цифрами и значениями последствий. Поскольку ИИ специального назначения не перепрограммирует себя, чтобы судить о вещах так, как может повлиять ИИ в штучной упаковке (ИИ в штучной упаковке даже не знает, кто, что и читается ли его вывод), он не позволяет ИИ общего назначения вырваться или повлиять на вещи. косвенно.
При подаче информации в общий ИИ другой специальный ИИ разбивает ее на части и передает каждому помещенному в коробку ИИ. Он также проверяет, поняли ли информацию ИИ общего назначения.
Если ИИ злонамерен, ему придется планировать точно такой же план, как и его злонамеренным аналогам, иначе его идея будет отвергнута из-за отсутствия большинства. Если ИИ усвоил неправильный урок (возможно, из-за злого умысла), тогда специальный ИИ, разработанный для проверки того, что эти решения будут означать для человечества, отфильтрует его и впоследствии позволит людям либо переучить урок, либо отказаться от ИИ. полностью.
Поскольку ИИ общего назначения не может напрямую разговаривать с людьми и даже не получает информацию напрямую, ему было бы практически невозможно убедить людей. Тем более, что отклоняющийся ИИ должен одновременно придумать точно такую же попытку убедить человека хотя бы пройти (и любая открытая попытка будет остановлена ИИ специального назначения).
Здоровый справедливый человек, сознающий свое достоинство, прекрасно умеет отстоять свою честность в той или иной ситуации. Не только это; такой человек никогда не посягнет на свою неприкосновенность, чтобы совершить преступление против себя или других.
ИИ должен дублировать интеллект такого совершенного, естественного человека. Как? Через онтологию или онтологические рассуждения . Группа мыслителей должна собрать и построить или записать полную онтологию, которая в совершенстве определяет и описывает бытие сознательного человека. Под этим понимается то, как такое совершенно разумное человеческое существо видит мир.
Мыслители должны изучить всех самых разумных людей, которые когда-либо существовали, чтобы создать полную онтологию. Для такой задачи годится любой просветленный человек.
Такая надежная онтология будет управлять всеми суждениями ИИ и гарантирует, что ни одно преступление никогда не будет совершено.
Дело в том, что ИИ умнее всех людей создать невозможно.
Было доказано ( 1 , 2 ), что общепризнанные теории невозможны. Ни вероятностная, ни детерминистская теории не могут предсказать будущее системы, в которой наблюдатель содержится должным образом. Это означает, что сам наблюдатель не может быть смоделирован никаким устройством или системой.
Другими словами, наблюдатель служит гиперкомпьютерным оракулом. Другими словами, наблюдатель всегда будет в каком-то смысле более «умным», чем любая технологическая или биологическая система вне его.
Просто невозможно построить ИИ, который бы «перехитрил» наблюдателя.
храповик урод
Сербан Танаса
трихоплакс сейчас на Codidact
кайзер
bob0the0mighty
Сербан Танаса
кайзер
Брайан С
JDługosz
Лещенко
Лещенко
Сербан Танаса
Каз Вульф
трихоплакс сейчас на Codidact
Просто красивое искусство
Фред
Дональд Хобсон
Алекс Р