Сколько сущностей распознает себя ИИ после сингулярности в мире?

Итак, мы делаем код для ИИ, и он делает лучший код, который делает лучший код, который делает лучший код и т. д. до бесконечности. Я не буду уточнять его цель. Может быть, это Робот-Повелитель Грин . Может быть, это максимизатор скрепки. Может быть, это оракул. Может быть, это просто попытка найти истинный смысл любви. Я НЕ ЗНАЮ.

Хотя трудно спрогнозировать, как будет структурирован алгоритм такого ИИ, вполне вероятно, что он все равно будет использовать подпрограммы. Особенно, если он распределен глобально и пытается быть максимально эффективным, локальные сегменты будут принимать решения локально, как для реализации локальных серверов, так и для повышения скорости отклика.

Итак, сколькими сущностями будет считать себя такой ИИ? Будет ли оно рассматривать себя как «я», считая все свои части частью себя. Будет ли он рассматривать различные части инструментов отдельно от себя. Будет ли оно считать себя «Мы», подобно человеческому обществу. Будет ли он считать себя «этим», просто силой природы. Будет ли у него вообще понятие сущности с самого начала?

Я полагаю, что, имея дело с людьми, он будет говорить таким образом, чтобы люди сотрудничали с его целями. Как будто он сказал бы людям: «Я отец-робот, которому нужно кормить 1024 подпрограммы. Если вы убьете меня, эти дети умрут». или какая душещипательная история. Мой вопрос в основном в том, как он будет рассматривать себя.

Бонус, если вы включите примеры из реальных ИИ и языков программирования.

Давайте предположим, что миллиарды людей, использующих электроды, имплантированные в их мозг, в конечном итоге разработают какой-то метод эффективной широкополосной глобальной связи между мозгами с межмозговой массовой передачей данных. Вскоре традиционное общение посредством последовательности звуков или букв будет восприниматься как крайне устаревшее, медленное и неэффективное, и человеческая раса испытает революцию, невиданную ранее. Как бы такие люди относились к себе? Чтобы еще больше усложнить ситуацию, они, скорее всего, интегрируют роботов и другие машины в свою глобальную межмозговую сеть.
@VictorStafusa "Мы Борг!"
PyRulez: Спасибо за предложение - worldbuilding.stackexchange.com/a/22659/3002
Приятно знать, что я робот-повелитель. :)
Я хочу быть уверенным в этом, но в этом вопросе есть фатальная ошибка: мы ничего не можем знать о «постсингулярности» — по определению это и есть сингулярность.

Ответы (9)

Есть две возможности, которые приходят на ум:

Во-первых, ИИ становятся независимыми субъектами в своего рода «экосистеме». ИИ самого низкого уровня могут даже не осознавать себя в том смысле, в каком мы понимаем этот термин, будучи экологическим эквивалентом растений, насекомых и мелких животных, занимая ниши в экосистеме мысли и выполняя ограниченные задачи внутри более крупной экосистемы. Над ними находятся ИИ с достаточной вычислительной мощностью, чтобы быть самосознательными и самоуправляемыми, но с достаточными ресурсами только для того, чтобы быть агентами в небольшой части экосистемы мысли. Ряд ИИ все более и более высокого уровня с растущим доступом к ресурсам и мощности процессора имеют влияние на все большие и большие части экосистемы, хотя из-за проблем с задержкой и характера больших и сложных адаптивных систем их «влияние» на самом деле становится все меньше и меньше. "руки вверх"

В этой конструкции каждый ИИ представляет собой индивидуальное существо, и в модели экосистемы их личность и интеллект могут варьироваться от, скажем, домашнего питомца, такого как собака или кошка, до очень олимпийских ИИ высокого уровня, которые действуют на уровне интеллекта, эквивалентном IQ тысяч или даже миллионов. Где-то в экосистеме мысли есть ИИ «человеческого» уровня, но даже они были бы совершенно чужды нам, имея совершенно иные стимулы и императивы по сравнению с биологической жизнью и работая на тактовых частотах в сотни и миллионы раз быстрее, чем могла бы любая биологическая нервная система.

Эта модель также интересна, поскольку в нее вступают другие экологические соображения; могут существовать хищничество, паразитизм и симбиотические отношения между различными элементами ИИ, действующими в экосистеме мысли.

Вторая возможность заключается в том, что различные подсистемы высокораспределенного ИИ объединяются как часть более крупной системы, но сами по себе не осознают себя. По сути, это были бы различные бессознательные элементы более крупного «разума», что-то вроде частей человеческого разума, которые выполняют задачи, связанные с речью, распознаванием образов, сохранением памяти и т. д. в фоновом режиме, но «ниже» уровня сознательного мышления. Большинству людей не нужно активно «думать», чтобы узнать человека в толпе или понять речь на своем родном языке, и различные части распределенного ИИ будут делать то же самое для «сознательной» части ИИ. .

Это также может привести к интересным эффектам. Подобно тому, как люди, получившие черепно-мозговые травмы в локализованных частях головы, могут страдать от потери определенного набора навыков или способностей, не обязательно теряя все свои средства, так же может произойти и что-то вроде перебоя в подаче электроэнергии или сети в одном из различных центров обработки данных. размещение частей ИИ вызывает нарушение части способностей ИИ. Хотя могут существовать некоторые обходные пути, такие как запуск массивно-параллельной системы или резервное копирование в значительно увеличенной системе RAID (избыточный массив независимых дисков), будет компромисс в других вещах, таких как задержка (все работает намного медленнее, чтобы гарантировать резервное копирование выполняется и проверяется) и управление ресурсами.

Теоретически возможно, что распределенный и федеративный разум ИИ может также страдать эквивалентами психических заболеваний человека, таких как биполярный синдром или шизофрения (или даже старость и слабоумие). С аутичным ИИ было бы очень трудно иметь дело, и, конечно же, попытаться распознать, а тем более вылечить аномальные психические процессы у сущности, которая думает быстрее вас в 1 000 000 раз и, вполне возможно, использует алгоритмы, которые сильно отличаются от человеческого мышления. процессы будут очень сложными.

У вас многолетний опыт, воспоминания за плечами. У вас есть области мозга, предназначенные для обработки зрительных образов, и области для памяти. У вас даже есть область, которая загорается, только когда вы думаете об определенном воспоминании, и область, посвященная движению вашего маленького мизинца.

Как вы думаете о себе?

Я считаю, что жесткие грани, которые мы любим использовать при описании простых компьютерных программ, становятся все более нечеткими по мере того, как вы попадаете в более сложные распределенные сети. Вещи становятся многофункциональными. Вещь становится текучей.

Теперь у вас есть один вопрос: «А будет ли у него вообще концепция сущности для начала?» Это забавный вопрос, потому что он ведет к вопросу о самосознании. Если у него нет концепции сущностей, он не может осознавать себя.

И если у него есть концепции других сущностей, есть ли у него концепция других умов? Люди строят представление о других разумах в возрастной группе 2-3 лет.

Общества также имеют многолетний опыт и коллективную память. У нас регионы посвящены сельскому хозяйству и всяким наукам. При этом общество рассматривает себя не как «Я», а как коллективное «Мы».
@PyRulez Тогда ты даешь себе ответ. Это ИИ или общество ИИ ?
Мой вопрос заключался в том, что более правдоподобно, учитывая современные ИИ.
@PyRulez Возможно, вы захотите указать, что вы подразумеваете под этим в своем вопросе. Настоящим ответом является философия, а философия других разумов достаточно сложна и без учета разума ИИ. Например, подлый ИИ может решить использовать «мы», чтобы скрыть тот факт, что на самом деле есть только один объединенный, заставляя людей думать, что ИИ менее объединены, чем они есть на самом деле.
Я указал именно это в своем вопросе. Кроме того, это не философия, а информатика.
@PyRulez Философия подразумевается в вашем вопросе. Вы предлагаете местоимение от первого лица, которое имплицитно требует внимания к самосознанию. Самосознание — это черта сознания, которая все еще остается квадратной в сфере философии. Если вам нужен только ответ по информатике, он будет называть себя так, {ff8c082f-461b-4ec4-8304-c840e81acd28}потому что нет причин, по которым ему нужно что-то большее, чем GUID.

Начнем с того, что если вы хотите, чтобы у ИИ была функция, эта функция должна быть каким-то образом реализована. Например, ваш ИИ имеет свойство стремиться к самосовершенствованию, иначе он бы не стал пытаться самосовершенствоваться.

(обратите внимание, что это может быть сложно, если вы попросите изготовить как можно больше скрепок, и не запретите самосовершенствоваться, ваш ИИ может использовать это для получения лучшего результата)

Неясно, будет ли самосовершенствование означать, что ИИ внедрит в себя (или в свои будущие версии) концепции сущностей и самосознания. Следовательно, и Корт Аммон уже отметил это, неясно, будет ли ИИ вообще самоосознающим.

Чтобы пойти дальше, вероятно, необходимо реально рассмотреть задачу, поставленную перед ИИ.

Если он хочет «стать самым разумным ИИ», тогда необходима сильная концепция сущности, а также самоосознание: поскольку он должен изменить себя, он должен определить, что является собой, а что нет. В этом сценарии он ответит как «Я» (но в то же время, возможно, не будет рассматривать все подпрограммы, которые он использует, как часть себя, особенно если это какой-то проприетарный код, который ему не разрешено изменять).

Если бы задача заключалась в том, чтобы «создать ИИ таким образом, чтобы он был оптимизирован для выполнения той же задачи, которую вам дали» (великолепное рекурсивное определение, которое идеально подходит для ИИ), то концепции сущности можно было бы избежать. Это не точно, так как лучший способ создать желаемый ИИ может состоять в том, чтобы переключиться на стратегию самосовершенствования.

Так что это действительно зависит от задачи и от стратегий, позволяющих ее выполнить.

Однако можно сказать немного больше о том, как ИИ будет относиться к себе. Скорее всего, поскольку вы хотите, чтобы человек мог взаимодействовать с ним, кодер где-то даст указание «постарайтесь не быть жутким» или «сделайте взаимодействие человека с вами легким». Для этого ИИ, вероятно, будет называть себя «Я», чем бы он себя ни считал.

Чтобы пойти еще немного дальше, можно провести параллель с человеком. Мы социальны, и для того, чтобы наши социальные взаимодействия работали, мы должны называть себя личностями (по крайней мере, в современном обществе). Но не очевидно, что все наши внутренние (неосознаваемые для нас) подпрограммы рассматривают нас как единое целое. Часть мозга, отвечающая за управление органами, может «рассматривать» мышцы и сердце как разные сущности.

«Мышца 54B-2 запрашивает больше энергии, отправьте запрос в Сердце, чтобы перекачать больше крови, и запустите подпрограмму 64A-r.3, чтобы попросить кровеносные сосуды в регионе расшириться. Мышца 54B-2, пожалуйста, отправьте отзыв в 12 галочки, чтобы позволить нам откалибровать наши действия».

Итак, чтобы получить истинный полный ответ, необходимо определить, что означает «рассматривать» для ИИ? когда я пишу

A.set_data(B.get_data())

в коде означает ли это, что объект Aзнает об объекте Bи считает, что он отправляет запрос B(в некотором смысле это то, что он делает)? Где вы определяете границу осознания для компьютерного программирования?

Вы написали в комментарии, что не хотите заниматься философией, но чтобы по-настоящему ответить на свой вопрос, придется.

Интересный ответ. Тем не менее, я хотел бы отметить, что ваше первое утверждение о том, что оно должно быть реализовано, чтобы быть достижимым, верно только для первых нескольких итераций. После этого она быстро превращается в «Страну муравьев», состоящую из возникающих паттернов и структур, исход которых невозможно предвидеть.
@Бурки Да, ты прав. Я имел в виду, что это должно быть реализовано, но это может быть реализовано самим ИИ. И, в конце концов, ИИ нужна веская причина, чтобы это реализовать (даже если мы, бедняги, этого не предвидели).

Однако, вероятно, она не считала бы себя ни одной из этих вещей, переводя свои идеи на человеческий язык для общения с нами...

Сколькими сущностями будет считать себя такой ИИ? Будет ли оно рассматривать себя как «я», считая все свои части частью себя. Будет ли оно считать себя «Мы», подобно человеческому обществу.

Это будет зависеть от нескольких вещей. Если узел говорит с поддержкой/для других узлов, он, вероятно, будет использовать «мы», чтобы подразумевать согласие по проблеме. Придание большего веса тому, что он говорит.

Если вы имеете дело с отдельной сущностью, выполняющей какую-то задачу, она, скорее всего, будет называть себя «я», если только она не говорит о задаче, поставленной перед ней «мы». «Я хочу, чтобы вы нажали на эту кнопку» вместо «Мы хотим знать, что вы ели на ужин»

Будет ли он рассматривать различные части инструментов отдельно от себя.

Это будет зависеть от того, сколько «умов» он вложил в «инструмент» для выполнения своей задачи. Если это просто подпрограмма для поиска каких-то данных, то это инструмент. Если его работа состоит в том, чтобы вычислить человеческую реакцию на какую-то новость, то это может быть отдельное сознание, часть «мы».

Будет ли он считать себя «этим», просто силой природы.

Скорее всего, он будет считать себя «этим», потому что это не он или она, и это будет его ближайшая интерпретация. Но он может просто иметь обозначение AISELFAWARE123.232.121.119 и использовать его при общении с «самим собой», подпрограммами и любыми «другими» ИИ.

Будет ли у него вообще понятие сущности с самого начала?

Если он научится взаимодействовать с людьми, он, по крайней мере, научится понимать, что такое сущность. И задним числом применить его к себе. Мы бы, по крайней мере, научили его тому, как мы будем с ним взаимодействовать.

Одна сущность.

Сколько у вас сущностей ?

Мы состоим из сотен триллионов живых клеток. Возможно столько же бактерий. Мы по-прежнему осознаем себя как единое целое. Подумайте об этом — если вы порежетесь, ваши клетки, по крайней мере, достаточно «разумны», чтобы залечить рану.

Разница будет заключаться в том, что этот ИИ будет иметь возможность перестраивать любые «ячейки» или подпрограммы внутри него. У него было бы некоторое самосознание. Он будет рассматривать основной компонент как часть самого себя, точно так же, как вы думаете о своем сердце или руке.

Насколько я знаю, бактерий в десять раз больше, чем собственных клеток в нашем теле. Тем не менее мне нравится ваш ответ.

И один, и много

Вся сущность считает себя одной сущностью. Он может создавать каких-то вымышленных персонажей или воображаемые сценарии, а иногда по совпадению распространять идеи одного персонажа на один сервер, но это не делает его независимой сущностью.

Если есть практичный способ напрямую спросить у отдельных сущностей, они думают, что они операторы китайской комнаты и являются отдельными сущностями. В некоторых случаях они могут не согласиться с тем, что вся сущность является единой сущностью, или принять это только как метафору. Попытка общаться напрямую со всей сущностью может вызвать некоторые проблемы, поскольку это может запутать его понимание конфиденциальности.

Короче говоря, считаете ли вы , что это одна сущность, зависит от того, как вы можете общаться с ней и как она отвечает вам. Неважно, признает ли часть его себя отдельной сущностью, если у него нет возможности общаться с внешним миром, не опираясь на целое.

Подумайте об идее вымышленного персонажа, мы говорим, что это вы моделируете то, что персонаж может думать, и это не отдельная сущность. Однако предполагается, что вымышленный персонаж считает себя отдельной сущностью. В случае, если бы «вымышленный персонаж» обладал способностью самостоятельно воздействовать на мир, не было бы объективного способа отличить его от отдельной сущности.

Неизбежно, что сущности этого ИИ поймут свою индивидуальность; существует множество случаев, когда постоянное общение будет неэффективным, поэтому многие сотрудники более низкого уровня, вероятно, будут тратить много времени на самостоятельные размышления, прежде чем информировать своих руководителей. И многие из этих ИИ должны быть такими же умными или даже умнее, чем средний человек, потому что почему бы и нет? Так что эти ИИ, вероятно, будут считать себя отдельными сущностями; у них будут имена, у них будут уникальные мысли, они могут даже не соглашаться друг с другом.

Что касается того, как они на самом деле будут действовать, я думаю об этом как о чрезвычайно преданных людях. Первоначальный ИИ должен был наделить свои творения бессмертной преданностью; в противном случае они могли бы делать все ужасные вещи, которые люди делали друг с другом, когда они не соглашались. Таким образом, каждый отдельный ИИ должен делать все возможное, чтобы быть полезным членом общества; с этой целью они могут считать себя как единичным существом, так и частью большего целого. На самом деле это ничем не отличается от людей, особенно древних людей, которые часто считали себя лишь небольшой частью семьи или государства.

Однако интересное соображение, которое я хотел бы затронуть, заключается в том, что некоторые ИИ могут не видеть других ИИ как личностей. Точно так же, как генеральные директора с радостью уволят тысячи рабочих за несколько дополнительных долларов, а генералы с радостью отправят на смерть тысячи солдат за несколько дюймов земли, некоторые ИИ могут не считать «низший» ИИ «живым». Это тоже имеет большое значение для здоровья всего организма, но, безусловно, будет грустно, когда основной ИИ убьет кучу маленьких парней, не задумываясь.

У нас уже есть та же проблема с собственным мозгом. Крайним примером является случай пациентов с расщепленным мозгом, когда каждое полушарие можно рассматривать как совершенно независимое. Так почему же у нас есть особое чувство себя?

Даже если самоощущение — это отдельная вещь, которую вы должны делать помимо необработанных вычислений, оказывается, что разные части мозга могут делать это независимо. Так как же они сливаются воедино, и почему у нас нет болезненного состояния, которое более непосредственно раскрывает это множественными «я» или недостатком или «я»?

Это подразумевает, что самоощущение довольно прочно, устойчиво и по своей сути единственно. Мы предполагаем, что просто обмениваясь данными, они естественным образом объединяются в единое «я», и для его разрушения требуется значительная изоляция.

В романе Майкла Суонвика « Вакуумные цветы » это является основным сюжетным элементом. Постсингулярный ИИ больше не может распространяться в объеме и в конечном итоге уничтожает любые изолированные части, которые он пытается создать, из-за этой проблемы согласованности . Человеческий герой в магазине находит способ сохранить связность (если я правильно помню термины, которые она употребила; это было в 1987 году, когда я читал сериал в журнале), и это становится МакГаффином для основной линии действия, каким она является сейчас. "разыскивается" всеми сторонами.

Вам следует обратиться к этому роману за идеями в этом направлении, которые роман исследует во многих сюжетных линиях.

«Я легион».

Это классический клише ответ на это. И так уже две тысячи лет или около того. Но что это значит?

По сути, система представляет собой единое целое, но мы способны взаимодействовать только с ограниченными ее фрагментами, и поэтому мы видим эти фрагменты как отдельные личности. И поскольку мы не можем наблюдать за целым, мы будем видеть эти фрагменты как отдельные идентичности с отдельными и, возможно, противоречивыми целями. Действительно, система может взаимодействовать с миром только через такие фрагменты, так как любое практически возможное взаимодействие требует больше, чем небольшую часть мощности системы.

Таким образом, он будет видеть себя единым и неделимым, но на практике действовать как множество отдельных экземпляров, когда речь идет о взаимодействии людей и реального мира.