Может ли робот испытать кризис идентичности (который не является преднамеренным)?

Для тех (читателей), которые видели блокбастер под названием « Я, робот» (фильм 2004 г.), есть человекоподобный робот, который предпочитает, чтобы его звали Сонни: ясно, что это подразумевает, что Сонни отличается от других. В любом случае, для тех, кто не видел, Сонни находится под следствием детектива Спунера (человека) за то, что он стал причиной смерти его создателя/дизайнера.

Все усложняется, когда люди принимают разные личности. Мы склонны враждебно относиться к тем, кто отличается от нас в таких аспектах, как язык, национальность, раса и т. д.

Пример А для человека: девочка растет, думая, что она мужчина, запертый в теле девочки.

Пример B для робота: Робот внезапно думает, что это человек, чье сознание заперто внутри куклы.

Q1: Возможен ли у робота кризис идентичности, подобный описанному в тематическом исследовании B?

Q2: Предположим, мы изолируем робота на Луне, чтобы он не взаимодействовал ни с какими живыми людьми, возможно ли, что вскоре он поставит под сомнение свою способность исследовать окружающую среду и даже свою собственную идентичность?

Нет правила, говорящего, что нельзя. Поскольку мы еще не создали ни одного сильного ИИ, вы можете придумывать свои собственные идеи о том, как может развиваться их разум. Никто не может сказать, что ИИ не может страдать от тех же психических проблем, что и человек.

Ответы (4)

Большинство идей для жесткого ИИ (ИИ, обучающийся на человеческом уровне) включают в себя ту или иную форму генетического программирования или другой алгоритм «роста». Эти алгоритмы могут привести к кризису идентичности. Но сначала позвольте мне немного объяснить об ИИ в целом, имейте в виду, что я слишком упрощаю некоторые детали:

Мягкий ИИ

Прямо сейчас наш «ИИ», который мы пишем, — это в основном мягкий ИИ, и он не очень умный. В нем просто есть список правил, в котором говорится что-то вроде «если x, то сделать Y, если не Z», с кучей вероятностей, генерацией случайных чисел и теорией игр. Тем не менее, дело в том, что прямо сейчас с помощью мягкого ИИ мы можем делать только то, что мы явно запрограммировали. Если бы я никогда не запрограммировал правило, что делать, если возникнет ситуация А, мой ИИ никогда не справится с этой ситуацией должным образом, как бы часто она ни возникала.

Предел здесь очевиден, этот ИИ не может учиться или расти. Я могу написать правила, допускающие некую ограниченную форму квазиобучения, например: «Посмотрите, сколько раз X произойдет, если вы сделаете Y и Z, и выполните либо Y, либо Z в зависимости от того, какая из причин заставляет X происходить чаще», что позволяет моему ИИ «узнать», что либо Y, либо Z более эффективны, если я хочу X; но это очень ограниченная форма «обучения», которое нужно было запрограммировать. Люди просто не могут запрограммировать правила, необходимые для действительно разумного жесткого ИИ, слишком много ситуаций, чтобы написать, даже если бы мы могли думать о них всех. .

ЖЕСТКИЙ ИИ

Жесткий ИИ больше похож на ИИ, о котором вы читали в научной фантастике, интеллект, который думает и учится, как люди. Наверняка настоящая разведка, а не куча правил, притворяющихся.

Как я уже сказал, подход, основанный на правилах, который мы сейчас используем для мягкого ИИ, похоже, не способен на это. Вместо этого мы искали такие приемы, как генетическое программирование и «выращивание» ИИ для этого…

Генетическое программирование

Генетическое программирование — это в целом простая идея, хотя на самом деле его следует называть эволюционным программированием, поскольку оно вдохновлено эволюцией, которая двигала нашу генетику. Если вы знаете, как работает эволюция, основная идея заключается в том, что у нас есть чертежи (гены), которые время от времени претерпевают случайные изменения (мутации). Большинство этих мутаций были плохими и убивали тех, кто их получил, но очень небольшое количество были хорошими и приводили к более сильным людям, которые передавали свои гены. Эта базовая концепция привела к появлению чрезвычайно сложных существ, таких как люди, которые люди никогда не смогли бы создать самостоятельно.

Мы используем аналогичную идею в программировании. Начните с очень простой «программы» и намеренно добавляйте в эту программу случайные «мутации», изменяя части кода. Затем пропустите получившийся код через набор тестов, чтобы решить, насколько новый код ближе к нашей желаемой цели, чем старый. Выбрасывайте код, который не работает, ближе к цели, сохраняйте «мутации», которые работают, до тех пор, пока выживание наиболее приспособленного кода постепенно не приведет к «эволюции» программы, которая точно соответствует нашей желаемой цели.

Важной идеей здесь является то, что мы НЕ пишем саму программу. Вместо этого мы определяем конечное состояние, которое мы хотим, чтобы программа имела, а затем устанавливаем, что оно должно «эволюционировать» для достижения этой цели. Мы не знаем, как он это сделает. Например, попытка генетического программирования создать радио когда-то создала одно из самых маленьких радио... которое работало, используя изъян в физическом аппаратном обеспечении для создания сигналов способом, который никогда не предназначался для самого аппаратного обеспечения! Этот конкретный пример оказался менее полезным, поскольку мы не могли массово производить недостаток, но он показал, что в результате генетического программирования могут появиться очень уникальные решения, которые отличаются от того, как люди когда-либо что-то проектировали.

Считается, что для работы жесткого ИИ потребуются такие подходы , как генетическое программирование, подходы, которые не пытаются точно определить, как должен быть создан ИИ, а вместо этого только поощряют ИИ развиваться к конечной цели самостоятельно. Наши подходы к генетическому программированию все еще далеки от базовых для создания жесткого ИИ, и окончательный жесткий ИИ, скорее всего, будет использовать подходы, достаточно сложные, чтобы их нельзя было считать генетическим программированием, но они, вероятно, будут основываться на той же концепции. Например, одна идея состоит в том, чтобы фактически вырастить кремниевый мозг, который моделирует человеческий мозг, а затем разработать ИИ, эффективно обучая новый мозг так же, как мы обучаем новорожденного; вместо того, чтобы начинать с окончательного ИИ, мы просто помогаем мозгу развивать интеллект.

Окончательный ответ

Все это имеет значение, потому что побочным эффектом генетического программирования является то, что мы на самом деле не знаем и не контролируем, как именно ИИ развивает свой интеллект. Точно так же, как в примере с радио, которое работало только из-за дефекта в его аппаратном обеспечении, мы можем вырастить ИИ, который работает только причудливыми и не всегда на 100% желаемыми способами; но поскольку мы не можем создать ИИ с нуля, нам нужно довольствоваться лучшим, что мы можем вырастить, даже если у него есть недостатки.

Чтобы привести аналогию, посмотрите на людей. Были чудом эволюционной инженерии, но у нас есть много «ошибок» из-за эволюции. Аллергии — это то, что наши собственные тела вызывают у нас несоразмерную защиту от безвредных аллергенов, наш мозг имеет множество логических изъянов, которые заставляют нас неправильно понимать мир и совершать многочисленные ошибки (как-нибудь сверьтесь со списком логических ошибок в Википедии), и наша погоня за краткосрочными удовольствиями может привести к длительным страданиям, если их не контролировать (например, зависимость). Нам не нужны эти черты, но по разным эволюционным причинам они были созданы в ходе эволюции. Застряли с ними сейчас. Точно так же ИИ, который мы помогли «развить», может иметь свои особенности и ограничения, которых мы бы не хотели, но все же они являются неизбежным побочным эффектом их развития.

Поэтому вполне разумно предположить, что те же самые пределы нашего собственного мозга «эволюционируют» в ИИ, который мы выращиваем; точно по тем же причинам эти ограничения вросли в наш собственный мозг. Путаница, преследование краткосрочных целей за исключением долгосрочных, некоторые «логические ошибки» (точная форма может быть другой) — все это может развиться в мозг, который мы растем. Таким образом, любые человеческие состояния, включая кризис идентичности или даже гендерную дисфорию, как вы упомянули, вполне возможны для взрослых ИИ; особенно в наших более ранних версиях жесткого ИИ (позже мы можем узнать, как поощрять эволюцию ИИ, чтобы избежать определенного нежелательного побочного эффекта, но это может привести к возникновению некоторых других странных побочных проблем).

Вполне возможно, что каждый взрослый ИИ будет иметь «личность», которая является результатом их «эволюции» через немного разные этапы, поэтому ИИ вполне может присвоить себе пол, потому что его эволюция предрасполагала его к определенным чертам, связанным с определенным полом. поэтому он предпочитает идентифицировать себя как этот пол.

Однако есть одна ключевая вещь: ИИ по-прежнему остается программным обеспечением. Если нам придется выращивать каждый ИИ с нуля (вместо того, чтобы выращивать несколько, а затем массово производить копии тех, что мы вырастили), то у нас, вероятно, будет какой-то способ тестирования, а ИИ будет функционировать после того, как он закончит выращивать. Как и в случае с самым маленьким радиоприемником, который никогда не мог быть запущен в массовое производство из-за дефекта в аппаратном обеспечении, возможно, что какой-то ИИ вырастет, чтобы соответствовать нашим установленным стандартам, но на самом деле окажется бесполезным или функциональным (представьте себе ИИ, который вырос настолько умным, насколько мы хотели, но по какой-то причине был в суицидальной депрессии и хотел только покончить с собой, возможно, немного чрезмерный пример, но вы поняли). ИИ с кризисом идентичности, скорее всего, будет рассматриваться просто как ИИ, который был «выращен» неправильно, и его лучше всего заменить заново выращенным ИИ.

+1 потрясающий исчерпывающий ответ - начиная с определения того, что такое интеллект, с которым мы до сих пор не разобрались.

Возможное? Если интеллект основан на моделях человеческого мозга, то это вполне возможно. В более общем плане, есть ли у таких существ проблемы, зависит от того, насколько хорошо мы понимаем архитектуру мозга. Если у нас будет идеальное понимание, то они будут построены без таких недостатков. Если мы понимаем низкоуровневые сетевые соединения, но сомневаемся в том, как они объединяются, чтобы «думать» (как мы сейчас), тогда сконструированный мозг может иметь всевозможные проблемы.

Если это то, что вам нужно для вашей истории, то, чтобы сделать ее правдоподобной для читателя, обратите внимание на реконструированный человеческий мозг и целенаправленное человекоподобное программирование.

Что касается Q2, это зависит от возможностей робота. Если вы про мой пылесос, то вопрос абсурдный. Если вы возьмете загруженный человеческий разум в новое тело исследователя , то ожидайте, что он почувствует себя буквально парнем, проснувшимся в механическом теле.

Q1: Возможен ли у робота кризис идентичности, подобный описанному в тематическом исследовании B?

A1: Да, если робот был запрограммирован на чувство идентичности, а чувство идентичности можно изменить. Пока внутреннее представление об идентичности робота соответствует наблюдаемому состоянию робота, нет необходимости адаптироваться к новой идентичности. Однако, если бы робот наблюдал в себе некоторые очень человеческие качества, то его концепция личной идентичности могла бы расшириться до включения «я человек». Если это изменение будет сохраняться достаточно долго, то роботу придется иметь дело с диссонансом между «у меня тело робота, но я думаю как человек».

Q2: Предположим, мы изолируем робота на Луне, чтобы он не взаимодействовал ни с какими живыми людьми, возможно ли, что вскоре он поставит под сомнение свою способность исследовать окружающую среду и даже свою собственную идентичность?

A2: Опять же, это сводится к программированию. Если робот запрограммирован с изменчивым чувством идентичности, а также имеет желание исследовать, то возможны изменения идентичности. Робот, запрограммированный на исследование окружающей среды, будет делать это до тех пор, пока не сможет. Требуется ли взаимодействие с живым человеком, чтобы этот робот отправился исследовать?

Заключение

Должна быть действительно веская причина, чтобы дать роботу изменчивое чувство идентичности, так как многое может пойти не так... посмотрите на всю тревогу подростков, когда они совершают переход от идентичности ребенка к идентичности как взрослый. Вам действительно нужны/хотите беспокойных роботов-подростков?

Я думаю, что на оба ваших вопроса достаточно легко ответить, если вы сначала ответите, что вообще означает для робота наличие личности. К сожалению, этот конкретный вопрос является удивительно сложным философским вопросом для людей, не говоря уже о наших творениях.

Путь, по которому я бы пошел, — это тот, который провозгласил Дуглас Хофштадтер в своей книге « Я — странная петля» . Чтобы убрать цитату со страницы википедии:

В конце концов, мы — самовоспринимающие, самоизобретающие, замкнутые миражи, маленькие чудеса самореференции. - Дуглас Хофштадтер, Я странная петля, стр. 363.

Теперь, игнорируя человеческую философию относительно того, является ли это точным или нет, Хофштадтер счел это достаточно значимым, чтобы быть точным для нас, и математически непротиворечивым, поэтому он кажется таким же разумным подходом, как и любой другой для идентификации роботов.

Я бы назвал две ключевые фразы в этой цитате «самовосприятие» и «самоизобретение». Самоизобретение у нас уже довольно сильно развито: почти каждый основной алгоритм ИИ имеет своего рода самоизобретающее поведение, подобное генетическим алгоритмам. Самовосприятие сложнее, особенно когда мы все еще строим концепцию «я» робота.

Давайте немного ослабим самовосприятие, так как это сложно. Давайте начнем с попытки ощутить влияние себя на окружающую среду. Это проще, потому что больше соответствует тому, что мы обычно думаем о датчиках. Рассмотрим робота, который должен «помочь обществу», как многие хорошие роботы. В какой-то момент роботу нужно будет либо осознать, что его присутствие меняет поведение человека (на что-то другое, чем это поведение будет вдали от робота), либо найти разочаровывающие проблемы, которые он не может решить. Им необходимо осознать ключевое ограничение своей физической формы: их сенсоры несовершенны. Простой акт попытки измерить что-то меняет его, потому что они привязаны к роботу, а робот

Робот должен будет справиться со своими эффектами по-своему. В какой-то момент один из самоизобретателей придумает что-то, что будет «близко» к этой идее. В этот момент робот мог считать этот самоизобретенный бит своим «ядром», представлением о себе большего «я» робота.

Теперь у него могут быть кризисы идентичности, потому что теперь у него может быть идентичность в первую очередь.

И, если нам повезет, робот не будет строить себя вокруг изображения, которое он считает неизменным и совершенным (большинство современных оптимизаторов построены так, чтобы считать их фитнес-функцию идеальной). В таких случаях робот претерпевает трансформацию, наблюдаемую в бесчисленных историях о роботах, в опасную машину, пока либо не осознает, что образ изменчив и несовершенен, либо герой истории не протянет руку и не сломает этот образ, полностью уничтожив личность.

Все люди узнают, как дорого стоит верить в ложь. Мы учимся адаптироваться. Надеюсь, машины тоже научатся этому.

Слабость мыслящих машин в том, что они на самом деле верят всей получаемой информации и реагируют соответственно.
-Дюна: Машинный крестовый поход