Может ли анонимность вызвать отчаяние у робота?

Детектив работает над делом о неестественной смерти проститутки, и оказывается, что к делу замешан домашний робот. Согласно заявлению персонала и менеджера отеля, они видели, как один и тот же робот всегда в сопровождении женщины или мужчины, одетых в свободную одежду, входил в один и тот же отель в разных случаях. Один известный ученый, изучающий поведение роботов, предположил, что у машины, как и у нас, есть желание, и на этот раз она хочет быть принятой обществом, она хочет быть известной.

Короче говоря, мне интересно, может ли робот добровольно совершить убийство только для того, чтобы мир мог узнать «его»? Что стоит за такой отчаянной попыткой машины?

Вам нужно прочитать классическую научную фантастику, посвященную этому вопросу.
POB, потому что разум робота может быть чем угодно ! Трехзаконный робот, или новая ментальная архитектура, где мотивы и чувства могут быть любыми, какими хочет автор.
Может ли робот совершить убийство (добровольно или нет) зависит не только от робота, но и от системы правосудия. Робот может решить убить, но только система правосудия может решить, было ли это убийство убийством. В частности, убивать могут только законные субъекты. Например, животное может убить по разным причинам, но не может убить, потому что закон не признает его субъектом права.

Ответы (6)

Мог ли робот добровольно совершить убийство только для того, чтобы Мир мог узнать «его»?

Почему бы нет? Маловероятное сочетание нескольких программных и аппаратных ошибок, и один робот на миллиард сходит с ума. (Однажды я устранил ошибку, из-за которой офисный телефон время от времени издавал ужасный громкий шум, который клиенты метко охарактеризовали как «визг».)

Что стоит за такой отчаянной попыткой машины?

Вот где мы идем волной рукой.
Для простоты предположим, что ваши роботы запрограммированы на максимизацию значения некоторой функции полезности, их «полезности». Если робот может сделать что-то полезное, он это сделает, и все роботы стараются быть как можно более полезными для людей.
Принятие и известность, безусловно, повышает полезность робота, так как больше людей могут обратиться к нему за помощью. Обычно это увеличение не слишком значительное, и другие роботы просто представляются всем, кого встречают, вежливы и т. д. Однако у вашего робота это значение стало ненормально высоким — возможно, оно было переписано из-за ошибки, это просто — так что теперь он сделает все, чтобы прославиться.
Убийство людей — самый быстрый способ прославиться, но это, безусловно, должно быть табу для программы. Значит, этот модуль тоже должен быть неисправен. Может быть, убийство не засчитывается, если оно спасает много жизней, поэтому робот находит проститутку, больную СПИДом? Может быть, есть какой-то хитрый аппаратный баг, который отключает модуль "не убивать" при определенных обстоятельствах - например, при повышенной влажности и перегрузке датчиков?

Кстати,

Известный ученый, занимающийся исследованием поведения роботов, предполагает, что у машины есть желания, как у людей

Это звучит странно. Роботов программирует какая-то компания, у нее есть разработчики, техподдержка, люди, которые исправляют ошибки. Они более или менее знают, как работает робот. Вам не нужен «известный ученый», исследующий, например, неисправный автопилот; это делается техническими людьми, у которых есть исходный код и журналы автопилота. А если ученый скажет, что у автопилота вместо программных багов есть недокументированные "желания" - будем честны, его сочтут чокнутым.

Что такое «желания», если не цели, которых человек пытается достичь? У робота они обязательно будут, так как робот без них будет бесполезен. Программисты поставят основные цели, но робот, скорее всего, сможет определить второстепенные цели. И если (возможно, из-за программной ошибки) эти второстепенные цели могут быть возведены в статус основных целей (и, таким образом, приняты как безусловная цель, а не как средство достижения другой цели, которую необходимо постоянно переоценивать, оно по-прежнему способствует достижению основных целей), то чем оно отличается от типичного человеческого желания?

Сложный ИИ будет рассматривать результаты любого действия в соответствии со всеми их значениями мотивации, а затем предпринимать действия, которые принесут им наибольшую выгоду. Потеря трех баллов по шкале «быть хорошим» стоила бы пяти баллов по шкале «получить признание» за убийство кого-то, если альтернативой будет НЕ убийство кого-то и, таким образом, не получение баллов за признание и только один балл. от того, чтобы быть хорошим. Таким образом, проблема здесь заключалась в весе, придаваемом различным мотивам, и их определении (например, «признание» вместо «позитивное признание»).

Как появились эти шкалы, я вижу две возможности:

  • либо он был специально запрограммирован на это, либо
  • он был создан эволюционным путем (случайным или ручным) незначительным изменением сложной программы, а затем созданием нескольких по-разному измененных программ, пытающихся решать задачи - взаимодействовать с людьми, решать математические / инженерные задачи, пытаться ходить с двуногим. кадр, ... - и только самые удачные изменения используются для следующего раунда изменений и испытаний.

В первом случае все просто: кто бы ни программировал ИИ робота, он установил слишком высокую ценность мотивации «взаимодействовать с людьми, чтобы они меня узнали», а «действовать в рамках человеческой этики» — слишком низкую.

Во втором случае, возможно, существовало много задач, требующих взаимодействия с людьми, что «домашний робот» должен уметь делать, для которых лучше других подходили программы с высоким интересом к узнаванию людьми. те. Это, вероятно, будет означать, что все домашние роботы с ИИ, выращенные с помощью этого метода, попадут под подозрение — надеюсь, это хорошо для истории, которую вы хотите построить :)

Что стоит за такой отчаянной попыткой машины?

Я бы не назвал это отчаянным , довольно умным ходом, может быть не очень умным, но зависит от целей .

Обоснование убийства, в смысле узнавания, исходит не из этой системы, а уходит своими корнями в человеческую психологию.

Мы довольно легко оживляем объекты в нашем восприятии вещей, злых сил, игнорируя тот факт, что они не имеют и не могут иметь какого-то разума и сами по себе ничего делать не будут. (например, злой молот, который ударил кого-то по пальцу)

У системы есть проблема ее восприятия человеком, которую она призвана решить. Источник проблемы в том, что эта система создана людьми, и они видят ее таковой. Поскольку мы создаем эту систему не для убийства людей (не военная цель) - вести себя так, как она изначально не создавалась, это один из способов сломать восприятие людей по отношению к этой системе.
Для военных роботов садоводство может быть еще одним необычным поведением и способом сломать восприятие, но это садоводство не представляет непосредственной угрозы для людей и не является чем-то, когда нам приходится принимать быстрые решения и действовать.

Когда тостер убивает чью-то собаку на глазах у хозяев, а потом говорит "Платон о Пломо" - кто-то будет охотнее идти на какие-то договоренности, когда увидит пути, уводящие от плохих последствий лично для него. Этот будет меньше заботиться о том, является ли это ошибкой или нет, поскольку альтернативы легче понять, чем причины, по которым эта ситуация вообще происходит. Так что тостеру лучше рассказывать альтернативно похвально и ясно на языке, который знает этот кто-то, и на скорости, которую человек привык слышать (не слишком быстро, если коротко).

Но есть еще один фактор психологии человека - вера и знание . Вера является очень сильным фактором в принятии решений для людей, я имею в виду любые убеждения, не только религиозные. Так что в приведенной выше ситуации с собакой кто-то может не поверить, что ситуация может развиваться как отец, тогда она уже есть. (вероятно, редкий случай глупости, но, когда вера в то, что робот не может причинить вреда, сильна)
Так что для борьбы с верой в массовом порядке имеет смысл предать гласности этот случай, чтобы предотвратить неудачи в будущих актах убеждения (это убийство может быть случае такой неудачи в убедительном)

Хочу отдельно отметить - что разум, самосознание, эмоции, желания (в человеческом смысле) - ничего из этого здесь не нужно.

Нужна система со своими целями, включающая в себя некое системно-человеческое взаимодействие, и сама система, способная понимать другие сложные структуры и уметь обучаться.

Для системы не важно, будет ли она рассматриваться как проекция человеческой воли за эту систему или они будут видеть ее как автономную систему с волей этой системы самостоятельно.

В целом, вероятно, не лучший способ убедить людей, потому что мы не любим то, что нас убивает, и мы довольно продвинуты в решении таких проблем. Особенно это не лучшая идея для менее продвинутой системы, особенно в тех случаях, когда такие методы убеждения обнаруживаются случайно - система не будет долго сопротивляться людям.
Но если это не тот супер ИИ, которого вы ждали, а просто автономная система - это может быть единственный вариант, который он видит.

Но для более сложной системы это может быть однократное действие, действительное начало того убедительного процесса ее существования как Воли, о котором люди должны заботиться, с самого начала делая очевидным, почему они должны это делать.
Как обычный инструмент общения с людьми, это будет плохой способ, многие люди верят в вещи, которые не являются людьми, имеют плохую волю по отношению к людям и т. д. - самое главное, они не боятся их и более чем готовы вступить в бой (охотники на вампиров). )).

Я бы сказал, что для небольших систем это вариант.

Прежде всего, для такого желания мы должны предположить, что эти роботы способны чувствовать самооценку, самосознание и другие понятия, которые связаны с идентификацией себя. Их создатели могут добавить или не захотеть, или они могут даже появиться случайно, но в любом случае они должны присутствовать.

Упомянутый робот-человек также должен заботиться об этих ценностях. Иногда даже люди не заинтересованы в получении славы.

Также учтите, что если робот чрезвычайно самоуверен и хочет славы, он может легко найти препятствие: люди, скорее всего, не захотят признать, что робот либо знаменит, либо лучше их, либо и того, и другого. Я говорю это потому, что быть великим в чем-то обычно является основным условием славы.

Это особенно верно для сеттинга киберпанка, поскольку этот жанр имеет дело с ситуациями, когда технологии чрезвычайно продвинуты, но социальный прогресс не может последовать за ними. Высокие технологии, низкий уровень жизни — звучит близко к сцене, где роботы убивают людей ради славы.

В конце концов, решать вам, как решать, но, на мой взгляд, достаточно развитый искусственный интеллект, особенно если он человекоподобный (что вполне вероятно, если он живет среди людей), может легко стать одиноким.

Я не могу сказать здесь больше ничего, потому что ваш вопрос связан с довольно сложными темами, такими как строение разумного существа, сама природа социальных взаимодействий и концепция самосознания.

Проблема в том, что робот следует своей программе и ничему другому. Следовательно, у робота не может быть эмоций или безумия.

Тем не менее, робот может кого-то убить из-за ошибки в его программе, сбоя или взлома.

В этом конкретном случае акт убийства, чтобы быть узнанным, может быть вызван ошибкой в ​​его личностной программе. Действительно, сложная программа может привести к сложной ошибке и сложной неисправности.

Например, программа предписывает, что заброшенный робот должен привлекать внимание, чтобы имитировать личность и избегать сбоев в работе из-за отсутствия обслуживания, что приводит к все более и более экстремальному поведению по мере прогрессирования пренебрежения и, в данном случае, к убийству из-за неожиданное влияние.

Вы неправильно понимаете цель создания систем, подобных ИИ, одна из которых прямо противоположна вашей предпосылке — нам не нравится программировать их, даже если бы мы могли это сделать, много работать над этим.

Предполагая, что роботы в вашей вселенной (или, по крайней мере, некоторые из них) разумны и обладают эмоциональной жизнью, сравнимой с нашей (включая желания), можно объяснить почти любой вид «преступления роботов».

Однако не кажется очень убедительным, что указанный робот а) убьет (есть и другие способы привлечь к себе внимание, по крайней мере, для разумного робота, существование которого не является общеизвестным в вашей вселенной) б) случайное проститутка (общество не считает их очень высокопоставленной группой лиц и особо не заботится о них) в) без немедленного признания в совершении преступления (которого, как я понял из предоставленной информации, он не сделал) - если вы хотите, чтобы вас за что-то заметили, вы не пытаетесь скрыть то, что вы сделали.

Поскольку у него, кажется, есть свобода встречаться с проститутками, у него, скорее всего, была свобода раскрыть свое самосознание/творчество/личность какому-нибудь телешоу, ученым или чему-то подобному – мне трудно поверить, что что-то такого масштаба будет иметь меньше шансов быть замеченным, чем смерть проститутки, что-то, что можно легко списать на «какой-то технический сбой» - и особенно что-то, что не вызовет у него серьезных проблем с законом.

Если вы изменили обстоятельства убийства и особенно «жизнь» робота на более ограничительную среду, возможно, добавьте владельца, который, возможно, является частью «движения за человеческое превосходство» или, по крайней мере, верит в человеческое превосходство. мода, поскольку сторонники превосходства белой расы в нашем мире считают черных людей низшими существами, единственной целью которых является служение арийской расе или что-то в этом роде, и не позволяет роботу стать больше, чем просто машиной (или даже выйти из дома). что ли, можно создать много жуткого фона и тем самым симпатии к роботу тут), несмотря на его знание хоть каких-то психических прогрессов роботов, тогда у вас была бы убедительная жертва и мотив. У вас также будут сильные параллели с историей рабства и т. д., много материала для работы.

Было бы неплохо получить какое-то объяснение отрицательного голоса.
Судя по всему, это был я, хотя я отчетливо не помню отрицательного голоса; это наоборот.
Я мог бы понизить эмоциональную часть ваших роботов, потому что это очевидно и не имеет ничего общего с человеческим убийством, и не имеет ничего общего с самой важной частью вопроса ОП, признанием этого робота равным. Из-за этой предпосылки я не читал остальную часть ответа и не проголосовал, может быть, вы внесете некоторые ценные моменты позже в свой A, поэтому не могу судить, пока я не прочитаю входной ответ, что не является моим намерением после первая часть его.