Почему ИИ должен вести себя иррационально? [закрыто]

Тематическое исследование

Робот дорожной полиции может сделать 3D-селфи с помощью камеры на красный свет на перекрестке дорог и наложить спутниковое изображение высокого разрешения, сделанное в режиме реального времени, чтобы настроить свои кабели и фильтрующие линзы, помогая паре сотен рабочих муравьев с маленькими ампутированными конечностями пересечь дорогу. дорога в утренний час пик.

Вопросы

  1. Мы хотим, чтобы роботы вели себя как мы, но надеемся, что они не будут такими, как мы. Было бы лучше, если бы они могли мыслить иррационально, как мы, чтобы мы могли жить долго и счастливо?

  2. Этот вопрос более технический, так что вот он: как ИИ измеряет иррациональность? (я не говорю о числе Лиувилля)

О чем ты говоришь?
@Samuel: на самом деле это тест Тьюринга! к сожалению, похоже, что те, кто проголосовал за закрытие, не сделали этого, в любом случае, вы можете быть более конкретным, чтобы я мог улучшить свою ОП, спасибо.
Не считается. Ваше тематическое исследование кажется не связанным с вашими несвязанными вопросами.
@user6760 user6760, ты и меня там тоже. Я выживал на этом сайте просто потому, что на нем не было CAPTCHA. Теперь меня забанили...
Товарищи боты! сам кейс - это более продвинутый вид CAPTCHA для фильтрации таких, как вы, он работает так хорошо, что слезы продолжают течь, а мои колени слабеют ... Я прошу вас отозвать свои голоса! есть ли способ улучшить мой OP.
У меня есть ответ, но вы не будете довольны... Ответ 42.
@Cyrus: конечно, я недоволен, потому что ты отвечаешь только на один из моих вопросов :(

Ответы (2)

Логическая проблема

ИИ (по крайней мере, те, которые мы разработали) и роботы иногда действительно действуют иррационально. Конечно, люди могут оправдывать свои действия и заявлять, что они логичны, но психотические люди могут действовать логично в соответствии с тем, во что они верят.

Все это связано с какими бы то ни было ценностями/аксиомами/мандатами/программами ИИ. Для вашего тематического исследования это имеет смысл («логично»), если:

  • Робот-полицейский уполномочен/запрограммирован спасать жизни и помогать тем, кто пытается спасти жизни. Таким образом, он спасает жизнь муравьям, останавливая движение. Обратите внимание, что в этом мандате никогда не говорилось, какую жизнь спасать.
  • Полицейский бот также запрограммирован на «раскручивание» любых публичных мероприятий, в которых он может быть задействован. Таким образом, делается селфи. Скорее всего, это будет опубликовано на Facebook с подписью «Посмотрите, как этот полицейский бот спасает жизни!» или «Я служу обществу на дорогах ROADNAME1 и ROADNAME2».

Это рационально , правда? Нет? Возможно, мы можем определить иррациональность (нематематического рода) как:

Попытки действий, которые несовместимы с вашими убеждениями, фундаментальными аксиомами или целью.

Вы можете разработать статистику того, как часто происходят такие действия, как для группы в целом, так и для отдельных лиц. Это может превратиться в некоторую метрику (возможно, сравнение логического числа человека со «средним» логическим числом), чтобы мы знали, насколько кто-то логичен/нелогичен.

Помогает ли это нам ладить?

Есть также много полицейских, которые могут мыслить иррационально, как мы, и люди их тоже не любят . Почему иррациональный робот должен быть лучше? Во всяком случае, иррациональный робот хуже, потому что он может сделать гораздо больше неправильных вещей за то же время.

Это определенно не помогло бы мне ужиться с роботами.

Ух ты! очень впечатляет и спасибо за то, что ты человек и за то, что понял, что я пытаюсь получить [я вытираю слезы языком, так как вода очень ценна, я люблю перерабатывать ее, кстати +1]

Я полагаю, что вы используете «рациональность» в смысле действия в соответствии с общепринятым набором норм, обеспечивающих структуру и порядок в интересующем вас обществе. В этом случае робот может вести себя «иррационально», потому что он выполняет действия, которые мы считаем неправильными или не вытекающими из цепочки рассуждений, которым мы можем следовать.

Однако можно возразить, что искусственная конструкция всегда действует по правилам логики — логики в смысле неизменных причинно-следственных связей, основанных на физических свойствах ее компонентов, способах их сочетания и связи. В этом случае компьютер/робот всегда действует в соответствии с рассуждениями, данными физикой, но считают ли эти действия «рациональными» человеческие общества — это уже другая история.

Но чтобы ответить на ваши вопросы более прямо:

  1. Люди — разумные существа, и все, что вы делаете, имеет какую-то причину. Однако причина, которая побеждает и побуждает вас совершать какое-либо действие, является результатом не простых причинно-следственных связей, а уравновешивания множества жестких и мягких соображений, определяемых сиюминутными обстоятельствами и вашими личными ценностями.
    Если когда-нибудь ИИ станет достаточно сложным, чтобы учитывать эквивалентное количество уравновешивающих факторов в своих решениях, он будет рациональным в том смысле, что он осознает все факторы, хотя его выбор может быть столь же очевидно «иррациональным», как выбор, сделанный мясо-люди. По касательной это приводит к аргументу, что достаточно продвинутый ИИ неотличим от человека и может считаться человеком, хотя и цифровым человеком, или каким-то другим экзотическим обозначением.
    И в этот момент разные люди могут любить или не любить это так, как им нравится, точно так же, как мы любим или не любим наших собратьев-людей из мяса.

  2. Если бы ИИ знал обо всех факторах, влияющих на его решения, то ИИ должен был бы измерять «иррациональность» не тем, как он принимает решения, не основанные на разуме (потому что он знает все линии рассуждений и противовесов), а мерилом «иррациональности». набор заранее определенных «правильных» действий или условий. Этот набор может быть предоставлен нами, людьми, или получен обучающимся ИИ — и в этом случае он в любом случае не будет иррациональным, поскольку набор «правильных» действий будет результатом тех же сложных решений.