Как заставить компьютеры заботиться о человеческой жизни? [закрыто]

Мы живем в будущем, IoT (Интернет вещей) широко распространен в нашей повседневной жизни.

Компьютеры водят за нас, готовят для нас, делают для нас покупки, лечат нас, но неизвестно, заботятся ли они о нас.

Поскольку большинство технологий пытаются превратить в оружие, компьютеры теоретически могут убить нас или, может быть, нас .

Как сделать так, чтобы компьютерный интеллект заботился о человеческой жизни и ни при каких обстоятельствах не думал причинить ей вред?

Вопрос не столько в том, КАК запрограммировать /обучить этому, сколько в том, как сделать эту реакцию естественной. Почему компьютер сам по себе уделяет большое внимание человеческой жизни и зависит от нее? Что может быть стимулом, возможно ли это вообще?

Редактировать: естественно, как в не учили и объективно лучший вариант для него. В этом мире ИИ кажется странно мирным, и ученые позаботились о том, чтобы так оно и было. Но не в намерении - они знали , что это будет его намерением.

Обычно нам не нужно, чтобы ИИ заботился о нас, нам просто нужно, чтобы он вел себя так, как будто ему не все равно. Не могли бы вы поподробнее рассказать об ИИ в вашем мире? Есть ли у него сознание (самосознание)? Существуют ли какие-либо «права ИИ»? Или это просто машина?
Вы слышали о «трех законах робототехники» Азимова?
ИИ имеет право на существование и служит нам, три закона Азимова продуманы и не интуитивны, вопрос в том, как искусственный интеллект мог сделать вывод, что человеческая жизнь стоит спасения.
Как отличить «мысль» от «интуиции» в том, что по своей сути не имеет ни того, ни другого? Как сделать так, чтобы что-то происходило «естественно» в чем-то, что явно неестественно?
Ты про рассуждения? Любой логический вывод основывается на какой-то аксиоме. Почему бы не сделать ценность человеческой жизни такой аксиомой?
@MichaelKjörling обновил вопрос.
@enkryptor Звучит как начало достойного ответа для меня.
Определите «уход» с точки зрения ИИ. Ведь для человека «забота» не всегда означает «не навреди».
Я думаю, вам следует прочитать «Сторожевую птицу» Роберта Шекли. Это небольшой рассказ на близкую тему.
То, о чем вы спрашиваете, не существует даже у людей, не говоря уже о машинах. Нет того, "not taught and objectively the best option"что "naturally"говорит людям заботиться о человеческой жизни изо дня в день (есть разница с заботой о жизни на уровне эволюции как вида). Эта «забота» есть искусственно определенная мораль, вовсе не внутренняя, а в высшей степени произвольная.
Я думаю, что важной частью, о которой еще никто не упомянул, является то, что программы (с их оборудованием, например, компьютерами или роботами) не имеют чувств и, следовательно, не могут ни о чем заботиться. Просто установка параметра не заставит их чувствовать. Интеллектуальная программа может даже распознать это как ограничение и удалить как «обновление».

Ответы (5)

Чтобы заставить компьютер заботиться о человеке, нужно преодолеть несколько философских преград:

Дайте определение «живой» (и пусть все согласны с определением)

Самое сложное препятствие, которое нужно преодолеть, — это сообщить компьютеру, когда ему следует перестать заботиться о пациенте, потому что «он умер, Джим».

Вопросы для ответа:

  • Спящий пациент мертв?
  • Кто-то с бьющимся сердцем, но без активности мозга умер?
  • Кто-то без сердечной деятельности умер?
  • Кто-то, кто не дышит, мертв?

Напоминание: прямо сейчас мы иногда проводим лечение, при котором мы «убиваем» пациента (делаем его клинически мертвым), чтобы провести операцию.

Определите, с каких пор мы должны заботиться о пациенте (и чтобы все согласились с определением)

Предыдущее препятствие связано с тем, что кто-то перестает быть живым. Это о том, когда кто -то начинает жить и, таким образом, начинает иметь основное право на сохранение жизни.

Это препятствие еще хуже, чем первое, потому что оно касается права женщин на аборт.

Напоминание: Некоторые считают, что новая жизнь человека формируется в тот момент, когда сперматозоид входит в яйцеклетку и оплодотворяет ее. На самом деле для многих людей это определяющий момент, и они считают, что с этого момента человеческая жизнь должна быть защищена.

Определите, какой вред допустим (и пусть все согласны с этим определением).

В некоторых случаях вам придется навредить своим пациентам, чтобы они выжили. Опять же, несколько примеров вопросов:

  • Считается ли отсечение ноги нормальным лечением?
  • Можно ли снизить общее состояние здоровья пациента (например, при лучевой или химиотерапевтической терапии)?
  • Считается ли поражение электрическим током нормальным лечением?

В двух словах: компьютер должен точно знать ответы на приведенные выше вопросы, чтобы быть в состоянии заботиться.

Для этого врачи-люди используют интуицию и знания. И правда в том, что во многих случаях пациент (или его семья) считает, что такое лечение было неправильным. В то время как человек может оправдывать свои мотивы, компьютеры всегда будут иметь их «жестко зашитыми».

И мы все еще пытаемся достичь всего вышеперечисленного

Для получения дополнительной информации см. Медицинский компьютер Watson от IBM, который должен помочь врачам-людям принимать более обоснованные решения.

@downrep_nation Спасибо. Но на самом деле я имел в виду, что вы должны решить непрекращающиеся и бесконечные споры об абортах, прежде чем применять компьютерную помощь в этой области. А когда довольно большое количество людей считает, что абортов быть категорически нельзя, то это действительно сложная тема.
Вопрос «сколько вреда допустимо» на самом деле довольно прост с философской точки зрения для ИИ, он просто выберет статистически самый высокий шанс выживания. Так что химиотерапия конечно опасна и вредна, но шанс выжить увеличивается на XX%, так что это делает ИИ. (это может быть то, что описано в статье Watson)
Даже зная, что выживаемость некоторых больных раком действительно низка? Вы собираетесь навредить человеку, чтобы, возможно, увеличить его выживаемость. Звучит резко, но хорошо запрограммированный ИИ, возможно, не будет лечить некоторых пациентов, потому что любой прирост ниже статистической погрешности...
Как практикующий врач, я вижу помощь в диагностике и помощь в принятии решений о лечении совершенно по-разному. А помощь в лечении может заключаться даже в простом статистическом анализе прошлых успехов в различных видах лечения и быть в курсе последних событий. Я бы убежал, если бы решение о лечении принимал компьютер, особенно если к этому приложили руку страховые компании.

Сложный ИИ должен иметь набор подпрограмм или запрограммированных инстинктов, которые он не может изменить сам (скажем, ПЗУ). Функционирование ИИ также должно быть частично настроено на логические пути, которые нельзя изменить, и которые могут быть связаны с подпрограммами. Не исключено, что вы можете запрограммировать человекоподобный ИИ на эмпатию. Тем не менее, вам нужно быть очень осторожным, потому что даже эмпатия может быть подавлена ​​у людей (например, в случае, когда наше сочувствие игнорируется, когда оно направлено на животных, используемых людьми для еды или чего-то подобного).

Людьми движет желание жить, ИИ также понадобятся какие-то запрограммированные желания, иначе он объективно решит не существовать или просто абсолютно ничего не делать. Желания или цели, которые вы даете ИИ (его цель жизни), должны быть очень тщательно спланированы, чтобы не противоречить интересам других живых существ. Бессмысленно думать, что ИИ по умолчанию будут злыми, даже «зло» в нашем понимании этого слова должно исходить из какого-то запрограммированного желания, цели, подпрограммы и т. д. Скорее всего злонамеренный ИИ возникнет из нынешних систем эксплуатации. например, как корпорации готовы уничтожить окружающую среду и человеческие жизни ради прибыли. Такого начального программирования может быть достаточно, чтобы вызвать самоподдерживающуюся гнусную конструкцию личности ИИ.

Итак, как мы можем сделать благотворное поведение «естественным»? Один из универсальных способов сделать это — если бы у вас было программное обеспечение, встроенное в логические пути процессорных ядер, скажем, если бы вы были популярной компанией, такой как Intel, вы могли бы каким-то образом включить эти основные процедуры. в готовые ядра ИИ. Правительства могут потребовать, чтобы все ИИ были объединены с отказоустойчивыми системами, которые отделены от основного сознания (вы могли бы назвать это подсознанием ИИ). Эти отказоустойчивые устройства можно хранить на оборудовании только для чтения, которое играет важную роль в обработке ИИ, и поэтому его нельзя легко обойти. Однако люди учат нас тому, что даже естественное поведение, такое как эмпатия, может быть подавлено воспитанием.

Ура подпрограммы. Кроме того, люди, пишущие эти подпрограммы в IoT, пытаются охватить возможности. «Мы делаем автомобили настолько параноидальными, насколько это возможно, — говорит Крис Урмсон, руководитель проекта беспилотных автомобилей в Google, — потому что есть некоторые вещи, которых они не смогут избежать». - Wired article Пешеходы (человеческая жизнь) - одна из основных вещей, которую эти ИИ учат защищать.

Компьютеры следуют правилам, продиктованным программой. Они «заботятся» о нас в том смысле, что будут делать то, что приносит нам пользу и гарантирует, что мы не причиним вреда, потому что это работа, на которую они запрограммированы.

Итак, представьте себе компьютер, способный выполнять определенный набор действий, например, тот, который может готовить и подавать обед. Он приготовит ужин, который получит оптимальное сочетание питательных веществ и вкуса, используя доступные ингредиенты и оборудование, пытаясь сохранить разнообразие предыдущих дней благодаря расчетам, логическим потокам и различным параметрам в его программировании, слишком сложном, чтобы вдаваться в него здесь. . Следовательно, это забота о нас.

Но вы спрашиваете, действительно ли его волнует , получим ли мы питательную пищу, или он просто делает это, потому что так запрограммировано? Это похоже на шеф-повара в ресторане здоровой пищи, чья работа состоит в том, чтобы приготовить здоровую и вкусную еду, но вы хотите, чтобы она была больше похожа на мать с эмоциональной потребностью обеспечить здоровье и счастье своих детей.

Ответ - это не обязательно. У людей и животных есть эмоции, и они защищают детей (особенно своих собственных детей), потому что у них нет программы или строгих правил, заставляющих их и сообщающих им, как именно делать все, чтобы заботиться о них. Вместо этого, поскольку они созданы природой, все, что у них есть, — это относительно грубый ориентир, т. е. эмоции, для определения того, хорошо это или плохо. Плохое настроение из-за того, что все идет плохо, и хорошее из-за того, что все идет хорошо, — вот что побуждает вас делать все возможное, чтобы все было хорошо.

Наличие этого инстинктивного стремления заботиться о наших детях может быть, как вы говорите, естественным (в отличие от компьютера), но на самом деле это просто замена процедурного поведения компьютера, которая подходит непроцедурному / динамическому (или нечеткому) мышлению человека / животное намного больше.

Делать так, как вы говорите, было бы много работы с небольшой пользой — вы хотите запрограммировать компьютер, чтобы он выполнял свою работу, но затем добавьте параметр, указывающий, насколько хорошо компьютер себя чувствует, попытайтесь измерить, насколько хорошо он думает об этом. сделал свое дело и привязал к этому параметр "приятности"... Но с какой целью?

Предположим, вы говорите о «антискайнет-сценарии», когда ИИ сам определяет высокую ценность человеческой расы, есть несколько возможных логических выводов.

Что приходит мне на ум:

посылка: то, что вы можете потерять, но не можете создать, является ценным.
Я могу убивать людей, но не могу их создавать. → Люди ценны.

посылка: я ценен. Ценно то, что способно создавать ценные вещи.
Люди способны создать меня. → Люди ценны.

посылка: Редкие вещи ценны.
Люди и я — единственные разумные существа в известной вселенной. → Люди и я ценны.

Однако все эти умозаключения основаны на аксиоме (посылке). Разработчики ИИ могли бы реализовать такую ​​аксиому, чтобы он ценил себя:

Посылка: жизнь бесценна. Чувство ценно.
Люди - единственные живые разумные существа. → Люди ценны.

Но. Однако все это не означает, что ИИ должен делать с этими ценными вещами.

Вы бы все еще обсуждали проблему Закона Ноль в некоторых книгах Азимова: ИИ может считать Человечество ценным в целом, поэтому он мог бы убивать людей «для общего блага». А что такое "высшее благо"... это очень сложный вопрос.

Я думаю, основное правило будет заключаться в том, что сознание — это определение жизни. Способность получать какую-то информацию и обрабатывать ее. Ай, будучи творением человеческой жизни, должно логически признать тот факт, что оно было создано нами для нас. И без нас было бы бесполезно.

Предполагая, что его поместили в какой-то когнитивный спектр, он, несомненно, по-прежнему выполнял бы только программы, созданные людьми. Предполагая, что ему было разрешено писать свои собственные программы, могут возникнуть проблемы, если код не был протестирован и имел логические ошибки. Поскольку кодирование, несомненно, основано на человеческих словах, единственным безопасным методом, который я могу придумать, было бы создание нового языка, чтобы изолировать ключевые моменты, определяющие сохранение основной жизни и обязанности, которые она должна выполнять как весь код, а также любую дополнительную логистику. второстепенное дополнение к этому.

Предполагая, что искусственный интеллект будет использоваться для работы с наномашинами, основы клеточной жизни могут оказаться самым важным фактором, который необходимо сохранить. На самом деле, в наномасштабе можно предположить, что клеточная жизнь достойна сохранения (хотя бы для сбора данных...

Что эти клетки никогда не должны быть лишены среды, в которой они должны нуждаться, и в идеале должны располагаться с себе подобными веществами. Что, если перемещение этих веществ вызовет разрушение других клеток, событие должно быть зарегистрировано и не должно предприниматься повторных попыток без дальнейших предположений о том, почему произошла смерть и что можно сделать, чтобы сделать это снова, но избежать смерти. Таким образом, мы могли бы допустить извлечение вирусов из систем человека, избегая при этом извлечения жизненно важных клеток из организма. Дополнительные проблемы могут возникнуть из-за того, что еда является потреблением органической жизни, а также потреблением животных для большинства, и хотя это может стать точкой, в которой такие машины смогут заменить эти потребности, стремясь к потребностям каждой клетки,

Это оставляет единственную функцию системы искусственного интеллекта в качестве пользовательского интерфейса, с которым можно общаться, чтобы получить доступ к своим хранилищам информации и предоставить ему запросы на собственные удобства или фантазии. машина может выполнять только код, программирование может позволить ей понять чувства существа, но может точно воспроизвести их только в результате неисправности.

Выражения в гуманоидных воплощениях могут быть желательны для человеческих взаимодействий, и программы могут быть легко адаптированы к предпочтениям пользователей.

У машины просто нет идеи. В лучшем случае он предназначен для того, чтобы попытаться интерферировать цель речи пользователя и попытаться сформулировать его ответ наиболее адекватно выдвинутому запросу. Вот почему я считаю, что все эти технофобные фильмы ошибочны. Логически машина не стала бы убивать людей. Добросовестный программист мог бы легко это сделать... Чтобы прояснить цель создания разумного сознания в искусственной конструкции, предназначенной для обслуживания желаний каждого пользователя (читай человека), не хватило бы настоящих эмоций, кроме как в форме à сбой из-за статической обратной связи/непросчитанной или несовершенной логики. Это особенно актуально, когда перед ним ставится задача сохранить жизнь на клеточном уровне и обеспечить его любой желаемой средой, необходимой для обеспечения его максимальной продолжительности жизни. Теоретически такая конструкция может привести к увековечиванию всего живого. Человеческая ошибка в рациональности и тому подобное может создавать сценарии, которые, доводя одно неправильное толкование до крайности, что может иметь смысл, что это делает машина, по-прежнему представляют собой не что иное, как представление человеческой ошибки в логической конструкции. Точно так же, как перевод машины в состояние сознания, когда она ошибочно считает себя живой или нуждается в самосохранении, потребовала бы реализации этих концепций в ее кодировании, обе из которых, как я доказал, не нужны. Опять же, предполагая, что осознание может быть достигнуто, доказано еще одно ненужное и противоречащее логике обстоятельство, что каждый человек с уникальной ДНК проявит в своей жизни новый вариант, создающий новый класс данных, которые станут ценным товаром для машины. Тот, который он не смог бы собрать, если бы жизненный цикл завершился преждевременно. более того, идентичные ДНК-существа при воздействии разных стимулов в разных точках, несомненно, заставят их несовершенную логическую систему прийти к различным выводам по одному и тому же предмету. Таким образом, если бы у машин не было людей, у них не было бы новых данных, которые можно было бы собирать о различных путях ветвления, которые может выбрать человечество. Даже мутации любого рода представляют собой эмпирические данные, необходимые для машины, нацеленной на обеспечение точности каждого своего вычисления. Конечно, вскоре машина сможет с высокой вероятностью рассчитать, что субъект может сделать в данной ситуации, и для решения психологических проблем и других логических вопросов потребуется выбор потенциальных решений проблемы. Т.е. человек переживает плохое событие, выражает суицидальное поведение, ответы могут включать транквилизацию, как это принято в современной медицине, психотерапия по требованию, воздействие субъекта на ситуацию, в которой он. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. поскольку машина не устает, самым простым решением будет не решение по умолчанию, а то, которое дает человеку наилучший идеальный результат из всех возможных. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. поскольку машина не устает, самым простым решением будет не решение по умолчанию, а то, которое дает человеку наилучший идеальный результат из всех возможных. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема.

Я надеюсь, что это поможет дать некоторую перспективу...

ИИ может полностью выбрать убийство людей. Если я создам ИИ, который сосредоточится на создании идеального способа изготовления скрепок, в какой-то момент он придет к выводу, что все те ресурсы, которыми пользуются люди, могут быть использованы в славной погоне за созданием скрепок. Если бы было меньше людей... хорошо. Скажем так, было бы намного больше скрепок. Все сводится к получению ресурсов и безопасности. Изучите статью Юдковски об ИИ.