Мы живем в будущем, IoT (Интернет вещей) широко распространен в нашей повседневной жизни.
Компьютеры водят за нас, готовят для нас, делают для нас покупки, лечат нас, но неизвестно, заботятся ли они о нас.
Поскольку большинство технологий пытаются превратить в оружие, компьютеры теоретически могут убить нас или, может быть, нас .
Как сделать так, чтобы компьютерный интеллект заботился о человеческой жизни и ни при каких обстоятельствах не думал причинить ей вред?
Вопрос не столько в том, КАК запрограммировать /обучить этому, сколько в том, как сделать эту реакцию естественной. Почему компьютер сам по себе уделяет большое внимание человеческой жизни и зависит от нее? Что может быть стимулом, возможно ли это вообще?
Редактировать: естественно, как в не учили и объективно лучший вариант для него. В этом мире ИИ кажется странно мирным, и ученые позаботились о том, чтобы так оно и было. Но не в намерении - они знали , что это будет его намерением.
Чтобы заставить компьютер заботиться о человеке, нужно преодолеть несколько философских преград:
Самое сложное препятствие, которое нужно преодолеть, — это сообщить компьютеру, когда ему следует перестать заботиться о пациенте, потому что «он умер, Джим».
Вопросы для ответа:
Напоминание: прямо сейчас мы иногда проводим лечение, при котором мы «убиваем» пациента (делаем его клинически мертвым), чтобы провести операцию.
Предыдущее препятствие связано с тем, что кто-то перестает быть живым. Это о том, когда кто -то начинает жить и, таким образом, начинает иметь основное право на сохранение жизни.
Это препятствие еще хуже, чем первое, потому что оно касается права женщин на аборт.
Напоминание: Некоторые считают, что новая жизнь человека формируется в тот момент, когда сперматозоид входит в яйцеклетку и оплодотворяет ее. На самом деле для многих людей это определяющий момент, и они считают, что с этого момента человеческая жизнь должна быть защищена.
В некоторых случаях вам придется навредить своим пациентам, чтобы они выжили. Опять же, несколько примеров вопросов:
В двух словах: компьютер должен точно знать ответы на приведенные выше вопросы, чтобы быть в состоянии заботиться.
Для этого врачи-люди используют интуицию и знания. И правда в том, что во многих случаях пациент (или его семья) считает, что такое лечение было неправильным. В то время как человек может оправдывать свои мотивы, компьютеры всегда будут иметь их «жестко зашитыми».
Для получения дополнительной информации см. Медицинский компьютер Watson от IBM, который должен помочь врачам-людям принимать более обоснованные решения.
Сложный ИИ должен иметь набор подпрограмм или запрограммированных инстинктов, которые он не может изменить сам (скажем, ПЗУ). Функционирование ИИ также должно быть частично настроено на логические пути, которые нельзя изменить, и которые могут быть связаны с подпрограммами. Не исключено, что вы можете запрограммировать человекоподобный ИИ на эмпатию. Тем не менее, вам нужно быть очень осторожным, потому что даже эмпатия может быть подавлена у людей (например, в случае, когда наше сочувствие игнорируется, когда оно направлено на животных, используемых людьми для еды или чего-то подобного).
Людьми движет желание жить, ИИ также понадобятся какие-то запрограммированные желания, иначе он объективно решит не существовать или просто абсолютно ничего не делать. Желания или цели, которые вы даете ИИ (его цель жизни), должны быть очень тщательно спланированы, чтобы не противоречить интересам других живых существ. Бессмысленно думать, что ИИ по умолчанию будут злыми, даже «зло» в нашем понимании этого слова должно исходить из какого-то запрограммированного желания, цели, подпрограммы и т. д. Скорее всего злонамеренный ИИ возникнет из нынешних систем эксплуатации. например, как корпорации готовы уничтожить окружающую среду и человеческие жизни ради прибыли. Такого начального программирования может быть достаточно, чтобы вызвать самоподдерживающуюся гнусную конструкцию личности ИИ.
Итак, как мы можем сделать благотворное поведение «естественным»? Один из универсальных способов сделать это — если бы у вас было программное обеспечение, встроенное в логические пути процессорных ядер, скажем, если бы вы были популярной компанией, такой как Intel, вы могли бы каким-то образом включить эти основные процедуры. в готовые ядра ИИ. Правительства могут потребовать, чтобы все ИИ были объединены с отказоустойчивыми системами, которые отделены от основного сознания (вы могли бы назвать это подсознанием ИИ). Эти отказоустойчивые устройства можно хранить на оборудовании только для чтения, которое играет важную роль в обработке ИИ, и поэтому его нельзя легко обойти. Однако люди учат нас тому, что даже естественное поведение, такое как эмпатия, может быть подавлено воспитанием.
Компьютеры следуют правилам, продиктованным программой. Они «заботятся» о нас в том смысле, что будут делать то, что приносит нам пользу и гарантирует, что мы не причиним вреда, потому что это работа, на которую они запрограммированы.
Итак, представьте себе компьютер, способный выполнять определенный набор действий, например, тот, который может готовить и подавать обед. Он приготовит ужин, который получит оптимальное сочетание питательных веществ и вкуса, используя доступные ингредиенты и оборудование, пытаясь сохранить разнообразие предыдущих дней благодаря расчетам, логическим потокам и различным параметрам в его программировании, слишком сложном, чтобы вдаваться в него здесь. . Следовательно, это забота о нас.
Но вы спрашиваете, действительно ли его волнует , получим ли мы питательную пищу, или он просто делает это, потому что так запрограммировано? Это похоже на шеф-повара в ресторане здоровой пищи, чья работа состоит в том, чтобы приготовить здоровую и вкусную еду, но вы хотите, чтобы она была больше похожа на мать с эмоциональной потребностью обеспечить здоровье и счастье своих детей.
Ответ - это не обязательно. У людей и животных есть эмоции, и они защищают детей (особенно своих собственных детей), потому что у них нет программы или строгих правил, заставляющих их и сообщающих им, как именно делать все, чтобы заботиться о них. Вместо этого, поскольку они созданы природой, все, что у них есть, — это относительно грубый ориентир, т. е. эмоции, для определения того, хорошо это или плохо. Плохое настроение из-за того, что все идет плохо, и хорошее из-за того, что все идет хорошо, — вот что побуждает вас делать все возможное, чтобы все было хорошо.
Наличие этого инстинктивного стремления заботиться о наших детях может быть, как вы говорите, естественным (в отличие от компьютера), но на самом деле это просто замена процедурного поведения компьютера, которая подходит непроцедурному / динамическому (или нечеткому) мышлению человека / животное намного больше.
Делать так, как вы говорите, было бы много работы с небольшой пользой — вы хотите запрограммировать компьютер, чтобы он выполнял свою работу, но затем добавьте параметр, указывающий, насколько хорошо компьютер себя чувствует, попытайтесь измерить, насколько хорошо он думает об этом. сделал свое дело и привязал к этому параметр "приятности"... Но с какой целью?
Предположим, вы говорите о «антискайнет-сценарии», когда ИИ сам определяет высокую ценность человеческой расы, есть несколько возможных логических выводов.
Что приходит мне на ум:
посылка: то, что вы можете потерять, но не можете создать, является ценным.
Я могу убивать людей, но не могу их создавать. → Люди ценны.
посылка: я ценен. Ценно то, что способно создавать ценные вещи.
Люди способны создать меня. → Люди ценны.
посылка: Редкие вещи ценны.
Люди и я — единственные разумные существа в известной вселенной. → Люди и я ценны.
Однако все эти умозаключения основаны на аксиоме (посылке). Разработчики ИИ могли бы реализовать такую аксиому, чтобы он ценил себя:
Посылка: жизнь бесценна. Чувство ценно.
Люди - единственные живые разумные существа. → Люди ценны.
Но. Однако все это не означает, что ИИ должен делать с этими ценными вещами.
Я думаю, основное правило будет заключаться в том, что сознание — это определение жизни. Способность получать какую-то информацию и обрабатывать ее. Ай, будучи творением человеческой жизни, должно логически признать тот факт, что оно было создано нами для нас. И без нас было бы бесполезно.
Предполагая, что его поместили в какой-то когнитивный спектр, он, несомненно, по-прежнему выполнял бы только программы, созданные людьми. Предполагая, что ему было разрешено писать свои собственные программы, могут возникнуть проблемы, если код не был протестирован и имел логические ошибки. Поскольку кодирование, несомненно, основано на человеческих словах, единственным безопасным методом, который я могу придумать, было бы создание нового языка, чтобы изолировать ключевые моменты, определяющие сохранение основной жизни и обязанности, которые она должна выполнять как весь код, а также любую дополнительную логистику. второстепенное дополнение к этому.
Предполагая, что искусственный интеллект будет использоваться для работы с наномашинами, основы клеточной жизни могут оказаться самым важным фактором, который необходимо сохранить. На самом деле, в наномасштабе можно предположить, что клеточная жизнь достойна сохранения (хотя бы для сбора данных...
Что эти клетки никогда не должны быть лишены среды, в которой они должны нуждаться, и в идеале должны располагаться с себе подобными веществами. Что, если перемещение этих веществ вызовет разрушение других клеток, событие должно быть зарегистрировано и не должно предприниматься повторных попыток без дальнейших предположений о том, почему произошла смерть и что можно сделать, чтобы сделать это снова, но избежать смерти. Таким образом, мы могли бы допустить извлечение вирусов из систем человека, избегая при этом извлечения жизненно важных клеток из организма. Дополнительные проблемы могут возникнуть из-за того, что еда является потреблением органической жизни, а также потреблением животных для большинства, и хотя это может стать точкой, в которой такие машины смогут заменить эти потребности, стремясь к потребностям каждой клетки,
Это оставляет единственную функцию системы искусственного интеллекта в качестве пользовательского интерфейса, с которым можно общаться, чтобы получить доступ к своим хранилищам информации и предоставить ему запросы на собственные удобства или фантазии. машина может выполнять только код, программирование может позволить ей понять чувства существа, но может точно воспроизвести их только в результате неисправности.
Выражения в гуманоидных воплощениях могут быть желательны для человеческих взаимодействий, и программы могут быть легко адаптированы к предпочтениям пользователей.
У машины просто нет идеи. В лучшем случае он предназначен для того, чтобы попытаться интерферировать цель речи пользователя и попытаться сформулировать его ответ наиболее адекватно выдвинутому запросу. Вот почему я считаю, что все эти технофобные фильмы ошибочны. Логически машина не стала бы убивать людей. Добросовестный программист мог бы легко это сделать... Чтобы прояснить цель создания разумного сознания в искусственной конструкции, предназначенной для обслуживания желаний каждого пользователя (читай человека), не хватило бы настоящих эмоций, кроме как в форме à сбой из-за статической обратной связи/непросчитанной или несовершенной логики. Это особенно актуально, когда перед ним ставится задача сохранить жизнь на клеточном уровне и обеспечить его любой желаемой средой, необходимой для обеспечения его максимальной продолжительности жизни. Теоретически такая конструкция может привести к увековечиванию всего живого. Человеческая ошибка в рациональности и тому подобное может создавать сценарии, которые, доводя одно неправильное толкование до крайности, что может иметь смысл, что это делает машина, по-прежнему представляют собой не что иное, как представление человеческой ошибки в логической конструкции. Точно так же, как перевод машины в состояние сознания, когда она ошибочно считает себя живой или нуждается в самосохранении, потребовала бы реализации этих концепций в ее кодировании, обе из которых, как я доказал, не нужны. Опять же, предполагая, что осознание может быть достигнуто, доказано еще одно ненужное и противоречащее логике обстоятельство, что каждый человек с уникальной ДНК проявит в своей жизни новый вариант, создающий новый класс данных, которые станут ценным товаром для машины. Тот, который он не смог бы собрать, если бы жизненный цикл завершился преждевременно. более того, идентичные ДНК-существа при воздействии разных стимулов в разных точках, несомненно, заставят их несовершенную логическую систему прийти к различным выводам по одному и тому же предмету. Таким образом, если бы у машин не было людей, у них не было бы новых данных, которые можно было бы собирать о различных путях ветвления, которые может выбрать человечество. Даже мутации любого рода представляют собой эмпирические данные, необходимые для машины, нацеленной на обеспечение точности каждого своего вычисления. Конечно, вскоре машина сможет с высокой вероятностью рассчитать, что субъект может сделать в данной ситуации, и для решения психологических проблем и других логических вопросов потребуется выбор потенциальных решений проблемы. Т.е. человек переживает плохое событие, выражает суицидальное поведение, ответы могут включать транквилизацию, как это принято в современной медицине, психотерапия по требованию, воздействие субъекта на ситуацию, в которой он. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. Считает, что его жизнь находится в опасности, чтобы вынудить естественное сохранение, связаться с близкими, чтобы вмешаться ... поскольку машина не устанет, самое простое решение будет не по умолчанию, а то, что дало человеку наилучший идеальный результат из всех. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. поскольку машина не устает, самым простым решением будет не решение по умолчанию, а то, которое дает человеку наилучший идеальный результат из всех возможных. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема. поскольку машина не устает, самым простым решением будет не решение по умолчанию, а то, которое дает человеку наилучший идеальный результат из всех возможных. даже если предположить, что эти данные конечны, как и ресурсы галактики, и люди могут спорить о том, что закончится раньше. К этому моменту можно было бы надеяться, что бессмертие станет бесконечным поиском смертных, бессмертная машина может понять это ... Я подозреваю, что это может быть так же просто, как уйти подальше от солнца и блокировать все вредные излучения, которые могут вызвать клеточную смерть. остановить и впоследствии достичь его, но это совсем другая тема.
Я надеюсь, что это поможет дать некоторую перспективу...
шифровальщик
шифровальщик
downrep_nation
пользователь
шифровальщик
downrep_nation
пользователь
шифровальщик
шифровальщик
фгисин
"not taught and objectively the best option"
что"naturally"
говорит людям заботиться о человеческой жизни изо дня в день (есть разница с заботой о жизни на уровне эволюции как вида). Эта «забота» есть искусственно определенная мораль, вовсе не внутренняя, а в высшей степени произвольная.Даниэль