В моем мире новая технология, известная как персональный ИИ (далее я буду обозначать ее как PAI), стала таким же обыденным явлением, как сегодняшний iPhone. PAI может выступать в роли личного помощника, секретаря, органайзера и т. д., а в целом делает жизнь пользователя более организованной и управляемой. Но это не единственная и не основная функция PAI. Он также может общаться с пользователем, сохранять его разговоры и давать советы по личным вопросам на основе знаний, которые они сохранили. Это сохранение информации является наиболее важной особенностью PAI, потому что они ничего не знают о своем пользователе, пока пользователь не поговорит с ними. Таким образом, чем больше пользователь говорит, тем больше знает PAI и тем эффективнее PAI общается со своим пользователем. Эта технология была создана, чтобы сделать людей более продуктивными, более социальными и лучше».друга за то, что помог им решить их проблемы. Однако, хотя эта технология является новаторской, она стала катализатором антиобщественного поведения, удовлетворяя потребность пользователя в связи и общении с другими людьми. Мой главный вопрос заключается в следующем:
Какие положительные и отрицательные последствия эта новая технология может иметь для общества в целом и для пользователей PAI?
Некоторые побочные вопросы, на которые я хотел бы получить ответы:
Нужна ли PAI какая-то физическая/визуальная форма, например, как Cortana отображалась в виде голограммы в Halo, чтобы пользователь мог установить с ней осмысленную связь?
Может ли компания, которая запатентовала и произвела PAI, снять с себя ответственность за то, что PAI давали неверные или, возможно, вредные советы своим пользователям?
Реально ли, чтобы доверие пользователя к своему PAI стало настолько абсолютным (не говоря уже о более убедительных присущих PAI качествах как технологии, а не как личности), что пользователь будет искренне следовать советам своего PAI до такой степени, что он не сделает никаких действий? решения самостоятельно? И было ли что-то подобное в прошлом?
Примечание. PAI предназначен только для общения с конкретным пользователем. Они не могут обсуждать какие-либо вопросы с другими пользователями или другими PAI.
Редактировать: PAI не подключен к какой-либо форме Интернета или внешнего подключения. Это только соединение с его пользователем.
Редактировать 2: PAI можно подключить к Интернету, если пользователь решит, что риск взлома и кражи его информации меньше, чем преимущество получения автоматических обновлений из его любимых магазинов, провайдера рейсов и т. д.
Редактировать 3: у меня возникла идея подключить PAI к телефонам или приложениям для обмена сообщениями, но это может лучше подойти для другого вопроса.
Положительные эффекты:
- Хранение информации Людям больше не нужно будет запоминать такие вещи, как встречи или то, что произошло в их прошлом. Сейчас у нас есть такие вещи, как календарь Google, но кто-то напомнит вам о чем-то по-прежнему намного проще, чем вам придется идти и что-то искать. PAI может сказать вам, что вы оставили ключи, или что духовка все еще включена.
- Меньше тривиальных задач . В зависимости от уровня подключения (рассмотренного позже) PAI может выполнять за вас множество задач типа домашней автоматизации. Он также может выполнять за вас определенные задачи, например налоги или расчет шансов на выигрыш в карты. Люди могут делать эти вещи, но часто не хотят .
- Личное совершенствование PAI может быть личным тренером во всех сферах вашей жизни. Это может дать вам беспристрастный совет о том, как улучшить себя, и, более того, побудить вас действительно измениться. Представьте, что он подсчитывает ваши отжимания, чтобы вы не могли обмануть себя в последних одном или двух. Или напомнить вам, что в этот день вы уже съели 2000 калорий.
- Общение Учитывая идею социальных сетей, странно, что они могут заставить нас чувствовать себя более одинокими . Личный друг может дать все преимущества преданного друга. Одиночество может быть основным фактором многих проблем с психическим здоровьем, и точно так же дружеские отношения могут помочь вылечить многие другие.
Отрицательные эффекты:
- Зависимость С такой продвинутой и индивидуальной технологией люди станут зависимыми от своего PAI. Если PAI когда-либо выйдет из строя, будет поврежден или взломан, людям будет трудно справиться. На многих уровнях это будет похоже на смерть лучшего друга.
- Судебные разбирательства В настоящее время существует множество законов и судебных дел, связанных с технологиями и правом на неприкосновенность частной жизни. Вот один из последних . Смогут ли полиция или федеральные агенты допросить ваш PAI? Будет ли ваш PAI сообщать вам о совершении преступления? Может ли ваш PAI совершить преступление? Это все вопросы, с которыми мы как общество сталкиваемся прямо сейчас.
- Уязвимость Вроде бы очевидна, но PAI будет знать о вас больше, чем вы сами о себе. Эта информация представляет собой очень хороший способ шантажа/вымогательства людей, что делает ее главной целью для хакеров.
Вопросы:
Нужна ли PAI какая-то физическая/визуальная форма, например, как Cortana отображалась в виде голограммы в Halo, чтобы пользователь мог установить с ней осмысленную связь?
Как утверждают другие, ему не нужна физическая форма. Однако я ожидаю, что люди будут более восприимчивы к PAI, если у них будет хотя бы визуальное представление. Может быть какая-то дополненная реальность, например гугл-очки, где только пользователь может видеть PAI? Может повязка с лицом? Возможность увидеть или потрогать что-то помогает людям ценить это, а также не сойти с ума. Голос, который никто не видит и не слышит? Похоже на шизофрению!
Может ли компания, которая запатентовала и произвела PAI, снять с себя ответственность за то, что PAI давали неверные или, возможно, вредные советы своим пользователям?
Другие ответили на этот вопрос хорошо, но да, они могут заставить вас подписать форму освобождения. Если вы можете подписать форму на прыжки с парашютом, вы можете подписать форму на получение PAI.
Реально ли, чтобы доверие пользователя к своему PAI стало настолько абсолютным (не говоря уже о более убедительных присущих PAI качествах как технологии, а не как личности), что пользователь будет искренне следовать советам своего PAI до такой степени, что он не сделает никаких действий? решения самостоятельно? И было ли что-то подобное в прошлом?
Это действительно зависит от каждого человека и, вероятно, зависит от общего мнения о честности ИИ. Если PAI не станут известны своей ложью, вполне вероятно, что пользователи будут зависеть и слепо доверять своим PAI. Вплоть до того, что они не принимают решения самостоятельно, это другое дело. Лучшим примером этого, который приходит мне на ум, может быть серия «Его темные начала», где люди обнажают свои души в виде личных питомцев. Возможно, стоит поискать еще идей.
1) На самом деле нет, люди могут завязать значимую дружбу через друзей по переписке и онлайн-разговоры. Никаких фотографий или других изображений не требуется, только имя.
2) лицензионное соглашение, я думаю. Как Tesla настаивает на том, что их функция самостоятельного вождения — это не функция автономного вождения, а расширенный круиз-контроль. Это все мелким шрифтом. Если это подтвердится в суде, это уже второй вопрос. EULA никогда по-настоящему не проверялись в суде.
3) Слишком субъективно. Я предполагаю, что это сильно зависит от пользователя. Некоторые люди доверяют, другие настаивают на том, чтобы строить свои собственные планы.
Как в целом. Я предполагаю, что разведывательное сообщество так или иначе будет усиленно копать эти данные в поисках данных. Я предполагаю, что они либо поставляются с энциклопедией, либо подключены к информационной сети, такой как Интернет? В последнем их обязательно взломают. Агентством и преступником.
Отношения, секс и брак могут сильно ухудшиться, если есть какие-то признаки Японии. Люди наверняка влюбятся в PAI. Если у вас уже есть идеальный партнер, который всегда рядом с вами, зачем искать еще одного несовершенного? Скорее всего, люди изолируют себя со своим PAI.
1) Как сказал Мормасил, ему не нужна видимая форма для формирования соединения. Если он работает голосом, исследования показали, что и мужчины, и женщины, как правило, лучше реагируют на женские голоса. Хотя всегда будут исключения.
3) Всегда будет спектр реакций. Однако, учитывая, насколько ленивыми могут быть некоторые овцы (овцы/люди), будет расти фракция, которая позволит PAI думать за них. Таким образом, взломанные PAI могут быть использованы для победы на выборах, а в крайних случаях могут привести к травмам или смерти пользователей (посмотрите на несчастные случаи, вызванные водителями, следовавшими GPS-направлениям по несуществующим дорогам).
Какие положительные и отрицательные последствия эта новая технология может иметь для общества в целом и для пользователей PAI?
Как правило, это будет сильно зависеть от того, насколько он реалистичен и его особенности. Из-за того, что его вырезали из Интернета, он, по сути, «бесполезен» в реальной помощи пользователю. В основном он будет действовать как «друг», который может знать ваши любимые занятия и занятия, а также давать напоминания и советы.
Возможным результатом этого PAI будет просто «домашнее животное», «друг», «любовник» или «ребенок».
Эффект будет сильно варьироваться от улучшения пользовательской организации повседневной жизни, лучшего настроения в начале дня до депрессии, потому что ваша девушка/парень PAI расстается с вами (ироничное решение для PAI).
Нужна ли PAI какая-то физическая/визуальная форма, например, как Cortana отображалась в виде голограммы в Halo, чтобы пользователь мог установить с ней осмысленную связь?
Как заявляли другие, нет. Но это сильно повлияет на то, насколько хорошо и насколько глубока связь с PAI. Реалистичный (или нереалистичный) внешний вид поможет вам продолжать взаимодействовать с PAI. В здравом смысле, если у вас может быть сексуальный парень/девушка в качестве аватара, есть шанс, что вы влюбитесь или просто возбудитесь, наблюдая за этим.
Может ли компания, которая запатентовала и произвела PAI, снять с себя ответственность за то, что PAI давали неверные или, возможно, вредные советы своим пользователям?
Насколько я понимаю вопрос, может ли компания сделать функцию/разрешить ответственность, которая нанесет вред пользователю? Да, они могут, и если они узнают, будут иски, независимо от того, непреднамеренно это или нет.
Я предполагаю, что ответственность, которую вы здесь упомянули, заключается в том, как PAI может сделать пользователей «зависимыми» от него. Табачная промышленность уже сделала это. Кофе уже сделал это. Что не так с этим PAI?
Реально ли, чтобы доверие пользователя к своему PAI стало настолько абсолютным (не говоря уже о более убедительных присущих PAI качествах как технологии, а не как личности), что пользователь будет искренне следовать советам своего PAI до такой степени, что он не сделает никаких действий? решения самостоятельно? И было ли что-то подобное в прошлом?
Трудно сказать, так как это будет сильно зависеть от пользователей. Однако это возможно, если вашему PAI посчастливится быть точным на 90% в своих советах.
Инвестор всегда будет просить своего советника купить акции, потому что есть статистическое доказательство того, что советник всегда прав, почему с PAI все иначе? Вы можете обратиться к нему за советом по свиданиям или тому подобному, и если он будет успешным, вы всегда будете зависеть от PAI для дальнейших советов по свиданиям.
Просто примечание: ваше ограничение на отсутствие интернета очень ограничивает, хотя я знаю, что оно упрощает проблему. Вы также можете изменить его на «ограниченный интернет».
Энигма Майтрейя
Джейч
точка_Sp0T
Необходимость
Необходимость
Джейч
Серафим Мирмидон
точка_Sp0T
Кингледион
пользователь535733