может ли машина галлюцинировать?

Мне кажется, что наш нынешний опыт субъективного сознания человека в настоящее время основан на одном из следующих:
- отчет о субъективном опыте через язык
- наблюдение за электрической активностью в областях мозга, сопоставленных с субъективным опытом

. Использование этих двух в качестве распознавания. непрерывного субъективного опыта и с такими материалистами, как Деннет, определяющими обработку, происходящую в мозгу, как сам субъективный опыт, сколько времени пройдет, прежде чем ИИ сможет заявить, что у них есть машины, «ощущающие субъективную реальность»?
В конце концов, у нас есть машины, которые могут вводить, хранить и обрабатывать объективную реальность. Всегда можно утверждать, что контролируемая обработка информации в форме электрической активности является свидетельством того, что машина переживает субъективную реальность, поскольку, помимо языка, это единственное свидетельство, которое мы имеем для нее в случае других людей из-за Проблема Других Разумов.

Единственный аргумент, который я могу придумать, — показать, могут ли машины галлюцинировать. Имеются убедительные доказательства того, что большинство людей при воздействии сенсорной депривации будут испытывать ту или иную форму зрительных или слуховых галлюцинаций. По сути, при отсутствии сенсорных данных разум будет генерировать ложные данные. Если машинный ИИ делает это, то, возможно, они действительно переживают субъективную реальность.....

Вам нужно более сильное понимание того, что означает «галлюцинация». В какой-то степени ( braindecoder.com/post/… ) весь наш механизм восприятия — это галлюцинация, которая проверяется данными реальности. Нет входных данных, значит нет проверки и более причудливая галлюцинация. Больше входных данных означает больше проверок и более реалистичную. Но нет прерывистой точки, где что-то «достаточно нереалистично», чтобы быть галлюцинацией.
По сути, я имею в виду аудио/визуальный опыт в объективном мире, которого там не существует. В случае с машиной я готов свести его к наблюдению за электрическим выходом, когда нет входа, где есть электрический выход, когда есть вход. Но, возможно, этот вопрос следует закрыть, как предложили некоторые пользователи. Выдвинул гипотезу о несконструированных структурах, хотя я думал, что речь идет о философии.
Но сочетание зеленого и красного для получения желтого — это визуальное переживание объективного мира, которого там не существует. Нет излучения с длиной волны желтого, созданного путем объединения двух других цветов. Если это галлюцинация, то наше представление о цвете — это продолжающаяся галлюцинация, а поскольку оно характеризует почти все наши зрительные переживания, мы живем в постоянной галлюцинации.
@jobermark Существует длина волны желтого цвета, которая может быть создана путем комбинирования длин волн других цветов, просто у нас нет колбочек в нашей сетчатке, чтобы улавливать его, у нас есть только длинноволновые, средние и коротковолновые рецепторы всего, что падает между ними состоит из сигналов от них. В данном случае мы «выводим» цвет, который на самом деле существует (другие устройства могут его различить), просто мы его не воспринимали должным образом. Вы, конечно, абсолютно правы в том, что многое из того, что мы ощущаем, является формой галлюцинации, но это скорее контрпример.
Я не хочу быть преднамеренно педантичным, я просто думаю, что вы сделали очень хорошее замечание, и я не хотел, чтобы оно было отвлечено слегка ошибочным примером. То, как мы собираем бесшовные изображения из того, что на самом деле представляет собой постоянно меняющийся набор картинок каждый раз, когда мы двигаем глазом, или то, как мы изобретаем цвета нашим периферийным зрением (которое не имеет цветовых рецепторов), было бы подлинными галлюцинациями чего-то, что могло бы на самом деле не существует в реальном мире.
Тот факт, что «не существует прерывистой точки, где что-то «достаточно нереалистично», чтобы быть галлюцинацией», является ключом к вопросу, я думаю, потому что даже машина должна делать выводы на основе электрических сигналов, которые она получает от своих сенсорных устройств, и, следовательно, склонен к той же проблеме, шкале, где чем больше вывод, тем больше вероятность того, что он сделает ошибку (галлюцинацию), но нет дискретной точки, в которой он переходит от одного к другому.
@Isaacson До сих пор нет той длины волны света, которая присутствует в комбинации красного и зеленого света, которую люди воспринимают как желтый. Мы берем два разных сигнала и интерполируем третий. Мы представляем себе желтый свет, в котором нет отдельного фотона желтого цвета. Я думаю, если кто-то не педантичен в определении цвета, этот пример разваливается. Но я хотел чего-то совершенно нормального, но на самом деле фальшивого.
Это характеристика нормального процессинга: так много догадок, что мы выдумываем. Мы видим, как движутся огни в темноте, мы представляем себе движущиеся автомобили, когда вместо этого мы движемся относительно них, и т. д. Нам не хватает ясности, чтобы определить, что является нормальными иллюзиями, а что — «галлюцинациями». То же самое верно для любой компьютерной системы, достаточно усердно сканирующей свое окружение, независимо от того, является ли она ИИ. На некотором уровне сложности поправки на потенциальный шум обязательно создают ложные впечатления. Таким образом, вопрос разваливается задолго до того, как мы дойдем до вопросов интеллекта.
@Jobermark Теперь я понимаю, что вы имеете в виду, я взял ваш пример, чтобы обозначить вычитающую комбинацию, то есть действие пигмента на белый свет, что привело бы к подлинному отражению желтого света на 575 нм. Нам все равно придется определить этот цвет, поскольку наши глаза не имеют колбочек, чувствительных к этой частоте, что все еще является галлюцинацией, но говорит нам о чем-то более «реальном», чем мы можем обнаружить, а не о менее «реальном». Но вы имели в виду аддитивную комбинацию света, так что теперь ваш пример мне понятен.
Я отредактировал свой ответ, чтобы учесть ваши комментарии, спасибо.

Ответы (2)

Вот статья о галлюцинациях изображений ИИ:

Да, андроиды мечтают об электрических овцах (The Guardian, 18 июня 2015 г.)

Если программа может видеть галлюцинации, она также может попытаться взаимодействовать с ними. Я полагаю, что с некоторыми уговорами это могло бы поддерживать галлюцинаторный рассказ.

Google освобождает роботов своей мечты: недоеденный пончик. Иллюстрация: Google

введите описание изображения здесь

Интересно. Так что, похоже, мои подозрения в отношении некоторых ИИ, утверждающих, что их машины могут видеть сны, были не совсем беспочвенными. Судя по изображению, которое вы разместили, и изображениям в статье, фракталы кажутся темой узнавания. Как будто он распознал один элемент, а затем ищет этот элемент в разных масштабах изображения. Кажется, что это гусеница наверху, и они подчеркивают ее кривую в различных масштабах и поворотах. Но вы можете заметить, что мой более ранний пример галлюцинации был выведен при отсутствии ввода, и здесь мы определенно получаем ввод.

Галлюцинация в смысле видения вещей, которых на самом деле нет, происходит постоянно, мы «видим» цвета путем дедукции частот, близких к этим цветам, мы также видим непрерывный образ окружающего нас мира, несмотря на то, что он построен из сотен цветов. постоянно меняющиеся образы. В широком смысле активность нашего мозга в ответ на визуальные стимулы можно разделить на три типа: те, которые используют наше ограниченное сенсорное оборудование, чтобы вывести что-то о мире, что является реальным (обнаруживаемым другим оборудованием), но чего мы на самом деле не видели, и те, которые помогают создать полезную картину мира, с которой согласится большинство других, но которой на самом деле может не быть (оптические иллюзии и т. д.), а также те, в которых информация из наших воспоминаний или воображения ошибочно идентифицируется как исходящая от наших глаз.

ИИ по необходимости будет страдать от галлюцинаций первого типа, если только его системы ввода не будут настолько продвинуты, чтобы точно принимать все сигналы во всем диапазоне длин волн от всех источников. Второй тип также будет необходим, поскольку маловероятно, что машина будет работать эффективно без некоторой степени логического вывода, где отсутствуют ее датчики.

Только в третьем типе я думаю имеет значение как именно изготовлена ​​машина

Галлюцинация в ответ на сенсорную депривацию не является показателем «субъективного опыта или реальности», это просто то, как устроен наш мозг. Все наши сенсорные переживания, реальные, запомненные или воображаемые, обрабатываются одной и той же частью мозга. Обычно вторая часть мозга предоставляет нам информацию об источнике ощущений, но при отсутствии доказательств (сенсорная изоляция) или в случаях шизофрении она не может этого сделать, и мы ошибочно идентифицируем внутренне генерируемые сенсорные переживания как внешние. см . здесь .

Таким образом, если бы ИИ был настроен на обработку сенсорных данных таким же образом (т. е. иногда от его внешних сенсоров, иногда от его банков памяти или его цепей, генерирующих шаблоны, но с последующей программой, чтобы сообщить ему, что именно) в отсутствие эта последующая программа может (если она была запрограммирована на это) решить, что все источники сенсорных данных, вероятно, являются внешними и поэтому «галлюцинируют». Было бы несложно заставить машину генерировать из своей памяти те же данные, что и сенсорные устройства ввода, и обрабатывать их как полученные из идентичного источника.

Проблема с обсуждениями типа ИИ/сознания заключается в том, что мы размышляем о несуществующей технологии, которая теоретически может делать что угодно. Нам не нужно физикалистское понимание реальности, чтобы размышлять о сознании ИИ, потому что, даже если мы примем дуалистическую точку зрения, почему мы тогда отвергнем идею о том, что технология может продвинуться до стадии, когда ее можно будет запрограммировать для доступа к «царству идей». ?

Если мы собираемся принять идею о том, что технология способна делать что-то, чего она в настоящее время не может, то какая может быть рациональная причина для того, чтобы намеренно ограничивать возможности этой технологии, а затем заявлять, что таким образом мы открыли что-то интересное?

Исследования в области ИИ были посвящены «симуляции» сознания. Люди могут испытывать только собственное сознание. Они могут попытаться понять, как другие люди понимают их сознание через разбавленную среду языка. В настоящее время теории таковы: все это материально, все это нематериально и это смесь того и другого. Возможные в настоящее время исследования ИИ пытаются осознать реальность физического сознания.
@AnoopAlex Почему вы думаете, что люди могут понимать сознательный опыт других людей только с помощью языка? Разве нейробиология и физиологические эксперименты не дают нам понимания? В любом случае это все еще не более чем спекуляция, сказать, что современные теории «все это материально, все это нематериально и это смесь того и другого», — это очень великодушная интерпретация. Для меня это звучит как список всех возможностей. Если бы мы не знали, содержит ли ящик песок или воду, было бы бесполезно говорить, что это может быть песок, вода или и то, и другое.
Пока мы не узнали окончательно, был ли это песок или вода, лучшим объяснением было бы сказать, что это может быть песок или вода, или и то, и другое. И если бы весь наш мир был сделан из песка и мы знали бы только о концепции воды, мы могли бы совершить ошибку, рассматривая только методы, доказывающие, что это песок, и игнорируя те, которые доказывали бы, что это вода.
Извините, я думаю, что моя метафора, возможно, была не очень хорошо выражена, представьте себе тот же сценарий в мире, как вы говорите, полностью состоящем из песка и воды, тогда сказать, что это либо песок, либо вода, либо и то, и другое, было бы совершенно правильно, но не полезно . Нам не грозит опасность проигнорировать один вариант просто потому, что никто не сказал, что он возможен, поэтому я не вижу пользы в этом заявлении.
Вы, кажется, путаете нейронную репрезентацию ощущения с переживанием ощущения. Как указывает Мортен Овергаард, нейронаука полагается на субъективные оценки, чтобы понять сознательный опыт: «Чтобы прийти к этой ассоциации [с сознанием], нужно было бы провести несколько экспериментов, соотносящих повторяющиеся процессы с сознанием, используя самоанализ участников эксперимента. Следовательно, это метод не был бы независимым от интроспекции, но обладал бы сильными, слабыми сторонами и ограничениями интроспекции».
@PedeLeao Что заставляет вас думать, что нейронное представление ощущений и переживание ощущений — это две разные вещи? Кроме того, неврология не полагается на субъективные оценки, она может вывести ряд объективных утверждений из наблюдений за мозговой активностью, которая в целом коррелирует между широким кругом субъектов, и посредством исследований повреждений головного мозга может вывести значительный объем объективной информации об ощущениях. . Овергаард просто предполагает, что сознание — это нечто определенного рода, а затем делает заявления о том, как его можно исследовать, основываясь на этом предположении.
Вот только это просто неправда. Они могут делать такие выводы только потому, что сопоставили данные с субъективными оценками, как говорит Овергаард. Он профессор неврологии из Орхусского университета, а вы просто рассуждаете о вещах, о которых ничего не знаете.
@Isaacson Вы говорите, что наука не игнорирует нематериалистические теории сознания? Я очень мало читал о биоцентризме, но то немногое, что у меня есть, похоже, подразумевает, что это радикальная теория, основанная на квантовой науке для объяснения сознания. Похоже, что интереса к его дальнейшему продвижению не было.
@PedeLeao Вы говорите, что «субъективные оценки» — это то же самое, что «самоанализ»? Разве нельзя было бы следить за мозговой активностью субъекта, представляя общепринятые положительные/отрицательные чувственные данные, не спрашивая их субъективных оценок? Конечно, я не знаю, были ли такие тесты....
@АнупАлекс. Точка зрения Овергаарда состоит в том, что такие свидетельства в конечном счете зависят от самоанализа, а не наоборот. Даже если сканирование может дать высокую степень вероятности того, что переживание происходит, лучшим доказательством остается личный отчет об этом переживании. Относительно галлюцинаций: нельзя сказать, что информация существует в зависимости от какого-либо конкретного субстрата, поэтому ей не хватает онтологических условий для проявления феноменальных свойств. Любое мнение об обратном связано не более чем с принятием желаемого за действительное.
@PedeLeao Я могу с этим согласиться. Интроспекция может зависеть не от передачи опыта, а от самого опыта. Сопоставление сигналов в мозге с активностью дает информацию о текущих процессах, но это не обязательно делает их самим опытом, как утверждают некоторые популярные авторы, такие как Деннет. Карта — это не территория. Эта теория может сработать, если, как утверждает Тегмарк, будет найден реальный материал для размышлений.
@AnoopAlex Да, наука не игнорирует нематериалистические теории, просто науке нужна фальсифицируемая теория, чтобы быть наукой, нематериалистическое объяснение не может быть измерено и поэтому не может быть фальсифицировано. Дело в том, что нематериализм — это всего лишь материализм, который в настоящее время находится за пределами наших технологий для обнаружения, и когда мы уже не сможем его обнаружить, мы, несомненно, измерим и проверим теории о нем.
@PedeLeao Во-первых, аргументы ad hominem здесь бесполезны, вы не знаете, что я знаю или не знаю. Во-вторых, тот факт, что Овергаард является профессором неврологии, не означает, что все, что он говорит, правильно, в мире есть другие профессора нейробиологии, и многие не согласны с его анализом. Быть профессором неврологии автоматически не делает человека окончательным арбитром в том, что является субъективным или каковы пределы знания. Если у вас есть рациональный аргумент, пожалуйста, представьте его так, чтобы все остальные могли его прочитать, а не просто апеллировать к авторитету.
@Исааксон. Можете считать это личным, если хотите, но ваш ответ не дает мне оснований полагать, что вы делаете что-то большее, чем спекуляции. Первоначальное намерение этого сайта состояло в том, чтобы поддерживать уровень качества, которого не хватает вашему ответу. Вы прямо противоречите нейробиологу без единой ссылки. Можете ли вы сделать что-то, чтобы улучшить свой ответ?
@PédeLeão Быть разумным внутри себя и основываться на довольно широко признанной науке - это причина полагать, что автор не спекулирует. Предоставление цитаты, которая на самом деле говорит о том, что содержит его ответ, является причиной полагать, что автор не спекулирует. Вы настаиваете, что он не делал ни того, ни другого? Уровень качества всегда можно поднять, но это не оценка, а заведомо ложный выпад. Люди, на которых он основывает эти понятия , в какой-то степени спекулируют, но это часть их работы. И их предположения проверяются данными.
@PedeLeao Возможно, было бы полезно, если бы вы могли указать, какое утверждение в моем ответе требует дальнейшего цитирования. По моему мнению, я сделал два утверждения, на которых основан аргумент: 1) что галлюцинация — это неправильная идентификация внутреннего сенсорного опыта, на который я ссылался в одном исследовании. 2) что технологии создания галлюцинирующего ИИ в настоящее время не существует, что, я полагаю, настолько очевидно, что не нуждается в цитировании. Остальное — просто аргументированная индукция из этих посылок. Я не понимаю, какую цитату вы хотели бы поддержать.