Является ли это хорошим аргументом против гипотез моделирования и мозга в чане?

Меня интересовали эти скептические гипотезы относительно реальности, которую мы переживаем. В частности, я хотел рассмотреть аргументы « Моделирование » и «Мозг в чане », потому что мне они кажутся похожими (поправьте меня, если я ошибаюсь). В обоих случаях должен быть какой-то компьютер, моделирующий реальность, которую я воспринимаю. Симуляция — это представление чего-то другого, верно? Мой вопрос:

Можно ли создать идеальное представление чего-то другого?

Если я увижу яблоко в реальности, то замечу отличие от яблока на экране компьютера или на холсте картины. Даже самая фотореалистичная виртуальная реальность никогда не могла дать мне такое же впечатление от яблока, как если бы оно было настоящим. Я говорю это, потому что:

  • Мое сознание определенно существует;
  • Мое сознание является частью актуальной реальности, даже если то, что я воспринимаю, таковым не является;
  • Мое сознание равно сознанию существ, живущих в актуальной реальности;
  • Следовательно, я буду знать о чем-то менее точном, чем то, что они воспринимают.

Это как родиться в суперфотореалистичной виртуальной реальности, не замечая незначительных неточностей того, что я чувствую. Я имею в виду, в конце концов, я такой же сознательный, как инопланетяне, живущие в базовой реальности, верно? Чтобы они заметили разницу... но не я?!

Кто-то может возразить, что это похоже на аллегорию Платона о пещере , но с точки зрения восприятия тени, проецируемые на двумерную стену пещеры, так же точны, как и тени, существующие в трехмерной реальности. Так что я не думаю, что это хороший аргумент.

Извините, но это не аргумент. Вы свои личные впечатления возводите на принципиально возможное, именно такие рассуждения приводили древних людей к мысли, что Земля плоская и т.д. Надо делать поправку на наш ограниченный опыт и недостаток воображения. Кроме того, как показали эксперименты в области нейробиологии и психологии в последние десятилетия, «сознание» является крайне ненадежным свидетелем чего бы то ни было: люди регулярно сообщают о формировании намерения пошевелить пальцем после того , как их мышцы уже начинают сокращаться. И никто даже не пытается их обмануть.
@Conifold «сознание - крайне ненадежный свидетель чего-либо: люди регулярно сообщают о формировании намерения пошевелить пальцем после того, как их мышцы уже начинают сокращаться. И никто даже не пытается их обмануть». Поведение как мера сознания НЕНАДЕЖНО . Нейробиологи не могут сказать, существует ли сознание до поведения. Так что я бы не стал выдвигать плохую науку о сознании в качестве разумного аргумента. «именно такие рассуждения привели древних людей к мысли, что Земля плоская». Точно нет. Я просто констатирую, что такое симуляция.
Вы хотели получить отзыв о своем аргументе, и вот он. Является ли поведение мерой сознания или нет, спорный вопрос, в этих экспериментах используется самоотчет о «намерениях», см . Эксперименты Либета . Второй части ни туда, ни сюда, самоуверенность и отсутствие воображения заставили людей поверить во многие вещи. Споры о личных убеждениях на этом сайте не по теме.
Кстати, чтобы прояснить ситуацию, вы говорите, что сознание ненадежно, потому что нейробиологи сделали открытия о времени перехода от бессознательного к сознательному состоянию действия. Я не говорю о сроках или чем-то подобном. Я говорю о сознательном состоянии, когда мы осознаем.
Я бы использовал аргумент Серла о китайской комнате, чтобы заявить, что мы не симуляция, и мы не мозги в бочке, и ИИ никогда не сможет что-либо понять.
Когда вы спите, вы знаете, что спите? Или все кажется реальным?
@user4894 user4894 Мне никогда не снилось ничего более яркого, чем реальность.
Современные философы сознания регулярно утверждают, что мы мозг в бочке, просто они называют эту бочку черепом.
Кажется, вы не знакомы с предысторией этих экспериментов или с психологической литературой по конфабулации (составлению намерений после действия), см. недавний обзор Роскиса . Даже в так называемых сознательных состояниях большая часть умственной деятельности остается бессознательной, и в любом случае нельзя ожидать, что мы осознаем, вызвано ли сознательное переживание внешними факторами, как, например, галлюциногены. Бремя доказательства лежит на вас, чтобы показать, что интроспекция надежна, иначе ваш аргумент будет замкнутым.

Ответы (1)

Это комментарий к идее, что человек, например я, действительно может быть симуляцией, работающей на компьютере.

Идея о том, что я — симуляция, предполагает, что выполняющаяся симуляция имеет семантическое содержание. Я не более чем симуляция, но тем не менее я понимаю вещи, наслаждаюсь (виртуальным) KFC, думаю, что это плохо для меня (но это не потому, что я всего лишь симуляция), воспринимаю мир и т. д., (имею семантика), но на самом деле я просто программа, работающая в компьютере.

Таким образом, у симуляции, которой я являюсь, есть семантика, даже если она ошибочна. Проблема в том, может ли симуляция иметь семантику? Один ответ: это зависит от того, что вы подразумеваете под симуляцией. Но, к счастью, Тьюринг (в 1936 г.) дает ответ. Моделирование — это описание машины (или природной системы). Другими словами, это вещь, состоящая из символов, которые имеют значения (для родственной сущности, пишущей описание). И компьютер или машина Тьюринга выполняет описание.

При этом компьютер также получает входные символы, которые описывают входные данные, которые могла бы получить моделируемая машина. Затем компьютер выдает выходные данные, причем выходные символы описывают выходные данные, которые симулируемая машина выдала бы, если бы эта машина или естественная система действительно работала и получала ввод, описанный входными символами. Например, моделирование погодной системы.

Итак, вопрос, где смысловое содержание в симуляции? становится: Где семантическое содержание в исполняемой компьютерной программе? Ответ: в мозгу программиста, написавшего программу (описание).

Моделирование содержит множество условий, поскольку они необходимы для учета различных возможных входных данных, которые могут быть получены. А кондиционалы имеют общую записанную форму: Если ВХОД = "А", то ВЫХОД = "В". Но в этих условных предложениях нет никакой семантики. Семантика была в голове программиста. Программист знал, что выходной символ B описывает соответствующую реакцию моделируемой машины на ввод, описываемый входным символом A. Поэтому программист написал: если A, то B, а не C, D, E... Что означают символы A? а Б значит было в голове программиста. Но единственное, что есть в программе: Если ВХОД = "А", то ВЫХОД = "В".

Следовательно, симуляции не хватает семантического содержания. А если у него нет семантики, то это не может быть я, так как я понимаю вещи, а для моего понимания вещей необходимо наличие семантического содержания. (Это просто версия аргумента китайской комнаты.)