Что (если вообще что-то) не так с аналогией Серла?»…

... Я имею в виду https://www.closertotruth.com/episodes/can-brain-alone-explain-coding , где Сирл (который по сути является «бредовым материалистом») делает следующее (перефразированное здесь) замечание: что нехарактерно смягчает его материалистическую позицию: даже если бы компьютер можно было «идеально запрограммировать» для моделирования мозга, на самом деле он не обладал бы сознанием; не более чем симуляция погоды может на самом деле намочить вас.

Хорошо, так что это звучит действительно разумно, по крайней мере, в каком-то формальном смысле. Но я (тоже материалист) просто не совсем в это верю. Вместо этого я покупаю другую аналогию, источник которой я не помню, в том смысле, что мозг подобен лампочке, а разум/сознание подобен свету. В этом случае любая «лампочка» — будь то программный мозг или «идеально запрограммированное» аппаратное обеспечение компьютера — будет генерировать эквивалентный «видимый свет».

Так что оба аргумента/аналогии кажутся мне довольно разумными, по крайней мере, насколько разум может привести вас к такого рода дискуссиям. Но кажется, что одно обесценивает другое. Так что не так с чем? Или как их примирить? (И какие выводы вы можете сделать, если вообще есть? Хотя я предполагаю, что в лучшем случае они будут довольно поверхностными.)

В этом нет ничего необычного, такова позиция Серла с 1960-х годов, и Китайская комната должна была ее поддержать. Серл считает, что органическая материя обладает особыми свойствами, которые, когда она устроена подобно мозгу, порождают сознание, это разновидность дуализма свойств . Ваша позиция ближе к функционализму : условия сознания не зависят от материальной реализации.
Разница в том, что Серл делает здравый логический вывод, в то время как идея о том, что мозг похож на лампочку, является предположением, не подкрепляющим его никакими доказательствами.
@Conifold Спасибо, что просветили (простите за каламбур :) меня о различии дуализма свойств и функционализма. На самом деле это кажется лучшим ответом, поскольку их немного отличающиеся логические аргументы выводятся из их немного отличающихся «аксиоматических систем» (так сказать). И да, моя позиция ближе (почти точно) к функционализму. Моя проблема с компьютерами, моделирующими сознание, заключается в том, соответствуют ли функции мозга, которые приводят к возникновению сознания, некоторым вычислимым функциям en.wikipedia.org/wiki/Computable_function
«только симуляция погоды может намочить вас». ну, искусственные облака могут вас намочить.
Сирл может быть в бреду, но описывать его как материалиста или дуалиста свойств значит демонстрировать неправильное прочтение его работы, например, факультет.wcas.northwestern.edu/~paller/dialogue/…
@rus9384 только в одном смысле искусственное, и в этом смысле искусственное не является симуляцией.
Если симуляция погоды также имитирует пол, не промокнет ли смоделированный пол? Конечно, мы не промокнем от этого, потому что мы не в симуляции. Но я и в России не промокаю от дождя, потому что я не в России.
@Mr.Kennedy Спасибо за интересную ссылку, которая характеризует его позицию несколько иначе, чем я ее интерпретировал (и это может быть просто моя ошибочная интерпретация), слушая его по той ссылке, которую я дал в начале. Но ссылка [vod] (бесплатное видео по запросу), похоже, исчезла с этой страницы — я думаю, они показывают бесплатные материалы для текущего эфирного эпизода, но этому посту уже год. Обратите внимание, что они также брали интервью у Чалмерса, и я, наблюдая за ними обоими, чувствовал, что он был «антиматериалистом», в отличие от Серла, защищающего материализм. Но, возможно, я ошибся.
@JohnForkosh «Давайте избавимся от этой терминологии материализма, ментализма и так далее и просто опишем факты». youtu.be/6oYk7fMmfIw Это фрагмент интервью, который вы смотрели: closetotruth.com/interviews/4070 ?
@Mr.Kennedy Еще раз спасибо за дополнительные ссылки. Сегмент youtu.be намного ближе к тому, что я видел (год назад, так что я немного туманен), чем 4070. Обратите внимание, что в ~6:10 в youtu.be Сирл говорит: «На мой взгляд, сознание — это особенность мозга более высокого уровня, вызванная мозговой активностью более низкого уровня». Так что это материализм, насколько я понимаю. Возможно, есть какие-то более тонкие различия, о которых спорят философы (когда они не заняты спорами о том, сколько ангелов умещается на булавочной головке :), но с моей более грубой точки зрения это твердое (если не бредовое) :) материалистическая позиция
@JohnForkosh год wlcm. Я думаю, вы можете спутать критику Серла представления о том, что вычисления причинно достаточны для создания сознания, с представлением о том, что биологические механизмы, которые мы не до конца понимаем , ... Что же касается аналогий вообще (ограниченных по своей эвристической ценности и ценности) и пляски ангелов, то герменевтика — это не философия, уважение к получению знания — есть.
@Mr.Kennedy Хотя я, несомненно, путаю многие, многие вещи, «вычисления, причинно достаточные для создания сознания», не являются одним из них, по крайней мере, не вычисления, которые можно выполнить с помощью любой мыслимой экстраполяции существующих вычислительных машин. Может ли сознание быть поставлено в соответствие с некоторыми (семейством) вычислимых функций (может быть, каким-то теоретико-категориальным способом?) — это более туманный вопрос, по крайней мере, на мой взгляд. (Хотя я профессиональный программист/разработчик, моя степень магистра физики очень заинтересовала меня >>научной</math частью cs, а не только программированием.)

Ответы (8)

Аргумент Серла несостоятелен, потому что в нем нет ничего специфического для сознания. Таким образом, если вы замените «обладает сознанием» на «играет в шахматы», то его аргумент остается в силе, но явно неверен.

Причина, по которой симуляция погоды не сделает вас мокрым, заключается в том, что компьютер, который Сирл неявно предполагает, не способен производить воду. Вполне вероятно, что у симуляции есть такая способность, поэтому его утверждение было бы спорным.

Вполне может быть, что сознанию требуются некоторые свойства, которыми не обладают современные цифровые компьютеры, чтобы они не могли стать сознательными. Тем не менее, внешнее срабатывание, по-видимому, необходимо. Более того, оказывается, что это эмерджентное свойство, которое может содержаться в относительно небольшом пространстве, то есть в нашем мозгу.

Таким образом, Серл может оказаться прав, но не из этой аргументации.

Ни в том, ни в другом нет ничего неправильного, проблема заключается в интерпретации, и это то же самое, что неправильно с аргументом китайской комнаты в первую очередь или с любым из (довольно нелепых) мысленных экспериментов, используемых в философии. Поскольку Сирл полностью выдумал эту «компьютерную симуляцию», он может полностью выдуматьможет ли оно намочить вас или нет, поэтому любые выводы, которые он делает из этого, являются только теми, которые он уже сделал. Он изобрел мысленный эксперимент с параметрами, разработанными с самого начала, чтобы «доказать» то, во что он уже верил. Конечно, нет никаких причин, по которым мы не могли бы предположить, что компьютерная имитация погоды подключена к шлангу с небольшим реле для управления краном и, таким образом, действительно промокает, когда идет «дождь». Серл просто исключил этот компонент из своей воображаемой системы, чтобы он отражал то, во что он уже верит. То же самое и с Китайской комнатой, поскольку китайской комнаты нет, он волен придумывать, что должно и не должно происходить в ней. Это критика не только Серла, это общая проблема интерпретации мысленных экспериментов.объяснить , как конкретное убеждение может работать, может быть внутренне непротиворечивым. Таким образом, Сирл может иметь свою компьютерную симуляцию, от которой вы не промокнете, это его убеждение о том, как разделены мозг и сознание, а ваш материалист (возможно, Ник Ругай?) может иметь свою симуляцию лампочки, отражающую его веру в сознание. Ни одно из симуляций не может ничего доказать, поскольку их не существует, и даже если бы они существовали, мы все равно не знали бы, какое из них лучше всего представляет мозг.

Как вы их примиряете? Вы проводите все более точные эксперименты в рамках нейронауки, которые шаг за шагом приближают нас к полезной предсказательной теории сознания, до тех пор, пока вы просто не выберете одну из них, зная, что доступно точное обоснование любого убеждения, которого вы придерживаетесь.

Хотя (согласно исходному сообщению) я не верю аргументу Серла, я не думаю, что «прикрепить к шлангу с помощью реле» - это подходящий способ опровергнуть его. Это просто не компьютер; это управляемый компьютером шланг, а шланги действительно могут вас намочить. Компьютер — это машина Тьюринга или любая подобная вещь, которая вычисляет вычислимые функции, испускает элементы рекурсивно перечислимых множеств и т. д. Если вы пойдете дальше этого, вы больше не будете говорить о канонических «компьютерах». Черт возьми, мой мозг тоже не может вас намочить (хотя некоторые телесные функции, контролируемые мозгом, могут:).
@JohnForkosh В том-то и дело. Серл решил уподобить мозг компьютеру, чтобы продемонстрировать свое убеждение: является ли моя аналогия на самом деле компьютером или нет, не имеет значения, потому что на самом деле мы говорим о мозге. Почему бы нашему мозгу не уподобиться управляемому компьютером шлангу, библиотеке, маленькому городу?
Все, что Сирл говорит, это то, что в симуляции вещи отсутствуют некоторые свойства самой вещи (что совершенно очевидно, иначе это была бы копия, а не симуляция). при компьютерной симуляции мозга одной из вещей, которые будут отсутствовать, будет сознание, так же как при компьютерной симуляции погоды будет отсутствовать влажность.
Я имею в виду, что влажность будет отсутствовать в компьютерной симуляции только потому, что мы уже знаем, что компьютеры не могут создавать влажность, мы не разрабатывали их для этого, мы не знаем, что компьютеры не могут создавать сознание, поэтому аналогия ничего не доказывает , это просто описывает убеждение Серла.

На самом деле это проблема, над которой я работаю в своей докторской диссертации по машинному сознанию, поэтому я постараюсь дать как можно более простой и краткий ответ на этот вопрос.

Аргумент Серла в этом случае верен; люди ПРИНИМАЮТ живость и сознание вещей в результате нашей антропологической эволюции. Вот почему дети играют в куклы, и мы даем своим машинам (и особенно нашим GPS-навигаторам) имена, когда они разговаривают с нами. Именно поэтому мы покупаем мясо в полиэтиленовой упаковке и так расстраиваемся, если посещаем скотобойню. Это важный момент; ощущение жизни — это наш вывод, а не прямое следствие, сделанное ИИ или подобной системой.

Проблема с мысленным экспериментом «Китайские комнаты» заключается в том, что язык действительно следует некоторым формальным правилам. Чего не касается мысленный эксперимент «Китайские комнаты», так это того, как заставить такую ​​систему отвечать на вопрос «Каково ваше мнение о X?» Другими словами, это здорово, когда ответ консервирован, но он не позволит вам выразить себя на китайском языке.

Аналогия с лампочкой. Хм. Позвольте мне начать с того, что ошибочным этот аргумент делает идея о том, что об интеллекте судят по результату, а не по мыслительным процессам, которые к нему привели.

Вот вам мысленный эксперимент; Мужчина заходит в кафе и мочится на бутерброды. Его арестовывают и просят объясниться.

Объяснение 1 — «Ну, хлеб может впитывать влагу, поэтому меньше разбрызгивания, а мне действительно нужно было идти».

Объяснение 2 — «Ну, я пытаюсь сделать политическое заявление о бесполезности применения общей системы правил к верхушке общества, когда это душит настоящие инновации и нестандартное мышление»

Оба генерируют один и тот же результат, но по совершенно разным причинам. Кто из них умнее? Человек 1 не учитывал последствия, а Человек 2. Человек 2 (с другой стороны) не думал о потребностях других, тогда как можно утверждать, что Человек 1 думал. Между прочим, на это нет простого ответа; на что я пытаюсь указать, так это на то, что рассмотрение ответа — совершенно неверный способ оценки интеллекта, потому что это в значительной степени фактор контекста, который принимает во внимание действующее лицо.

Другой способ думать об этом; в компьютерных науках я могу написать действительно эффективную программу для получения результата B из ввода A, каким бы он ни был. Может случиться так, что этот очень сложный ИИ также получит результат Б из ввода А, но разница в том, что я написал первую программу для обработки данных. Вторая программа была написана для «решения проблемы». Единственная разница между этими двумя программами заключается в намерениях программиста . Это действительно важно, потому что опять же (и эта часть, вероятно, тема для другого раза), это не компьютер, который подразумевает какое-либо значение для его вывода. Мы делаем вывод.

Следовательно, аналогия с лампочкой не рассматривает правильный аспект проблемы. Тот факт, что два устройства излучают свет, не означает, что они одинаковы.

Я не интерпретировал аналогию с лампочкой по-вашему (но не знаю ее предполагаемой интерпретации, так как не помню источник). Скорее, «свет» действительно представляет собой процесс сознания, который, я согласен, должен быть динамическим процессом, а не статическим состоянием (он же «выход»). Но с материалистической точки зрения не имеет значения, что является физической основой машины, чья работа воплощает этот процесс.
Пример китайской комнаты в основном имеет дело с готовыми ответами, но это не обязательно. Например, человек внутри может составлять ментальные карты слов и их связи и составлять сложный план действий, который позволяет ему «писать настоящий китайский» и даже отвечать на открытые вопросы. Проблема только в том, что он до сих пор не знает, что это значит. Но человек в черном ящике может на самом деле иметь «идеи» и «предпочтения» или, по крайней мере, быть в состоянии выразить что-то, из чего можно сделать вывод, что это мнение. И не самоочевидно, так это на самом деле или нет.
Действительно ли намерение программиста отличается? Это больше похоже на то, что один рассчитывает это сам, а другой передает это другому агентству, объясняя им, как это сделать. Что вызывает вопрос, какая часть ИИ выполняет работу, а какая заставляет его выполнять эту работу, и существует ли демаркационная линия. Своего рода проблема с цифровым разумом и телом.

И аналогия с лампочкой, и аналогия с погодой демонстрируют одну и ту же концепцию, т.е. симуляция не может вызывать те же эффекты, что и реальная вещь. В случае имитации погоды свойства воды заложены в модель, но вода и влажность не создаются. В случае имитации лампочки физика электрического сопротивления > тепла > света встроена в модель, но реальный свет не создается.

Если у вас есть ссылка на кого-то, кто также разделяет эту точку зрения, это укрепит ваш ответ. Мне было бы интересно прочитать такую ​​ссылку. +1
Во-первых, напомню вам, что ни одна из аналогий не была моей; Я как бы просил "сравнить и сопоставить". Мое собственное сравнение (которое может быть неправильным) заключалось в том, что Сирл действительно отличал симуляцию от «реальной вещи». Но >>не<< так что лампочка. Это (как я это интерпретировал) говорило о том, что сознание возникает из поведения мозга примерно так же, как свет возникает из поведения лампочки. Но вы можете получить свет разными способами — с помощью лампочки, костра и т. д. Точно так же, хотя поведение мозга в настоящее время является единственным известным способом получить сознание, это не исключает компьютерного «моделирования», как только мы поймем, как это сделать.

Компьютер будет генерировать свет, но это будет инфракрасное излучение, тепло, верно? Хм, наш работающий мозг тоже выделяет тепло, но не только это. Суть нашей человеческой проблемы, по-видимому, заключается в том, как возникает это «большее». Как оно возникает физически, материально? Другими словами, наше сознание, по-видимому, обладает волей и всеми остальными вещами, которые ей сопутствуют. Многие характеристики. Мы до сих пор не можем объяснить связь между теплом нашего мозга, если хотите, и «светом», который он излучает на пути сознания. С компьютером я все еще вижу тепло; чувствую, я имею в виду, что у меня нет ИК-очков. Это мышление, по сути, происходит из установленного нами кода; или хоть что-то попало туда от нас, что компьютер развивается дальше.

Теперь, если у оборудования были руки, и я обнаружил, что оно пытается вытащить мой бумажник из заднего кармана, тогда я мог бы заподозрить что-то и продолжить расследование, особенно если компьютер сделал уничижительное замечание по поводу моей фотографии DL! Я не думаю, что аналогия работает, но у меня было мало физики (hs) и еще меньше, то есть никакой когнитивной науки. PS Я думаю, что мог бы сэкономить много слов и просто сказать, что «свет», который каждый из нас излучает, просто не эквивалентен. Не эквивалентно и то, что говорит Сирл.

Проблема, которую я вижу в обеих аналогиях, заключается в том, что «проблема других умов» не признается.

Серл, насколько я понимаю, не предлагает метода, с помощью которого можно определить, достиг ли компьютер сознания. И такой метод действительно необходим для опровержения солипсизма, который в основном является утверждением о неспособности знать о существовании других умов.

Точно так же аналогия с лампочкой требует наличия свидетельства видимого света, который является феноменальным и, следовательно, строго ограничивается первым лицом, которое не может (пока) определить, могут ли другие случаи таких явлений происходить где-либо еще.

Я думаю, что лучший способ решить эту проблему (по крайней мере, с материалистической точки зрения) — смешать метафоры: думать о мозге как о чем-то вроде погодной системы (нелинейный динамический процесс). Погодные системы можно моделировать и симулировать на компьютерах, но мы не можем создать полную «виртуальную» погодную систему, потому что нелинейные динамические процессы чувствительны к начальным условиям, а начальные условия погодной системы практически невозможно рассчитать. Не просто бабочка, машущая крыльями в Китае (как гласит старая поговорка), а сто миллионов миллиардов бабочек, машущих крыльями повсюду.

отложив на мгновение в сторону субъективный опыт сознания, объективный взгляд на сознание представляет собой структурированную непредсказуемость, порождающую уникальную активную идентичность. Мы можем говорить, например, о погоде в Лондоне и о погоде в Лос-Анджелесе, и мы знаем следующее:

  • У них обоих постоянные погодные условия
  • Они полностью отличны и уникальны друг от друга.
  • Они оба могут удивить нас неожиданными погодными явлениями.

Таковы и умы: они демонстрируют сходство с другими и самоподобие, но также демонстрируют уникальность и способность к неожиданному поведению. Здесь остается открытым вопрос, могут ли цифровые компьютеры (или классическая машина Тьюринга) работать как настоящая хаотическая система. Конечно, он может смоделировать его в ограниченной степени, но неясно, может ли он быть одним и таким образом достичь объективной видимости сознания. Я мог бы возлагать большие надежды на аналоговые или квантовые системы, которые ломают модель цифрового «переключателя», но это дело будущего.

Я думаю, что главная проблема аналогии Серла в том, что она обратная.

Выполнение программы представляет собой последовательность состояний, т. е. отображение последовательности индексов в множество возможных состояний. Программа может сохранять в каждом состоянии память о предыдущих состояниях, чтобы определить правила перехода. Таким образом, ИИ может попытаться проработать физику своего виртуального мира. Так что это очень похоже на научную модель объективного мира.

Эта последовательность состояний при выполнении программы соответствует чему-то вроде В-серии Мактаггарта. Он отражает упорядоченные отношения между состояниями, но внутри состояний нет ничего, что отличало бы изменяющееся «текущее» состояние. Каждое состояние «думает», что оно является текущим состоянием. Опять же, это отражает наше объективное знание событий во времени, где объективное понятие «сейчас» — это просто точка зрения на последовательность моментов.

Но если программа работает на каком-то оборудовании, на самом деле будет текущее состояние, состояние, которое реально существует в физической реализации. Это ситуация, в которой мы находимся в отношении нашего сознательного осознания настоящего момента. Мы переживаем его, хотя этот опыт не оставляет объективного следа. Это полностью субъективно.

Идея о том, что аппаратное обеспечение (или сознание) конкретизирует «текущее» состояние, создает интерпретацию Мактаггарта А-серии последовательности состояний, в которой фактически существует только текущее состояние. Но, конечно, само состояние находится в том же отношении к своему предшественнику и последующему состоянию, выполняется ли программа на машине (серия А/субъективное представление) или просто рассматривается как статическое отображение последовательности в набор состояний. возможные состояния (B-серия/объективное представление).

Так что лучшая аналогия между сознанием и оборудованием, а также между физическим миром и программным обеспечением.

Обратите внимание, что программное обеспечение не может напрямую «знать» об оборудовании, на котором оно работает. Это понятно, поскольку одна машина может быть запрограммирована так, чтобы эмулировать другую достаточно хорошо, чтобы программное обеспечение не могло этого обнаружить. Программное обеспечение может знать только свою собственную логическую модель оборудования. Это может соответствовать религии.