... Я имею в виду https://www.closertotruth.com/episodes/can-brain-alone-explain-coding , где Сирл (который по сути является «бредовым материалистом») делает следующее (перефразированное здесь) замечание: что нехарактерно смягчает его материалистическую позицию: даже если бы компьютер можно было «идеально запрограммировать» для моделирования мозга, на самом деле он не обладал бы сознанием; не более чем симуляция погоды может на самом деле намочить вас.
Хорошо, так что это звучит действительно разумно, по крайней мере, в каком-то формальном смысле. Но я (тоже материалист) просто не совсем в это верю. Вместо этого я покупаю другую аналогию, источник которой я не помню, в том смысле, что мозг подобен лампочке, а разум/сознание подобен свету. В этом случае любая «лампочка» — будь то программный мозг или «идеально запрограммированное» аппаратное обеспечение компьютера — будет генерировать эквивалентный «видимый свет».
Так что оба аргумента/аналогии кажутся мне довольно разумными, по крайней мере, насколько разум может привести вас к такого рода дискуссиям. Но кажется, что одно обесценивает другое. Так что не так с чем? Или как их примирить? (И какие выводы вы можете сделать, если вообще есть? Хотя я предполагаю, что в лучшем случае они будут довольно поверхностными.)
Аргумент Серла несостоятелен, потому что в нем нет ничего специфического для сознания. Таким образом, если вы замените «обладает сознанием» на «играет в шахматы», то его аргумент остается в силе, но явно неверен.
Причина, по которой симуляция погоды не сделает вас мокрым, заключается в том, что компьютер, который Сирл неявно предполагает, не способен производить воду. Вполне вероятно, что у симуляции есть такая способность, поэтому его утверждение было бы спорным.
Вполне может быть, что сознанию требуются некоторые свойства, которыми не обладают современные цифровые компьютеры, чтобы они не могли стать сознательными. Тем не менее, внешнее срабатывание, по-видимому, необходимо. Более того, оказывается, что это эмерджентное свойство, которое может содержаться в относительно небольшом пространстве, то есть в нашем мозгу.
Таким образом, Серл может оказаться прав, но не из этой аргументации.
Ни в том, ни в другом нет ничего неправильного, проблема заключается в интерпретации, и это то же самое, что неправильно с аргументом китайской комнаты в первую очередь или с любым из (довольно нелепых) мысленных экспериментов, используемых в философии. Поскольку Сирл полностью выдумал эту «компьютерную симуляцию», он может полностью выдуматьможет ли оно намочить вас или нет, поэтому любые выводы, которые он делает из этого, являются только теми, которые он уже сделал. Он изобрел мысленный эксперимент с параметрами, разработанными с самого начала, чтобы «доказать» то, во что он уже верил. Конечно, нет никаких причин, по которым мы не могли бы предположить, что компьютерная имитация погоды подключена к шлангу с небольшим реле для управления краном и, таким образом, действительно промокает, когда идет «дождь». Серл просто исключил этот компонент из своей воображаемой системы, чтобы он отражал то, во что он уже верит. То же самое и с Китайской комнатой, поскольку китайской комнаты нет, он волен придумывать, что должно и не должно происходить в ней. Это критика не только Серла, это общая проблема интерпретации мысленных экспериментов.объяснить , как конкретное убеждение может работать, может быть внутренне непротиворечивым. Таким образом, Сирл может иметь свою компьютерную симуляцию, от которой вы не промокнете, это его убеждение о том, как разделены мозг и сознание, а ваш материалист (возможно, Ник Ругай?) может иметь свою симуляцию лампочки, отражающую его веру в сознание. Ни одно из симуляций не может ничего доказать, поскольку их не существует, и даже если бы они существовали, мы все равно не знали бы, какое из них лучше всего представляет мозг.
Как вы их примиряете? Вы проводите все более точные эксперименты в рамках нейронауки, которые шаг за шагом приближают нас к полезной предсказательной теории сознания, до тех пор, пока вы просто не выберете одну из них, зная, что доступно точное обоснование любого убеждения, которого вы придерживаетесь.
На самом деле это проблема, над которой я работаю в своей докторской диссертации по машинному сознанию, поэтому я постараюсь дать как можно более простой и краткий ответ на этот вопрос.
Аргумент Серла в этом случае верен; люди ПРИНИМАЮТ живость и сознание вещей в результате нашей антропологической эволюции. Вот почему дети играют в куклы, и мы даем своим машинам (и особенно нашим GPS-навигаторам) имена, когда они разговаривают с нами. Именно поэтому мы покупаем мясо в полиэтиленовой упаковке и так расстраиваемся, если посещаем скотобойню. Это важный момент; ощущение жизни — это наш вывод, а не прямое следствие, сделанное ИИ или подобной системой.
Проблема с мысленным экспериментом «Китайские комнаты» заключается в том, что язык действительно следует некоторым формальным правилам. Чего не касается мысленный эксперимент «Китайские комнаты», так это того, как заставить такую систему отвечать на вопрос «Каково ваше мнение о X?» Другими словами, это здорово, когда ответ консервирован, но он не позволит вам выразить себя на китайском языке.
Аналогия с лампочкой. Хм. Позвольте мне начать с того, что ошибочным этот аргумент делает идея о том, что об интеллекте судят по результату, а не по мыслительным процессам, которые к нему привели.
Вот вам мысленный эксперимент; Мужчина заходит в кафе и мочится на бутерброды. Его арестовывают и просят объясниться.
Объяснение 1 — «Ну, хлеб может впитывать влагу, поэтому меньше разбрызгивания, а мне действительно нужно было идти».
Объяснение 2 — «Ну, я пытаюсь сделать политическое заявление о бесполезности применения общей системы правил к верхушке общества, когда это душит настоящие инновации и нестандартное мышление»
Оба генерируют один и тот же результат, но по совершенно разным причинам. Кто из них умнее? Человек 1 не учитывал последствия, а Человек 2. Человек 2 (с другой стороны) не думал о потребностях других, тогда как можно утверждать, что Человек 1 думал. Между прочим, на это нет простого ответа; на что я пытаюсь указать, так это на то, что рассмотрение ответа — совершенно неверный способ оценки интеллекта, потому что это в значительной степени фактор контекста, который принимает во внимание действующее лицо.
Другой способ думать об этом; в компьютерных науках я могу написать действительно эффективную программу для получения результата B из ввода A, каким бы он ни был. Может случиться так, что этот очень сложный ИИ также получит результат Б из ввода А, но разница в том, что я написал первую программу для обработки данных. Вторая программа была написана для «решения проблемы». Единственная разница между этими двумя программами заключается в намерениях программиста . Это действительно важно, потому что опять же (и эта часть, вероятно, тема для другого раза), это не компьютер, который подразумевает какое-либо значение для его вывода. Мы делаем вывод.
Следовательно, аналогия с лампочкой не рассматривает правильный аспект проблемы. Тот факт, что два устройства излучают свет, не означает, что они одинаковы.
И аналогия с лампочкой, и аналогия с погодой демонстрируют одну и ту же концепцию, т.е. симуляция не может вызывать те же эффекты, что и реальная вещь. В случае имитации погоды свойства воды заложены в модель, но вода и влажность не создаются. В случае имитации лампочки физика электрического сопротивления > тепла > света встроена в модель, но реальный свет не создается.
Компьютер будет генерировать свет, но это будет инфракрасное излучение, тепло, верно? Хм, наш работающий мозг тоже выделяет тепло, но не только это. Суть нашей человеческой проблемы, по-видимому, заключается в том, как возникает это «большее». Как оно возникает физически, материально? Другими словами, наше сознание, по-видимому, обладает волей и всеми остальными вещами, которые ей сопутствуют. Многие характеристики. Мы до сих пор не можем объяснить связь между теплом нашего мозга, если хотите, и «светом», который он излучает на пути сознания. С компьютером я все еще вижу тепло; чувствую, я имею в виду, что у меня нет ИК-очков. Это мышление, по сути, происходит из установленного нами кода; или хоть что-то попало туда от нас, что компьютер развивается дальше.
Теперь, если у оборудования были руки, и я обнаружил, что оно пытается вытащить мой бумажник из заднего кармана, тогда я мог бы заподозрить что-то и продолжить расследование, особенно если компьютер сделал уничижительное замечание по поводу моей фотографии DL! Я не думаю, что аналогия работает, но у меня было мало физики (hs) и еще меньше, то есть никакой когнитивной науки. PS Я думаю, что мог бы сэкономить много слов и просто сказать, что «свет», который каждый из нас излучает, просто не эквивалентен. Не эквивалентно и то, что говорит Сирл.
Проблема, которую я вижу в обеих аналогиях, заключается в том, что «проблема других умов» не признается.
Серл, насколько я понимаю, не предлагает метода, с помощью которого можно определить, достиг ли компьютер сознания. И такой метод действительно необходим для опровержения солипсизма, который в основном является утверждением о неспособности знать о существовании других умов.
Точно так же аналогия с лампочкой требует наличия свидетельства видимого света, который является феноменальным и, следовательно, строго ограничивается первым лицом, которое не может (пока) определить, могут ли другие случаи таких явлений происходить где-либо еще.
Я думаю, что лучший способ решить эту проблему (по крайней мере, с материалистической точки зрения) — смешать метафоры: думать о мозге как о чем-то вроде погодной системы (нелинейный динамический процесс). Погодные системы можно моделировать и симулировать на компьютерах, но мы не можем создать полную «виртуальную» погодную систему, потому что нелинейные динамические процессы чувствительны к начальным условиям, а начальные условия погодной системы практически невозможно рассчитать. Не просто бабочка, машущая крыльями в Китае (как гласит старая поговорка), а сто миллионов миллиардов бабочек, машущих крыльями повсюду.
отложив на мгновение в сторону субъективный опыт сознания, объективный взгляд на сознание представляет собой структурированную непредсказуемость, порождающую уникальную активную идентичность. Мы можем говорить, например, о погоде в Лондоне и о погоде в Лос-Анджелесе, и мы знаем следующее:
Таковы и умы: они демонстрируют сходство с другими и самоподобие, но также демонстрируют уникальность и способность к неожиданному поведению. Здесь остается открытым вопрос, могут ли цифровые компьютеры (или классическая машина Тьюринга) работать как настоящая хаотическая система. Конечно, он может смоделировать его в ограниченной степени, но неясно, может ли он быть одним и таким образом достичь объективной видимости сознания. Я мог бы возлагать большие надежды на аналоговые или квантовые системы, которые ломают модель цифрового «переключателя», но это дело будущего.
Я думаю, что главная проблема аналогии Серла в том, что она обратная.
Выполнение программы представляет собой последовательность состояний, т. е. отображение последовательности индексов в множество возможных состояний. Программа может сохранять в каждом состоянии память о предыдущих состояниях, чтобы определить правила перехода. Таким образом, ИИ может попытаться проработать физику своего виртуального мира. Так что это очень похоже на научную модель объективного мира.
Эта последовательность состояний при выполнении программы соответствует чему-то вроде В-серии Мактаггарта. Он отражает упорядоченные отношения между состояниями, но внутри состояний нет ничего, что отличало бы изменяющееся «текущее» состояние. Каждое состояние «думает», что оно является текущим состоянием. Опять же, это отражает наше объективное знание событий во времени, где объективное понятие «сейчас» — это просто точка зрения на последовательность моментов.
Но если программа работает на каком-то оборудовании, на самом деле будет текущее состояние, состояние, которое реально существует в физической реализации. Это ситуация, в которой мы находимся в отношении нашего сознательного осознания настоящего момента. Мы переживаем его, хотя этот опыт не оставляет объективного следа. Это полностью субъективно.
Идея о том, что аппаратное обеспечение (или сознание) конкретизирует «текущее» состояние, создает интерпретацию Мактаггарта А-серии последовательности состояний, в которой фактически существует только текущее состояние. Но, конечно, само состояние находится в том же отношении к своему предшественнику и последующему состоянию, выполняется ли программа на машине (серия А/субъективное представление) или просто рассматривается как статическое отображение последовательности в набор состояний. возможные состояния (B-серия/объективное представление).
Так что лучшая аналогия между сознанием и оборудованием, а также между физическим миром и программным обеспечением.
Обратите внимание, что программное обеспечение не может напрямую «знать» об оборудовании, на котором оно работает. Это понятно, поскольку одна машина может быть запрограммирована так, чтобы эмулировать другую достаточно хорошо, чтобы программное обеспечение не могло этого обнаружить. Программное обеспечение может знать только свою собственную логическую модель оборудования. Это может соответствовать религии.
Конифолд
пользователь20253
пользователь19423
рус9384
МммХм
МммХм
кельчк
пользователь19423
МммХм
пользователь19423
МммХм
пользователь19423