Будут ли компьютеры когда-нибудь иметь сознание?
Что потребуется для ее выполнения?
Как мы можем определить, есть ли он в компьютере?
Будут ли компьютеры когда-нибудь иметь сознание?
Зависит от того, кого вы спросите. 3 возможных ответа:
Сознание и разум — нефизические явления, а компьютеры — физические системы, поэтому нет, компьютеры не могут быть сознательными, поскольку им не хватает нефизического компонента. Идея о том, что сознание нефизично, называется дуализмом (разум-тело) . Существуют различные типы дуализма, и дуализм не обязательно говорит, что нефизический разум должен быть обнаружен в живом организме. Возможно, что разум мог бы существовать во всех вещах, но без мозга, чтобы использовать разум. Вполне возможно, что компьютеры уже обладают сознанием, но им не хватает «мозговой мощности», чтобы проявлять признаки сознания. (См. Панпсихизм).
Сознание — это физическое явление, мозг — это биологический компьютер, а разум — это просто программное обеспечение, встроенное в мозг. Эта позиция известна как функционализм или вычислительная теория разума . В этом случае компьютеры могут и, скорее всего, станут сознательными.
Сознание является физическим, но имеет невычислительный или неалгоритмический компонент. Джон Сирл из « Китайской комнаты » придерживается такой точки зрения: «Сознание — это чисто физическое явление, но симуляция сознания — это не то же самое, что сознание, точно так же, как симуляция полета птицы на компьютере не является настоящим полетом. В этом случае цифровые компьютеры никогда не станут сознательными, но различные типы футуристических биокомпьютеров могут стать сознательными, если мы лучше поймем физику и биологию сознания.
Что потребуется для ее выполнения?
В случае (2) нам просто нужно добиться большего прогресса в компьютерном программировании. 30 лет назад мы не знали, как программировать компьютеры для распознавания речи или лиц, а теперь мы можем. Точно так же программные и аппаратные возможности через 20 или 30 лет будут настолько развиты, что мы сможем программировать сознание.
В случае (3) должны быть открыты физические и биохимические принципы, лежащие в основе сознания. Только тогда мы сможем их дублировать.
Как мы можем определить, есть ли он в компьютере?
Это самый интересный вопрос в этом посте. В других ответах упоминается тест Тьюринга. Тест Тьюринга предназначен для интеллекта (может ли компьютер быть таким же разумным, как человек), а не для сознания. Мы не знаем, как определить сознание, и эта проблема была описана как трудная проблема сознания . Фактически идея о том, что, с одной стороны, сознание существует, а с другой стороны, мы не можем его измерить или определить никакими эмпирическими средствами, используется как аргумент в пользу дуализма и против физикализма. Рассуждения следующие: если что-то физическое, то это можно определить с помощью физических экспериментов. Мы знаем, что сознание существует, но мы не можем определить его существование какими-либо физическими средствами, поэтому оно должно быть нефизическим явлением (см . аргумент о знании Фрэнка Джексона).).
Более подробно смотрите в следующих сообщениях:
Как указывает Питер Дж. в комментариях, еще одна позиция по отношению к проблеме разума и тела — это идеализм или имматериализм, что в основном означает, что все состоит из разума и идей (самым известным сторонником которого является Беркли ). В этом мировоззрении: разум и сознание нематериальны, но так же и все остальное, так что почти все ставки сняты. Предположительно, в некоторых версиях имматериализма у компьютеров будет сознание, поскольку они, как и все остальное, сделаны из того же материала, что и разум.
Идеализм/имматериализм в наши дни не является популярной позицией, и философы, работающие над вопросами ИИ, почти никогда не придерживаются этого мировоззрения, поэтому вопрос о компьютерном сознании в имматериалистической вселенной не поднимался.
Последний вопрос является «самым простым» для ответа. Наш текущий метод определения того, является ли компьютер «сознательным», состоит в том, чтобы посмотреть, можем ли мы отличить его от человека. Этот тест называется тестом Тьюринга. Если после разговора как с компьютерами, на которых запущен ИИ, так и с реальными людьми, мы не можем сказать, кто есть кто, мы говорим, что ИИ прошел тест Тьюринга. Действительно ли этот тест может определить, находится ли ИИ в сознании? Нет. Но опять же, мы не можем точно сказать, действительно ли тот, с кем мы разговариваем, находится в сознании.
Будет ли когда-нибудь создан ИИ, который хотя бы выглядит сознательным? Я так думаю. Вычислительная мощность компьютеров по-прежнему быстро развивается. Машинное обучение, безусловно, добилось больших успехов. Но все же пройдет некоторое время, прежде чем появится настоящий ИИ (то, что не называют общим искусственным интеллектом).
Что же касается того, что нужно, то на этот вопрос ответить сложнее. Существует ряд теорий на эту тему. Моя личная теория связана с языком. Я думаю, что нам нужен ИИ, у которого есть внешний голос и внутренний голос, почти так же, как мы разговариваем сами с собой, чтобы решать проблемы. Я также думаю, что нам нужен лучший тест. Текущий тест Тьюринга — это либо все, либо ничего. Он не говорит нам, насколько мы далеки от цели или в каком направлении нам нужно двигаться.
Чтобы ответить на эти вопросы, нам сначала нужно определить, что такое человеческое сознание. Это не так просто, как кажется, и ведет к одному из самых интересных споров в космологии.
Стивен Хокинг (и многие другие космологи и астрофизики) считают, что Вселенная имеет детерминированную (или алгоритмическую) природу. Если это так, то это означает, что человеческое сознание по определению должно быть алгоритмическим по своей природе, потому что вселенная не может содержать что-то, что работает вне ее собственных фундаментальных законов.
Если это так, то ДА; компьютеры могут иметь сознание, потому что компьютеры тоже алгоритмичны по своей природе. Все, что потребуется (в соответствии с математической концепцией формализма), — это чтобы компьютер выполнял алгоритм достаточной сложности. Это также известно как теория сильного ИИ. В таком случае тест Тьюринга (как было описано в ответе Дэниела) - это способ его обнаружить. Тест Тьюринга, по сути, является «двойным слепым» тестом; если вы не можете определить разницу между A и B, то A должно равняться B. (Подробнее об этом позже.)
Проблема с этой моделью заключается в том, что если Вселенная по своей природе алгоритмична, то это означает, что если вы знаете алгоритм и знаете состояние Вселенной в любой данный момент времени, вы можете «определить» состояние Вселенной. в любой другой момент времени, вперед или назад. Иными словами, это означает, что свобода воли (и сознание, если уж на то пошло) — это иллюзия, и у нас нет права выбора; каждое решение, которое мы принимаем, является результатом изначального программирования Вселенной, и оно кажется нам выбором только потому, что алгоритмы в нашем мозгу достаточно сложны, чтобы сформировать локализованное сознание.
С другой стороны, есть такие математики, как Роджер Пенроуз, которые утверждают, что Вселенная НЕ является алгоритмической по своей природе, и что алгоритмы — это просто большое подмножество математических конструкций во Вселенной. Самое главное, он утверждает, что человеческий разум сам по себе неалгоритмичен и должен быть таким, чтобы мы могли быть разумными. В своей книге «Новый разум императора» он объясняет, что этот неалгоритмический элемент — это то, что он описывает как озарение.
Во вселенной Пенроуза сознание и разумность являются побочным продуктом неалгоритмической функции, которая ДЕЙСТВИТЕЛЬНО допускает свободу воли и позволяет нам делать выбор (и изменять) вселенную, которые изменяют ее таким образом, что ее будущее состояние НЕ МОЖЕТ. определяться из предыдущего состояния. Это хорошая новость для нас, потому что это означает, что наша свобода воли, как мы думаем, реальна.
Однако это плохие новости для сознательных компьютеров. Поскольку компьютеры алгоритмичны по своей природе, они никогда не могут быть сознательными, хотя могут показаться таковыми, если применить тест Тьюринга. Вот где тест Тьюринга терпит неудачу; это тест вывода, а не процесса. То, что компьютер может имитировать человеческие реакции, не делает их такими же, как человек, IE; Сознательный.
Что заставляет тест Тьюринга работать, так это то, что называется антропоморфизацией, или тенденцией людей видеть человеческие узоры в нечеловеческих объектах. Антропоморфизация — вот почему мы играем с минифигурками, куклами и т. д. из лего. Вот почему мы даем нашим автомобилям и системам GPS ласкательные имена. Когда что-то выглядит или реагирует на нас по-человечески, мы склонны приписывать этому человеческую структуру. В этом случае компьютерный алгоритм, способный пройти тест Тьюринга, больше похож на сложную куклу.
Так; у нас есть выбор - либо компьютеры МОГУТ быть сознательными и иметь свободу воли, а наше собственное сознание - иллюзия, ИЛИ компьютеры НЕ МОГУТ быть сознательными, потому что свобода воли реальна, но ДОЛЖНА существовать вне границ алгоритмов.
Несколько предостережений по этому поводу.
Во-первых, я использую слово «сознание» в общепринятом семантическом смысле, поскольку именно так оно использовалось в этом вопросе. В исследовании, которое я провожу для своей кандидатской диссертации по машинному сознанию, я строю онтологию терминов, связанных с сознанием, и в этом сознание относится к «всегда включенной» способности ассимилировать новые сенсорные входы и интегрировать новые знания во внутреннюю систему. концептуальное представление о мире. То, что мы называем сознанием в этом ответе, на самом деле является чувствительностью (или, возможно, живостью).
Во-вторых, даже если разумная компьютерная программа и возможна, это не сделает ее человеком. Этот ответ уже достаточно длинный, поэтому я не буду утомлять вас нейрофизиологией, но, короче говоря, у людей есть инстинкты и эмоции, которые находятся ниже мыслительных центров мозга. Компьютеры фактически были бы полностью корой головного мозга. Это означает, что у них не может быть настоящих инстинктов и эмоций, как у людей, даже если они могут их симулировать. Короче говоря, у компьютера не может быть инстинкта выживания (Скайнет не может быть таким, как его описывают), он не может быть счастливым или грустным и т. д. Из-за этого идея применения к нему прав человека была бы несостоятельной. .
Наконец, нам нужно четко уяснить, что такое «разумное» поведение на самом деле. У меня есть программа-пикап-палочки, которая очень хорошо играет в эту игру. На некоторых конфигурациях начального количества стиков, количества, которое вы можете взять, и т. д. невозможно превзойти. Это не потому, что это ИИ, а потому, что игра «полная математика». Как только вы поймете математическую формулу, необходимую для игры, вы легко запрограммируете компьютер так, чтобы он «идеально» играл в игру. Как только вы объясните математическую формулу человеку, он станет таким же хорошим.
Этот последний пункт тонкий, но фундаментальный. Мы склонны видеть реакцию на то, что мы не вполне понимаем как «умное», но эта компьютерная программа не играет в игру лучше нас, потому что она научилась чему-то, чего мы не знаем, она играет лучше, потому что следует последовательность чисел, которая запрограммирована в нем. Имея доступ к данным, которых у нас нет, он может показаться умным, но на самом деле он слепо следует набору инструкций, подобно любому алгоритму. Это означает, что мы делаем вывод об интеллекте из нашего взаимодействия с ним. Это не означает, что интеллект.
Длинный ответ, но подведем итог; компьютеры могут быть разумными только в том случае, если наше собственное чувство свободы воли является иллюзией. Это не означает, что компьютеры не могут имитировать чувствительность, но настоящая проверка чувствительности — это не выходные данные (согласно Тьюрингу), а процесс. Разумный алгоритм ДОЛЖЕН иметь возможность концептуализировать значение как внутреннюю структуру и основываться на этом значении с помощью новой информации.
Дэн Хикс