Как компьютер может получить знания об окружающей среде?

Я довольно часто видел, как ИИ отвечает на аргумент Джона Сирла о китайской комнате, принимая ответ системы: хотя человек в комнате не понимает китайский язык, комната (система) в целом может — или, по крайней мере, аргумент китайской комнаты не делает вывод, что это не могло быть.

Тем не менее, ответ системы, похоже, не решает основную проблему, которую CRA ставит перед ИИ. Одна из предпосылок Серла гласит, что символы семантически пусты, внутренне бессмысленны, что сами по себе они не указывают на то, что они означают или к чему относятся. И все, что получает компьютер, — это символ (т. е. токенизированная форма).

Учитывая, что компьютеры обрабатывают символы, сенсорные символы, полученные от цифровых датчиков, не будут указывать на то, что было воспринято. Как же тогда компьютер может познать и понять мир?

Как на самом деле. Интересно, почему кто-то думает, что это возможно.
Я не вижу, какое отношение ИИ имеет к любому из вопросов, поднятых в этом посте. Вы можете задать тот же вопрос о том, как человек приходит к пониманию символов, если вообще понимает.
@ user6559 У людей есть инстинкты; если у ИИ должны быть инстинкты, мы должны их запрограммировать.

Ответы (4)

Давайте посмотрим на «Китайскую комнату». Слова проходят через зрительный нерв как сложный нервный паттерн, не имеющий семантического значения. Как только они попадают в мозг, мозг может придавать значение буквам, словам и фразам. Если бы они попали в мозг человека, владеющего только китайским языком, то выглядели бы бессмысленными символами.

Таким образом, комната и мозг одинаково воспринимают бессмысленную информацию и присваивают ей значение. Процессы в комнате придают смысл символам, в которых Сирл не видит смысла.

Важно помнить контекст Китайской комнаты, теста Тьюринга . При этом человек общается с двумя текстовыми интерфейсами (телетайпы в оригинале), один с человеком, а другой с компьютером, и пытается определить, кто из них человек, а кто компьютер. Многие считают это испытанием искусственного интеллекта. (Тьюринг этого не утверждал; он неточно предсказал, что компьютеры будут достаточно успешными в 2000 году.) Таким образом, сравнение проводится между китайской комнатой, получающей китайский текст, и китайским носителем, получающим китайский текст.

«комната и мозг одинаково воспринимают бессмысленную информацию и присваивают значение». Вот этот вопрос мне кажется решающим. Как мозг получает значения, которые он присваивает? И откуда оно их берет? Не входные потоки — они бессмысленны. Но это также и единственное, что получает комната (и мозг). Вывод: входные потоки не должны быть бессмысленными. Мы знаем, откуда берутся значения: датчики. Мы знаем, о чем смысл: о вещах, ощущаемых. Но как смысл воплощается в потоке? = Вопрос.
Давайте поднимем это на уровень выше. Эта веб-страница была бы совершенно бессмысленной для меня около шестидесяти трех лет назад. (Я помню, как просматривал газету и не мог понять ничего из того, что было написано.) Если где-то во Вселенной есть разумная жизнь, для них это было бы бессмысленно. Здесь недостаточно текста, чтобы проанализировать его и определить какой-либо смысл. Однако мы с вами находим в этом смысл. Поток не является произвольным или случайным, но сам по себе он не передает смысла без обработки определенными средствами.
Я согласен с тем, что поток нужно обрабатывать определенными средствами, чтобы выявить (если это правильное слово) заложенный в нем смысл. Для меня действительно интересной частью является понимание того, как значение воплощается в потоке (что укажет, как его извлечь и сделать постоянным в хранилище). Но я не уверен, что согласен с тем, что смысл можно определить с помощью достаточного количества текста. Для атаки на зашифрованные данные чем больше зашифрованного текста у вас есть, тем лучше, но я не думаю, что эта идея работает для текста и смысла. Бикхард и Тервин написали об этом хорошую книгу (они назвали текст кодированием).

Я предполагаю, что многое здесь зависит от определения «знаний» и «понимания» — сегодня беспилотные автомобили уже изучают окружающую их среду. (Я подумывал о заключении слова «обучение» в кавычки, но в данном контексте это общепринятая практика.) Таким образом, для слабого чувства знания и понимания, когда нам требуется только (скажем) наличие в системе информации, которая коррелирует с мира и используется для совершения желаемых действий в мире, сегодняшние системы уже приобретают его. Конечно, кого-то может заинтересовать более сильное чувство знания и понимания, возможно, включающее некоторое сознательное осознание. Это то, о чем аргумент Серла, и мы не собираемся здесь улаживать эту дискуссию...

Я бы, наверное, оспорил утверждение о беспилотном вождении. Обучающие наборы изображений, используемые для глубокого обучения искусственных нейронных сетей, состоят из миллионов изображений, но обычно каждое из них аннотируется человеком, который вводит коды для типов объектов: дерево, знак остановки, пешеход, фургон, ребенок и т. д. Хорошие обучающие наборы доступно онлайн. Человеческая аннотация на самом деле не является системой, приобретающей знания, или системами ИИ, «изучающими свою среду». Это кажется скорее частью процесса, в котором человек определяет причинно-следственную связь системы, используя свои знания.
Что касается сознания, я знаю, что Серл посвятил некоторое время этой теме. Но я действительно рассматриваю сознание как отдельный вопрос от семантики. Вполне возможно, что система может иметь качественную семантику, позволяющую ей выжить в дикой природе, но не иметь сознания. На самом деле ведутся дебаты о том, в чем состоит эволюционное преимущество сознания. В то время как эволюционное преимущество семантики довольно очевидно. Я рассматриваю CRA как часть программы, пытающейся понять, как машина может получить семантику. Разве это не более ранняя проблема — до проблемы сознания?

Алгоритмически вычисляемые ответы должны быть частью неполных по Гёделю систем с истинными, но недоказуемыми утверждениями. Но странная петлевая система может образовывать запутанную иерархию, сеть подкреплений и сомнений, подобно используемому языку, где предварительное использование символов используется, затем уточняется, а значение создается в отношениях и посредством взаимодействия и взаимодействия.

Когда наш мозг перестает получать информацию от зрительного нерва, он не закрывает часть мозга. Он (в конце концов) захватывает и загружает область, чтобы продолжать попытки создать модель мира, как можно более изоморфную ей — как показано итеративно, с помощью паттернов взаимодействия, перекрестных ссылок и т. д. — т. е. путем использования.

Ваша предпосылка о том, что символы семантически пусты, несостоятельна с точки зрения восприятия языка на практике — они пропитаны им при использовании. Математические системы выявляют последствия уже сделанных утверждений, то есть они не генерируют смысл, а распаковывают его. Однако творческое математическое мышление работает вперед к следствиям и обратно к аксиомам, а затем снова, во взаимодействии с миром, творчески.

Как же тогда компьютер может познать и понять мир?

Путем взаимодействия, проб и ошибок, исследования, эвристики. Так же как мы. Какими бы средствами оно ни должно было взаимодействовать, это будут чувства, включая ментальные модели и симуляции, которые мы используем, например, для прогнозирования движения в играх.

Китайская комната умна только как колода карт или счеты, скажем. Истинный общий искусственный интеллект должен находиться в странной петле, а не в такой плоской иерархии с четко определенными правилами.

Вы делаете несколько интересных утверждений о странных петлях, их формировании и использовании. У вас есть какие-то указатели на объяснение?
@CriglCragl Вы говорите: «Ваша предпосылка о том, что символы семантически пусты, несостоятельна с точки зрения просмотра языка на практике - они пропитаны им при использовании». Итак, символы наполняются смысловым содержанием в силу использования (тех самых) символов. Но не происходит ли это на самом деле: мозг насыщается смысловым содержанием путем использования внешних символов (и прочего)? Содержание принадлежит не символу, а мозгу? Этот вопрос сенсорно-семантического содержания кажется гораздо более примитивным, чем любое математическое понимание человеческих процессов и структур.
@Roddus Ни мозг, ни символ. Культура использования находится между ними.
@DavidThornley Мы обсуждали это здесьphilosophy.stackexchange.com /questions/22926/… Я особенно рекомендую статью Витгенштейна-Ницше-Рорти, которую я разместил там. Если серьезно рассматривать трилемму Мюнхгаузена, единственным ответом на нее будут странные петли. Не существует «правильного места для начала», есть только подкрепляющие движения через мыслеструктуры с использованием различных способов, входов и выходов (аксиоматизация), объединения (регрессия) и зацикливания (круговое рассуждение).

Я имею в виду, что один из возможных способов атаки на это состоял бы в том, чтобы указать, что только потому, что вы не осведомлены о семантической информации, не означает, что у субъекта нет семантической информации, присущей субъекту.

Таким образом, вы можете попытаться найти паттерны в шуме и связи между паттернами. Так что вы можете создавать облака слов, не зная, что означают слова. Например, если предложение работает со всеми одинаковыми символами, кроме одного, вы можете сделать вывод, что между этими двумя словами есть в каком-то смысле равенство. Вы можете сделать вывод о важных идеях по количеству связей или слов-заполнителей по комбинации частого использования, но способности быть исключенным из предложения и при этом быть действительным в соответствии с синтаксисом.

Теперь наблюдатель-человек способен сделать довольно много выводов из того простого факта, что этот человек — человек, как и люди, которые изобрели язык, так что есть определенные причуды человеческого состояния, которые, как вы можете сделать, настолько универсальны, что вы могли бы начать пробовать. чтобы отобразить их.

Но даже если бы этот язык был не китайским, а совершенно чуждым любому человеку, вы все равно могли бы попытаться найти закономерности, сделать прогнозы для вывода, проверить, совпадают ли прогнозы и фактические ответы, и уточнить свои прогнозы благодаря этому, т.е. заняться наукой.

И в какой-то степени это уже происходит с машинным обучением. Вы даете программе ввод, они буквально угадывают (генерируют случайное число) и выводят это. Затем пользователь сообщает им реальный результат, и они сравнивают предположение и реальное значение и меняют свое предположение. Так что не знаю, если они должны угадать результат сложения, например 2 + 2, тогда они могут угадать 3, получить 4 в качестве ответа, вычислить 4-1 = 1, что положительно, поэтому они меняют свои параметры, чтобы создать большее число, скажем, 5, где снова они вычисляют 4 -6 = -2, что является отрицательным, поэтому они корректируют параметры, чтобы получить меньшее число, но большее, чем 3, и так до тех пор, пока не получат 4.

Теперь они технически еще не знают, как складывать, они просто знают, что 2 на одном входе и 2 на другом входе равно 4 на выходе. Но из того факта, что замена входных данных приводит к тому же результату, вам уже необходима внутренняя симметрия. Теперь вы можете ошибаться, полагая, что это числа, но на самом деле это слова, но вы все равно придали бы им какое-то семантическое значение, даже если бы это было неправильно.

Итак, если вы предполагаете, что это не односторонняя связь, а компьютер использует свои выходные данные, чтобы делать выводы об окружающей среде, тогда он также может постепенно улучшать свои предположения и придавать значение вещам, которые являются произвольными и бессмысленными.