Где те знания, которые представляют собой «представления знаний» ИИ?

Я нахожу это действительно запутанным. ИИ часто говорит, что его компьютерные системы «знают» что-то, но когда ИИ объясняет, как запрограммировать компьютер, чтобы он был разумным, он говорит только о «представлении знаний». Например, Рассел и Норвиг, Искусственный интеллект: современный подход .

Например, в части III, озаглавленной «Знание и рассуждение», авторы говорят только о представлении знаний, например, в начале первой главы части III: «Эта глава знакомит с агентами, основанными на знаниях. Концепции, которые мы обсуждаем - представление знаний и процессы рассуждений , которые оживляют знания, - занимают центральное место во всей области искусственного интеллекта [курсив автора].

Зачем говорить о представительстве? Почему бы не говорить о знании как таковом (то, что представлено)? Где настоящее - знание? Кажется, мы знаем, где находятся представления — внутри компьютера. Но где настоящее знание? Внутри человека-программиста? Действительно ли компьютерные системы ИИ ничего не знают сами по себе?

Это аналогично вопросу о том, где находится сама краснота, кроме красных предметов, иными словами, он овеществляет фиктивную сущность, введенную для удобства формулировки. «Актуальное знание», отделенное от его репрезентаций, должно было бы состоять из каких-то платонических идей, а большинство исследователей ИИ не являются платониками. Для них реальны только репрезентации и их преобразования, но это не означает, что вымысел не может быть полезен для фиксации свойств, инвариантных к преобразованиям.
@Конифолд. Таким образом, красный объект является красным, но всеобщее, краснота, не имеет независимого существования. Все, что есть, это красные объекты. Определенные лошади существуют, но здесь нет такой вещи, как лошадь (за исключением нейронной конструкции или абстракции в человеческом мозгу). Таким образом, конкретные нейронные структуры являются воплощением (являются) знанием, но не существует такой вещи, как знание в целом, существующее во Вселенной отдельно от конкретных экземпляров внутри мозга. Ну, это нормально. Так где же эти конкретные экземпляры внутри компьютерных систем ИИ — предполагаемые искусственные мозги — и из чего они сделаны?
Вы все еще слишком много материализуете. Предполагается, что эти термины объясняют деятельность, а именно деятельность по соотнесению поведения с окружающей средой. Материальная (нейронная) сторона представлений есть лишь один аспект этой деятельности, другой аспект — отношение к их референтам, которое она поддерживает (как в представлениях лошадей к реальным лошадям). Однако в то время как репрезентации и референты, по крайней мере, имеют объекты для материальной стороны, хотя трактовать их как просто вводящие в заблуждение, такие вещи, как знание, не имеют. Говорить о знаниях ИИ и т. д. имеет смысл только в контексте его взаимодействий.
@Conifold Я вижу, что применение знаний может быть связано с соотнесением поведения с окружающей средой (например, в стремлении выжить в дикой природе). Разве не знание определяет взаимодействие? Вы говорите, что говорить о знании имеет смысл только в контексте взаимодействия. Итак, если нет взаимодействия, нет и знания. Если я в коме, я ничего не знаю? Тем не менее, большинство скажет, что я, возможно, не выражаю знания, но это знание все еще существует. Диспозиционные концепции знания кажутся бесполезными. Рассматривать это как структуру/процесс, как это делает большинство, кажется гораздо более полезным.
Знание — это абстракция. Знание не имеет физической реальности. Репрезентации знания конкретны и реальны — слова на бумаге, биты в памяти компьютера и т. д.
Если вы находитесь в коме, в вашем мозгу происходит множество взаимодействий, но да, некоторые вещи считаются «представляющими» знания только потому, что вы взаимодействовали с ними в прошлом. Книга как объект есть не что иное, как бумага и чернила, сама по себе она не содержит представлений и тем более «знаний», мозг не исключение. Только из-за всей деятельности, которая пошла (и может снова пойти) на развитие языка, связывание символов с референтами, составление и рекомбинация репрезентаций и т. д., они становятся «хранилищами знаний».
@james big Хорошо, значит, у знаний нет физической реальности, а у KR есть. Являются ли KR (символы) чисто синтаксическими и, следовательно, сами по себе не указывают на то, к чему они относятся? Если это так, то между символом «Эйфелева башня» и высоким металлическим референтом в Париже должна быть какая-то связь, которая не является частью символа или башни. А как насчет этого третьего <чего-то>, связывающего КР с башней? Имеет ли эта связующая вещь физическую реальность? А если так, то почему бы не назвать эту связующую вещь знанием? А если нет, то как обозначается символ?
@Conifold Когда вы говорите: «Эти термины должны учитывать действие, а именно действие по сопоставлению поведения с окружающей средой». Вы имеете в виду термин "знание"? Значит, термин «знание» относится к поведению? Если система может выжить в дикой природе, то факт выживания указывает не только на то, что система обладает знаниями, но и на то, что действия системы в ответ на окружающую среду являются знаниями. «знание» не относится к какому-либо внутреннему процессу или структуре? Кажется, это способ избежать проблемы внутренней структуры/процесса.
Ничего такого грубого. Можно перефразировать «знание» и другие подобные термины вне языка, но это значительно удлинит выражение. «Знание» не относится (напрямую), оно помогает выразить «процесс», если хотите, но в его динамических аспектах и ​​несводимо к статическим «записям» (что является наивным стереотипом). Я думаю, что «выживание указывает на знание» имеет те же проблемы цикличности, что и «выживание наиболее приспособленных» Спенсера или «успех указывает на талант», и является данью упомянутому стереотипу, но это побочный вопрос.
@Conifold Может быть, это хорошая идея - перефразировать разговор о знаниях или даже перестать говорить о знаниях (в контексте ИИ). Может быть, идея знания является препятствием. Одна большая проблема ИИ заключается в том, как заставить машину обобщать. Как насчет определения «обобщения», а затем указания тестов, которые необходимо пройти? Хотя это было предпринято с лингвистической точки зрения: парадокс Мура; ответы на вопросы: «полиция задержала протестующих, потому что они были пьяны», «полиция избила протестующих, потому что они были пьяны» (к кому относится «они»?) и т. д.

Ответы (2)

В контексте агентов с искусственным интеллектом и ИИ оказывается, что знание — это просто примитив, соединяющий этих агентов с их представлениями о знаниях .

В издании « Искусственный интеллект: современный подход » 1995 года , раздел 6.3 «Представление, рассуждение и логика», Рассел и Норвиг описывают, что «объектом представления знаний является выражение знаний в машиночитаемой форме». Это определяется двумя аспектами: синтаксисом , как предложения представлены в компьютере, и семантикой , определяющей «факты в мире, к которым относятся предложения». Их последующий рисунок 6.5 и сопровождающее пояснение поясняют: «Факты являются частью мира, тогда как их представления должны быть закодированы».

В этом контексте обычный процесс познания (рассуждение) представляет собой вывод фактов из фактов. Напротив, процесс репрезентативного познания заключается в том, чтобы, используя предложения, представляющие релевантные факты мира, провести логический (синтаксический) вывод по этим предложениям и иметь возможность перевести эти предложения обратно в факты о мире (там же). просто в искусственном интеллекте представление знаний явно зависит от кодирования и перевода части процесса.

Здесь знание зависит от семантики, которую должен знать программист или пользователь системы. Итак, в одной интерпретации система машины, пользователя (и программиста) обладает знаниями. Однако в ИИ вы могли бы в просторечии сказать, что машина или система «знает» что-то, считая ее агентом . Что касается того, обладает ли машина подлинными знаниями, а не просто хранит представления и выполняет синтаксические манипуляции, это вопрос эпистемологии и теории разума .

Редактировать: подробное обсуждение того, могут ли компьютеры понимать , см . в статье «Аргумент китайской комнаты» в Стэнфордской философской энциклопедии . Аргумент Серла и ответы на него имеют отношение к теории разума и отражают некоторое разнообразие мнений о приписывании знаний машинам.

Могу я спросить: R&N говорит, что « объект представления знаний состоит в том, чтобы выразить знания в машиночитаемой форме ». (1) означает ли «выражение знаний» символы записи/печати, например, «Эйфелева башня — высокая металлическая башня в Париже, Франция»? (2) Содержат ли эти формы свое значение внутри себя? (3) При кодировании и внутри компьютера содержит ли кодировка значение фигур? (4) Если нет, когда кодировки находятся внутри компьютера, откуда интеллектуальный компьютер берет значение? .
1) Да, среди других методов, таких как речь или, например, таблицы истинности, символическая логика, реляционные графы, записи базы данных и их битовые представления ( синтаксис ). 2) Нет. Требуется семантическая интерпретация. 3) Нет. 4) Возможно, он может «знать» что-то, не понимая или не «понимая смысл». См. аргумент Джона Серла о Китайской комнате .
@ Грег С Так кто/что делает семантическую интерпретацию? Человек может, а компьютер нет (поскольку все, что у него есть, это бессмысленные по своей сути закодированные формы). Учитывая, что наличие семантики необходимо для человеческого интеллекта, у машины нет человеческого интеллекта. Итак, на каком основании R&N говорит об искусственном интеллекте. Если интерпретация находится внутри человека, то на самом деле они говорят о человеческом интеллекте, а не об ИИ. Значит, Серл был прав: компьютеры имеют только синтаксис, а поскольку для мышления необходима семантика, компьютеры никогда не будут думать?
@Roddus: Во введении к AI (1995) R&N прямо отмечает, что существуют разногласия по поводу того, как интерпретировать искусственный интеллект . Мы остаемся с аналогичной двусмысленностью эпистемологической основы, предполагая, что мы должны интерпретировать использование R&N слова «знать» как неформальный , примитивный (разговорный) термин. Однако их определение представления знаний подразумевает внешнюю семантику и согласуется с Сёрлом как основной линией интерпретации. См. A1-A3 -> C1; также отвечает Серлу, предлагая другие подходы к эпистемологии или интеллекту.
Добавлена ​​ссылка на аргумент «Китайская комната» (более подробная, чем в комментарии). Я оставил здесь понимание и знание как разные термины, хотя я думаю, что аргумент имеет отношение к обоим, поскольку знание может быть немного сложным.
@ Грег С Это хорошо сказано («их определение представления знаний подразумевает внешнюю семантику и согласуется с Серлом как основной линией интерпретации»). Вам не кажется, что есть проблема с терминологией, особенно когда ИИ говорит, что системы ИИ что -то знают , а ИИ довольно часто говорит об этом? Теперь, когда системы ИИ контролируют самоуправляемые транспортные средства, общественность начинает понимать, что системы ИИ действительно что-то знают (например, как не столкнуться с бетонными барьерами, пешеходами, толкающими велосипеды, тягачи с прицепами или кузовами припаркованных пожарных машин). ), но их нет.
На самом деле ... я отредактирую, чтобы включить, возможно, лучшую интерпретацию R&N - что в контексте искусственных агентов знание - это просто примитив, соединяющий их с их представлениями о знаниях. В этом случае интерпретация этого знания по-прежнему имплицитно зависит от внешней семантики. Было бы проблематично сказать, что ИИ что-то знает , поскольку он игнорирует важность того, как проблема сформулирована и представлена ​​(например, программистами и пользователями). Существуют также потенциальные философские и этические опасения по поводу антропоморфизации машин. Возможно, R&N могла бы добавить небольшой раздел по этому поводу.
Грег С Это помогло бы, конечно. Безусловно, антропоморфизация была ранним началом (например, Маккарти, 1959, «Программы, основанные на здравом смысле»), но проблема заключается в том, что неустанная антропоморфизация с тех пор скрывает внешнюю семантику машины и эффективно препятствует решению большой проблемы: как машина может получить свою собственную семантику. Возможно, показательный пример: системы «визуального» «восприятия» беспилотных автомобилей, где для глубокого «обучения» используется огромное количество изображений, аннотированных человеком , т. е. внешняя семантика. Безусловно, ИИ необходимо решить проблему внутренней семантики.

Просто прагматичный подход: например, мы хотим узнать больше о движении конечностей с помощью камер и систем искусственного интеллекта. То есть мы ищем тип знания, которого у нас нет (апостериорно), основываясь на некотором знании, которое у нас уже есть (априори) о конечностях.

Можем ли мы просить такие знания у машины? Нет. Машина не знает, что такое конечность или что такое движение. Нам нужно представить такие априорные знания на машине. Для этого вы обычно определяете онтологию , используя приложение, такое как Protégé , для моделирования и представления априорных знаний. Там мы будем представлять все сущности, включая те, о которых у нас есть знания, и те, о которых нам нужно узнать.

После этого система ИИ строится на основе онтологии. Теперь у машины есть представление знаний внутри. И он нагружен набором правил, позволяющих ему учиться (получать апостериорные знания) с помощью какого-то механизма.

Результатом является модель (большой набор чисел), представляющая знания о некоторых сущностях в наборе онтологий. Например, он может сказать, что ноги прилагают меньше относительных усилий, чем руки.

"Где знание"? В наших головах. У машины есть не что иное, как набор чисел, модель знаний. Числа — это не знание.

«Зачем говорить о репрезентации? Почему бы не говорить о знании как таковом?» Поскольку знание не является физическим объектом, оно не существует вне нашего разума. Чтобы оно существовало вне нашего сознания, нам нужно создать его представление .

Настоящее знание существует только в нашем сознании. Машины просто способны каким-то образом представлять такие знания.

«Настоящее знание существует только в нашем сознании. Машины просто способны каким-то образом представлять такое знание». Вы имеете в виду, что Серл был прав: компьютеры — это чисто синтаксические устройства, из синтаксиса невозможно получить семантику, а поскольку семантика необходима для мышления, компьютеры никогда не будут думать? Кажется, это проблема, которую должен решить ИИ: как компьютер может получить свою собственную семантику. Но концепции ИИ, похоже, не позволяют ИИ найти решение. Думаю, Деннет сказал то же самое в 1980-х годах, сказав что-то вроде: ИИ нуждается в полном переосмыслении настроек семантического уровня.
Смена темы, ок. Если бы компьютеры могли обрабатывать семантическое содержимое, то же самое должно было бы быть возможно для структур, камней или частиц газа. Это так? Можем ли мы говорить о семантике в другом контексте, кроме нашего разума? Возможно. Марсианин мог бы понять, что атомное состояние нашего мозга — это представление знаний, которых он не получает. И теоретический Бог, вероятно, заявил бы, что нашу семантику нельзя рассматривать как таковую и что мы всего лишь синтаксические процессоры.