Имеют ли алгоритмы машинного обучения знания (если не обоснованные истинные убеждения)?

Под «алгоритмом машинного обучения» я подразумеваю базовые, прежде всего статистические, алгоритмы машинного обучения; для конкретных примеров рассмотрим простые алгоритмы классификатора, такие как SVM или байесовский классификатор или деревья решений . Я оговорюсь, что у этих машин нет ума.

Я вижу гомологию между этими алгоритмами и теорией познания JTB: обучающий набор и структура модели сопоставляются с обоснованием, результаты (объявленные метки классов) сопоставляются с убеждениями, а истинный аспект не затрагивается. Существует аналогичная гомология взгляду на знания (аланф) «гипотеза и критика» на этапах обучения и тестирования, обычно применяемых в (статистическом) машинном обучении.

Очевидно, что первое возражение будет состоять в том, что вера (и обоснование?) требует разума, чего эти алгоритмы не воплощают. Это единственный критерий, который отличает «знания» систем статистического машинного обучения от реальных знаний?

В стороне

Я бы сказал, что подмножество нормальных (человеческих) знаний имеет форму, поддающуюся представлению с точки зрения машинного обучения — пример, который приходит на ум, — это знания, которые орнитологи используют для идентификации птиц на основе частичного наблюдения. Наблюдатели за птицами заметили, какие особенности лучше всего видны и могут отличать виды птиц друг от друга; то, что это знание, кажется неоспоримым.

Я также вижу здесь что-то вроде парадокса Сорита: орнитолог, который идентифицирует птиц, глядя на них, «узнает своих птиц»; кто-то, использующий полевой справочник для помощи, все еще, кажется, имеет «обоснованное истинное убеждение», когда сделан правильный идентификатор; как насчет более обширной поддержки, такой как Merlin ID (которая, судя по снимкам экрана, проведет вас через дерево решений)? а как насчет того, чтобы просто принять результат какого-то автоматизированного алгоритма идентификации птиц за чистую монету? (в последнем случае добавилось ли что-то новое, кроме того, что идентификатор вида был перенесен с экрана iPhone в разум орнитолога?)

Кажется, что в вашем отношении к орнитологам существует потенциальная дисаналогия, поскольку значение «уведомления» применительно к человеку может отличаться от всего, что делают алгоритмы машинного обучения. Или, другими словами, «замечание», по-видимому, должно быть запрограммировано в программе таким образом, который, по крайней мере, понимает программист, но наблюдатели за птицами замечают так, как они могут не понимать.
@virmaior Я интерпретирую тот факт, что в конце обучения результирующие структуры модели кодируют, какие функции предметной области имеют отношение к поставленной задаче, как «замечание, какие функции актуальны»; по крайней мере, в аналогичном смысле.
Я не уверен, что понимаю вас в использовании слова «уведомление». Замечание кажется мне способностью, которой не хватает машинам. Наличие жестко закодированного датчика обнаружения кажется полной противоположностью по крайней мере одному нормальному чувству наблюдения. И кажется, что машины (и мои знания здесь могут быть ограничены) просто учатся отфильтровывать информацию обнаружения, которая не коррелирует. Мы как будто (по крайней мере, я так думаю) делаем обратное по крайней мере на уровне сознания и называем это «замечанием».
Выбор функции @virmaior ( machinelearningmastery.com/an-introduction-to-feature-selection ) является еще более подходящим аналогом «замечания», особенно когда он выполняется «он-лайн» в ответ на конкретный тестовый пример ( aclweb.org /антология/P15-1015 ). Я склонен согласиться с тем, что эти типы algs. вероятно, не являются моделями или симуляциями биологического восприятия; но в тех случаях, когда они используются, они выполняют, с точки зрения общей структуры обучения, ту же роль, что и замечание.

Ответы (4)

Предложение OP по духу похоже на предложение Фаркаса в статье «Вера не может быть необходимым условием для знания» . Его основным примером является Отто, парень с серьезной потерей памяти, который хранит всю важную информацию в записной книжке, которую он всегда носит с собой и которая «расширяет» его разум:

« Есть части знаний, которые слишком утомительно приобретать и сохранять в нашей голове: например, запоминание телефонных номеров или дней рождения… Я утверждаю, что мы можем естественным образом распространить применение понятия знания на такие случаи». Энди Кларк и Дэвид Чалмерс, который представил сценарии расширенного разума (1998), выдвинул аналогичный аргумент для убеждений... Мое предположение состоит в том, что это лучше работает для знания, чем для убеждения ».

ОП, похоже, готов пойти дальше в рассмотрении знаний без «мыслящего» агента. Платоновское изречение о знании как (оправданно истинном) убеждении остается широко распространенным, но оно не является безупречным . «Я верю в Бога» и «Я верю, что завтра взойдет солнце» используют «верю» совершенно по-разному. Один требует активного акта принятия, в то время как другой имеет вид покорности, один смешивается с надеждами и желаниями, другой с предположениями и мнениями. Согласно Рэдфорду, люди могут знать и давать правильные ответы, не веря в них и думая, что они угадывают. Если акт принятия не требуется для знания в сценариях расширенного разума, почему он вообще должен требоваться? Если знание не есть вера,

Один (Серл) мог бы возразить, что даже если мы уберем часть убеждения, часть обоснования по-прежнему требует «интенциональности» и «понимания» для получения знания. А это может дать только разум. Авторы систем отвечают на китайскую комнату Серла (Минский, Коул), однако, отвечают, что всего, что есть у машин, достаточно ума. Коул прямо пишет об « огромном фоне» здравого смысла, закодированного в программе и картотеках ». Серл отрицает, что «кодирование» возможно или что «виртуальный разум» квалифицируется как разум.

Можно обойти этот аргумент по поводу разума, отбросив изречение Платона и описав знание как нечто вроде эффективного предположения, на котором основаны действия. Это более или менее прагматическая теория , восходящая к Пирсу и Джеймсу. «Дедушка» прагматизма Бейн определял веру как « то, на основании чего человек готов действовать ». Машина может получать и хранить информацию, на которую она «действует», если эта информация эффективна для того, чтобы сделать ее действия «адекватными», тогда она считается знанием. Возможно, это и есть все человеческое знание.

Для более широкой перспективы см . Анализ знаний SEP .

Слова — плохой способ выразить убеждения и знания и обсудить их природу, но у нас нет альтернативы. Остерегайтесь результатов при использовании плохого инструмента.
Ложное утверждение. Действия — лучший способ выражения убеждений и знаний, потому что они объективны и, следовательно, публичны. «Действия говорят громче слов» — это поговорка не потому, что она рифмуется.

Это граничит с идеей «Мысленного эксперимента в китайской комнате». Если вы не знакомы с этим экспериментом, следующее видео и цитата будут очень полезны.

Мысленный эксперимент Серла начинается с этой гипотетической предпосылки: предположим, что исследования искусственного интеллекта привели к созданию компьютера, который ведет себя так, как будто он понимает китайский язык. Он принимает китайские иероглифы в качестве входных данных и, следуя инструкциям компьютерной программы, создает другие китайские иероглифы, которые он представляет в качестве выходных данных. Предположим, говорит Сирл, что этот компьютер выполняет свою задачу настолько убедительно, что без труда проходит тест Тьюринга: он убеждает человека, говорящего по-китайски, в том, что программа сама является живым носителем китайского языка. На все вопросы, которые человек задает, он дает соответствующие ответы, так что любой говорящий по-китайски будет убежден, что он разговаривает с другим человеком, говорящим по-китайски.

Вопрос, на который Серл хочет ответить, заключается в следующем: «понимает ли машина» китайский язык буквально? Или это просто имитация способности понимать китайский язык? [6] [c] Сирл называет первую позицию «сильным ИИ», а вторую — «слабым ИИ». [d]

Затем Сирл предполагает, что он находится в закрытой комнате и у него есть книга с английской версией компьютерной программы, а также достаточное количество бумаги, карандашей, ластиков и картотечных шкафов. Сирл мог получать китайские иероглифы через щель в двери, обрабатывать их в соответствии с инструкциями программы и выводить китайские иероглифы на выходе. Если бы компьютер прошел тест Тьюринга таким образом, то, по словам Серла, он бы сделал то же самое, просто запустив программу вручную.

Серл утверждает, что между ролями компьютера и его самого в эксперименте нет существенной разницы. Каждый просто следует программе, шаг за шагом, производя поведение, которое затем интерпретируется как демонстрация разумного разговора. Однако Серл не мог понять разговор. («Я не говорю ни слова по-китайски», [9] указывает он.) Следовательно, утверждает он, следует, что компьютер также не сможет понять разговор.

Серл утверждает, что без «понимания» (или «интенциональности») мы не можем описать то, что делает машина, как «мышление», и, поскольку она не думает, у нее нет «разума» ни в каком нормальном смысле этого слова. . Поэтому он заключает, что «сильный ИИ» ложен.

Источник: https://en.wikipedia.org/wiki/Chinese_room

https://www.youtube.com/watch?v=TryOC83PH1g&edufilter=42sx_3NqAVcegVpqn7ZbPg

Я надеюсь, что они помогут и помогут вам найти ответ. На мой взгляд, как вы можете сказать, алгоритмы машинного обучения не имеют знаний.

Аргумент Серла уместен, но понимание (его термин) не тождественно знанию (моя цель). Или, по крайней мере, для меня не очевидно, что эти термины взаимозаменяемы в данном контексте; вы яснее видите, как распаковать его пример на само знание (JTB)?

Алгоритмы машинного обучения создают экземпляры знаний. Для системы вполне возможно иметь знание, но не понимать это знание.

Многие философы придерживаются обоснованной истинной веры. Знания, которыми обладают люди, не оправданы . Знания также не обязательно должны быть истинными, например - Ньютоновская механика ложна, но это знание. И одна из причин, по которой знание представляется верой, заключается в том, что вам нужен человек, чтобы обосновать его, но это неправда, поэтому вера не нужна.

Поскольку от теории познания JTB ничего не осталось, остается вопрос, что отличает знание от незнания. Знания – это информация, которая решает какую-то проблему.

Никому не обязательно знать о существовании проблемы, чтобы решить проблему. Например, человеческое сердце — это насос, который может работать непрерывно в течение десятилетий без какого-либо вмешательства или обслуживания со стороны человека. Крылья воробья помогают решить проблему, как заставить летать маленькие легкие предметы. Информация о том, как решать эти задачи, содержится в генах соответствующих организмов. Тот факт, что никто не знает эту информацию, не имеет значения. Многие незначительные варианты этих структур не решат проблем, которые они решают. Это близкое соответствие между этими структурами и конкретной проблемой требует объяснения. Объяснение этого совпадения имеет сильное структурное сходство с тем, как создаются человеческие знания. И человеческое знание, и биологическое знание создаются многими раундами вариации и отбора.

Алгоритмы машинного обучения создают экземпляры знаний, которые в основном создаются людьми. Люди сами решают, какую информацию скармливать алгоритмам. Люди пишут код, который производит вариации. Люди решают, какие результаты считать успехом. Люди решают, как должен работать отбор. Алгоритмы конкретизируют информацию о том, как решить некоторую проблему, в форме, которую мы не знаем, как читать в явном виде. Но алгоритм, тем не менее, может решить какую-то проблему, скажем, распознавание лиц, так что людям больше не придется этим заниматься. Таким образом, программа машинного обучения создает некоторые знания.

Пример знания, но непонимания знания: e = mc^2.
Многие люди понимают E=mc^2, включая меня. Если нет, попробуйте прочитать «Специальную теорию относительности» AP French.
Я думаю, что точка зрения @gnasher729 заключается в том, что мы можем знать, что e = mc^2 является «истинным», но ничего больше не знаем о том, что это означает - как это стало известно и может быть применено. Я знаю кучу вещей, которые я действительно не понимаю. Я знаю, что твой псевдоним alanf и что у тебя (на данный момент) 3605 баллов, но почему? Почему? Значит ли это, что я не знаю этих вещей? Они прямо перед моим лицом. Я могу даже знать меру того, чего не знаю, если воспользоваться известной фразой.
Я не думаю, что вы знаете, что e=mc^2 верно, если вы этого не понимаете. Вы просто говорите, что это правда, потому что это общепринятый лозунг. Фраза означает что-то, что верно в контексте физики и известно и понятно некоторым людям. Вы знаете, что мой псевдоним alanf, потому что вы знаете, что браузер дает вам точную информацию об этом имени, а также о моем счете.

Артур Сэмюэл, американский пионер в области компьютерных игр и искусственного интеллекта, ввел термин «машинное обучение» в 1959 году, когда работал в IBM[12].

Как научное направление машинное обучение выросло из поиска искусственного интеллекта.

Уже на заре ИИ как академической дисциплины некоторые исследователи были заинтересованы в том, чтобы машины обучались на основе данных.

Они пытались подойти к проблеме с помощью различных символических методов, а также того, что тогда называлось «нейронными сетями» ; в основном это были перцептроны и другие модели, которые, как позже выяснилось, были переизобретением обобщенных линейных моделей статистики. Также использовались вероятностные рассуждения, особенно в автоматизированной медицинской диагностике.[14]:488

Однако растущий акцент на логическом подходе, основанном на знаниях, вызвал раскол между ИИ и машинным обучением.

К 1980 году экспертные системы стали доминировать над искусственным интеллектом, и статистика оказалась в немилости.[15] Работа над символическим / основанным на знаниях обучением действительно продолжалась в рамках ИИ, что привело к индуктивному логическому программированию, но более статистическое направление исследований теперь находилось за пределами области собственно ИИ, в области распознавания образов и поиска информации. [14]: 708–710; 755

Примерно в то же время искусственный интеллект и информатика отказались от исследований в области нейронных сетей. Эта линия также была продолжена за пределами области AI / CS, как «коннекционизм», исследователями из других дисциплин, включая Хопфилда, Румельхарта и Хинтона. Их главный успех пришелся на середину 1980-х, когда они заново изобрели обратное распространение ошибки.[14]:25

Машинное обучение начало процветать в 1990-х годах.

Область изменила свою цель с достижения искусственного интеллекта на решение решаемых проблем практического характера. Он сместил акцент с символических подходов, унаследованных от ИИ, на методы и модели, заимствованные из статистики и теории вероятностей.[15] Это также выиграло от растущей доступности оцифрованной информации и возможности ее распространения через Интернет.

Машинное обучение и интеллектуальный анализ данных часто используют одни и те же методы и значительно перекрывают друг друга, но в то время как машинное обучение фокусируется на прогнозировании, основанном на известных свойствах, извлеченных из обучающих данных, интеллектуальный анализ данных фокусируется на обнаружении (ранее) неизвестных свойств в данных (это этап анализа обнаружения знаний в базах данных). Интеллектуальный анализ данных использует множество методов машинного обучения, но с разными целями; с другой стороны, машинное обучение также использует методы интеллектуального анализа данных как «обучение без учителя» или как этап предварительной обработки для повышения точности учащихся.

Большая часть путаницы между этими двумя исследовательскими сообществами (у которых часто есть отдельные конференции и отдельные журналы, главным исключением является ECML PKDD) возникает из-за основных предположений, с которыми они работают: в машинном обучении производительность обычно оценивается по отношению к способности воспроизводить известные знания,

в то время как в обнаружении знаний и интеллектуальном анализе данных (KDD) ключевой задачей является обнаружение ранее неизвестных знаний.

Неинформированный (неконтролируемый) метод, оцененный по отношению к известным знаниям, будет легко проигрывать другим контролируемым методам, в то время как в типичной задаче KDD контролируемые методы нельзя использовать из-за отсутствия обучающих данных.

Машинное обучение также тесно связано с оптимизацией: многие задачи обучения формулируются как минимизация некоторой функции потерь на обучающем наборе примеров. Функции потерь выражают несоответствие между прогнозами обучаемой модели и реальными экземплярами проблемы (например, при классификации хотят присвоить экземплярам метки, а модели обучаются правильно предсказывать заранее заданные метки набора примеры) .

Разница между этими двумя областями возникает из-за цели обобщения: в то время как алгоритмы оптимизации могут минимизировать потери в обучающем наборе, машинное обучение связано с минимизацией потерь в невидимых выборках. Исх.-

https://en.wikipedia.org/wiki/Machine_learning#Inductive_logic_programming

К сожалению, этот ответ не отвечает на вопрос, есть ли у этих алгоритмов знания.
@Carl Masens, см. цитату <интеллектуальный анализ данных фокусируется на обнаружении (ранее) неизвестных свойств в данных (это этап анализа обнаружения знаний в базах данных)>
Опять же, это описывает обнаружение знаний с помощью алгоритмов, а не обладание знаниями, что является двумя совершенно разными вещами.
@ Carl Masens-<в то время как в открытии знаний и интеллектуальном анализе данных (KDD) ключевой задачей является обнаружение ранее неизвестных знаний.... этот термин «ранее неизвестные, новые знания ведут к построению знаний...