С достижениями в области машинного обучения , интеллектуального анализа данных и обработки больших данных скоро машины будут находить закономерности, которые можно интерпретировать как причинно-следственные связи или корреляцию, в то время как мы понятия не имеем об основных механизмах.
В то время фальсифицируемость является наиболее общепринятой концепцией для различения науки и лженауки, ставя теории с высоким риском выше других.
В соответствии с фальсифицируемостью нам нужны данные для фальсификации теории (в основном это происходит в естествознании), которая уже основана на огромном количестве данных, обработанных ИИ .
Идея не кажется надежной, поскольку затраты на сбор и обработку данных сильно изменились со времен Карла Поппера.
Приведет ли это к устареванию фальсифицируемости в будущем или я ошибаюсь в своих предположениях?
Благодаря достижениям в области машинного обучения, интеллектуального анализа данных и обработки больших данных, скоро машины будут находить закономерности, которые можно интерпретировать либо как причинно-следственные связи, либо как корреляцию, в то время как мы понятия не имеем о лежащих в их основе механизмах.
Если вы не знаете, какой механизм вызывает корреляцию, то вы не можете интерпретировать паттерн как причинно-следственную связь.
В то время фальсифицируемость является наиболее общепринятой концепцией для различения науки и лженауки, ставя теории с высоким риском выше других.
В соответствии с фальсифицируемостью нам нужны данные для фальсификации теории (в основном это происходит в естествознании), которая уже основана на огромном количестве данных, обработанных ИИ.
Невозможно вывести теорию из данных. Любой набор данных совместим с бесконечным набором математических уравнений, описывающих данные. Ни один набор данных не эквивалентен теории, поскольку теория касается лежащей в основе реальности, а не данных.
Если вы обнаружите какую-то корреляцию, вы можете догадаться, что существует какой-то лежащий в основе причинный механизм, и догадаться об этом механизме, но догадка — это не вывод. Как только вы догадались о каком-то причинно-следственном механизме, вы можете проверить его, проведя дополнительные наблюдения: машинное обучение может быть полезным или бесполезным в этом процессе.
Если вы хотите понять позицию Поппера, посмотрите материал в этом списке:
Я не понимаю, почему фальсифицируемость исчезнет ... любая теория, которую выдвигает ИИ, должна быть фальсифицируемой, чтобы быть хорошей теорией. На самом деле возможность фальсификации может стать важнее, чем когда-либо: как только мы доверяем ИИ до такой степени, что утверждения и суждения ИИ считаются правильными именно потому, что «ИИ так говорит», у нас возникают настоящие проблемы. Итак, мы должны убедиться, что будут независимые средства для проверки этих теорий, утверждений и суждений.
p < 0.05
основанного на большом количестве данных, собранных за многие годы. Это занимает много времени, чтобы быть фальсифицированным, если вообще когда-либо. Нужно ли нам что-то большее, основанное на объяснении механизмов, помимо фальсифицируемости?Я не думаю, что фальсифицируемость (или теория в целом) устареет. Машинное обучение по-прежнему подчиняется законам статистики. Возможно, это правда, что в некоторых ограниченных областях с большим количеством данных мы все больше будем полагаться на сложные для интерпретации модели (например, искусственные нейронные сети) вместо более простых интерпретируемых моделей. Но в других областях у нас не будет достаточно данных или мы захотим обобщить их на другие случаи, когда у нас нет данных. Соответственно, во многих контекстах мы хотим сделать больше, чем просто предсказать будущие данные из того же процесса; мы хотим иметь представление о лежащем в основе механизме, например, чтобы предсказать, что произойдет, если мы изменим механизм, как мы можем улучшить этот механизм или использовать его в других контекстах и т. д. См. соответствующее обсуждение здесь .
Конифолд