Сделает ли ИИ фальсифицируемость устаревшей?

С достижениями в области машинного обучения , интеллектуального анализа данных и обработки больших данных скоро машины будут находить закономерности, которые можно интерпретировать как причинно-следственные связи или корреляцию, в то время как мы понятия не имеем об основных механизмах.

В то время фальсифицируемость является наиболее общепринятой концепцией для различения науки и лженауки, ставя теории с высоким риском выше других.

В соответствии с фальсифицируемостью нам нужны данные для фальсификации теории (в основном это происходит в естествознании), которая уже основана на огромном количестве данных, обработанных ИИ .

Идея не кажется надежной, поскольку затраты на сбор и обработку данных сильно изменились со времен Карла Поппера.

Приведет ли это к устареванию фальсифицируемости в будущем или я ошибаюсь в своих предположениях?

Как вы можете видеть из статьи, на которую вы ссылаетесь, фальсифицируемость специфична для Поппера, а не «наиболее общепринята». Хотя некоторые более расплывчатые версии, такие как «проверяемость», действительно используются для выдающейся науки, фальсифицируемость как таковая в основном представляет только исторический интерес. Однако я не понимаю, какое отношение к этому имеют «нам нужны данные для фальсификации теории» и «затраты на сбор и обработку данных». Нам нужны данные практически для всего, и затраты не связаны с их использованием для тестирования или фальсификации.

Ответы (3)

Благодаря достижениям в области машинного обучения, интеллектуального анализа данных и обработки больших данных, скоро машины будут находить закономерности, которые можно интерпретировать либо как причинно-следственные связи, либо как корреляцию, в то время как мы понятия не имеем о лежащих в их основе механизмах.

Если вы не знаете, какой механизм вызывает корреляцию, то вы не можете интерпретировать паттерн как причинно-следственную связь.

В то время фальсифицируемость является наиболее общепринятой концепцией для различения науки и лженауки, ставя теории с высоким риском выше других.

В соответствии с фальсифицируемостью нам нужны данные для фальсификации теории (в основном это происходит в естествознании), которая уже основана на огромном количестве данных, обработанных ИИ.

Невозможно вывести теорию из данных. Любой набор данных совместим с бесконечным набором математических уравнений, описывающих данные. Ни один набор данных не эквивалентен теории, поскольку теория касается лежащей в основе реальности, а не данных.

Если вы обнаружите какую-то корреляцию, вы можете догадаться, что существует какой-то лежащий в основе причинный механизм, и догадаться об этом механизме, но догадка — это не вывод. Как только вы догадались о каком-то причинно-следственном механизме, вы можете проверить его, проведя дополнительные наблюдения: машинное обучение может быть полезным или бесполезным в этом процессе.

Если вы хотите понять позицию Поппера, посмотрите материал в этом списке:

http://fallibleideas.com/books#popper

Я не понимаю, почему фальсифицируемость исчезнет ... любая теория, которую выдвигает ИИ, должна быть фальсифицируемой, чтобы быть хорошей теорией. На самом деле возможность фальсификации может стать важнее, чем когда-либо: как только мы доверяем ИИ до такой степени, что утверждения и суждения ИИ считаются правильными именно потому, что «ИИ так говорит», у нас возникают настоящие проблемы. Итак, мы должны убедиться, что будут независимые средства для проверки этих теорий, утверждений и суждений.

Представьте, что ИИ придумал что-то вроде этого преувеличенного примера, p < 0.05основанного на большом количестве данных, собранных за многие годы. Это занимает много времени, чтобы быть фальсифицированным, если вообще когда-либо. Нужно ли нам что-то большее, основанное на объяснении механизмов, помимо фальсифицируемости?
@Xaqron Я думаю, у нас всегда было что опровергнуть что-то вроде этого: здравый смысл! (что в значительной степени касается базовых механизмов). Но я полагаю, что ваш вопрос тогда таков: будет ли здравый смысл по-прежнему применим, поскольку ИИ будет генерировать поток таких теорий, некоторые из которых изначально имеют гораздо большее правдоподобие? Что ж, хороший вопрос... может быть, наши методы проверки этих теорий потребуют других ИИ... но проверять мы будем, и проверять мы должны.
Вы правы, но кому-то просто нужны правильные цифры, чтобы опубликовать статью в медицинских журналах. В распознавании лиц мы даже не знаем, как ML классифицирует лица, и нам все равно. Но статистика показывает, что машина делает это даже лучше, чем человек. Мы теряем понимание, и оно будет накапливаться в будущем.
@Xaqron Да, я согласен!

Я не думаю, что фальсифицируемость (или теория в целом) устареет. Машинное обучение по-прежнему подчиняется законам статистики. Возможно, это правда, что в некоторых ограниченных областях с большим количеством данных мы все больше будем полагаться на сложные для интерпретации модели (например, искусственные нейронные сети) вместо более простых интерпретируемых моделей. Но в других областях у нас не будет достаточно данных или мы захотим обобщить их на другие случаи, когда у нас нет данных. Соответственно, во многих контекстах мы хотим сделать больше, чем просто предсказать будущие данные из того же процесса; мы хотим иметь представление о лежащем в основе механизме, например, чтобы предсказать, что произойдет, если мы изменим механизм, как мы можем улучшить этот механизм или использовать его в других контекстах и ​​т. д. См. соответствующее обсуждение здесь .