Вильям Оккам в XIV веке едва ли мог себе представить, насколько сильно может измениться философия науки. Затем, когда Бэкон дал нам индуктивизм в 17 веке, можно увидеть непосредственную синергию. Индуктивизм с его склонностью к верификации хорошо служил бы бритвой, дающей самую легкую для верификации теорию.
После логического позитивизма и особенно влияния Поппера у нас есть сегодня общая практика в науке выбирать теории на основе того, что они (наиболее легко) фальсифицируемы . Тем не менее бритва Оккама по-прежнему считается золотым стандартом для выбора теорий.
Вопрос: Кто-нибудь прокомментировал это внешне цельное, но диаметрально измененное приложение?
Насколько я понимаю, бритва Оккама — это просто методологическое правило, принцип экономии, который говорит нам не принимать больше, чем нам абсолютно необходимо для объяснения чего-либо — объекта, события, положения дел или чего-то еще. .
Отсюда старая знакомая фраза «бритва Оккама сбрила Платону бороду» — означающая, что нет необходимости допускать существование платоновских форм ( eide или ideai ), чтобы объяснить природу и поведение (скажем) объектов в пространстве и времени.
Razor — это призыв к устранению избыточности в объяснении.
Я вижу связь с логическим позитивизмом, который удалил из науки и повседневного дискурса метафизические сущности, считавшиеся LP фальшивыми. ЛП, конечно, мягко говоря, не видели необходимости предполагать существование таких сущностей.
Из этого, по-видимому, не следует, что теорию или гипотезу, которая предполагает наименьшее необходимое для объяснения чего-либо, легче всего проверить или опровергнуть. Удаление избыточности из теории или гипотезы может привести к набору конкурирующих теорий или гипотез, которые одинаково трудно проверить. Теория, очищенная от ненужных предположений, не обязательно должна иметь «наименьшее количество предположений» или быть «наименее обремененной переменными, которые необходимо учитывать» (Кристо). Другие, конкурирующие теории могут иметь больше предположений и быть обременены большим количеством переменных — только они не являются ненужными.
В машинном обучении и статистике бритва Оккама имеет точную математическую интерпретацию: https://en.m.wikipedia.org/wiki/Occam_learning Основная идея заключается в том, что, сосредоточив внимание на более простых объяснениях, гораздо меньше шансов переоценить данные — явление, когда кто-то пытается объяснить данные с помощью чрезвычайно сложной гипотезы, которая объясняет все существующие данные, но не поддерживает новые данные.
Мауро АЛЛЕГРАНСА
Мауро АЛЛЕГРАНСА
Дэн Хикс
Конифолд
Кристо183