Может ли метод из статьи «Высококачественное вычислительное изображение с помощью простых линз» конкурировать с обычными линзами?

Этот ответ на другой мой вопрос связан с интересной статьей: Высококачественная вычислительная визуализация с помощью простых линз . Он предлагает использовать простую оптику и методы вычислительной фотографии для компенсации различных артефактов, возникающих вместо сложных систем линз, к которым мы привыкли сегодня.

Я инженер и понимаю математику, стоящую за бумагой, но я серьезно сомневаюсь, что дизайнеры гораздо более сложных коммерческих объективов не подумали об этом (и имеют веские причины не реализовывать это). Я понимаю, что природа PSF (функция рассеяния точки) создает проблемы при более широкой диафрагме, но сегодня есть более дешевые и медленные объективы для зеркальных фотокамер, которые могли бы использовать эту технологию. Если бы это была жизнеспособная альтернатива, она уже должна была бы существовать.

Конечно, внедрение этих линз, если бы они могли конкурировать с обычными системами линз, убило бы собственный рынок производителей более дешевых обычных линз, но это также дало бы им преимущество в конкурентной борьбе. Также есть вероятность (я думаю, очень малая), что дизайнеры об этом не подумали. Это также может быть так просто, что метод не обеспечивает качества, которое обеспечивают сложные системы линз.

Имеет ли этот метод какое-либо реальное содержание и применение в реальном мире, или это просто принятие желаемого за действительное с очень академической точки зрения?

Обратите внимание, что я никоим образом не придираюсь к ученым, стоящим за статьей. Новые идеи прекрасны, великие открытия делаются постоянно, но многие исследования так и не доходят до отрасли.

Я понимаю идею того, что происходит, используя эту технику. (Я сам написал прототип такой штуки). Я не уверен на 100%, как быстро реализовать деконволюцию и насколько она быстра. Но я думаю, что необходимая вычислительная мощность огромна. Кроме того, я предполагаю, что детализация на фотографии должна быть очень высокой. Мой прототип не работал с 8-битными изображениями PNG. Мне нужно было использовать цвета с высокой детализацией (например, 16 бит), чтобы получить желаемые результаты. Просто в качестве демонстрации, способ, которым я реализовал деконволюцию (которая была с огромной системой уравнений), мой компьютер вычислил более 5 часов для изображения размером 0,3 МП.
О, гадания! Можно я тоже поиграю? Этот метод основан на знании всего об объективе при всех диафрагмах и фокусных расстояниях, поэтому нет смысла искать его в системе со сменными объективами, если только это не огороженный сад. И это переносит стоимость, а не устраняет ее. Так как насчет того, чтобы сделать компактные камеры с фиксированным объективом более компактными? Изогнутый датчик Sony направлен прямо на ту же цель.
Я не уверен, что сообщество сможет дать какой-либо канонический ответ на этот вопрос, кроме «время покажет». Я считаю, что такие алгоритмы повысят эффективность и увеличат вычислительную мощность (включая специализированное оборудование/асики) для обработки в разумные сроки и с большей вероятностью станут частью рабочего процесса постобработки на том основании, что если они могут обеспечить значительные улучшения в «плохих» или простых конструкциях линз, а также более сложное/тяжело спроектированное стекло также должны принести пользу.

Ответы (1)

Проблемой любой попытки обратить оптическое размытие путем оценки/моделирования функции рассеяния точки является шум. В принципе, если вы знаете, как объектив размывает изображение, и имеете точную версию размытого изображения, вы можете восстановить исходное «неразмытое» изображение.

Но при наличии шума у ​​вас на самом деле не размытое изображение, у вас есть размытое изображение + груз неопределенности, который вы не можете удалить, и методы деконволюции очень быстро разваливаются.

Я не могу себе представить, что существует большой рынок объективов, которые нельзя использовать при значениях ISO выше 100…