Каковы основные принципы работы камеры светового поля Lytro?

lytro.com описывает свою новую камеру светового поля как способную захватывать все световое поле, а не только одну плоскость света, тем самым предоставляя совершенно новый набор возможностей постобработки, включая настройку фокуса и перспективы.

Какой датчик мог бы «уловить каждый луч света во всех направлениях в любой момент времени»? Как можно закодировать и обработать практически бесконечное количество информации? Будет ли впереди линза в традиционном понимании?

Вот диссертация изобретателя: http://www.lytro.com/renng-thesis.pdf

Может ли кто-нибудь объяснить это тем из нас, кто знаком с традиционными технологиями?

вау, пресса у этих парней сегодня просто загорелась...
Надеюсь, это больше, чем "единороги".
Увидев камеру в действии год или около того назад, это НЕВЕРОЯТНО КРУТО... никаких единорогов.
Я не понимаю, как кто-то сможет ответить на этот вопрос, кроме команды из 45 человек, которая работает в компании.
@dpollitt тезис говорит сам за себя ... звучит так, будто он просто пытается понять это в традиционных терминах.
"при частичном выполнении требований для получения степени доктора философии" Вот это круто!

Ответы (2)

Простой способ думать об этом выглядит следующим образом:

Представьте, что вместо одной камеры у вас есть сетка из 100 камер в массиве 10x10. Когда вы делаете выстрел, каждый из них стреляет одновременно. У каждого из них будет немного другой взгляд на то, что вы фотографируете. Есть некоторые математические модели, которые вы можете использовать для «обратного проектирования» изображения и его перестройки различными способами. Это то, о чем идет речь, за исключением того, что вместо 100 камер у вас есть тысячи, и все они образованы массивом линз прямо над плоскостью сенсора. Таким образом, изображение, которое выходит с сенсора камеры, состоит из множества кружков частичных изображений, каждое из которых незначительно отличается от соседнего. Затем они используют математику для повторной сборки единого изображения из этих частичных изображений.

Это хорошее резюме их объяснения «эффекта». Надеюсь на краткое описание реализации. Что воспринимает датчик, все лучи/направления/моменты? Как такой бесконечный набор атрибутов может быть закодирован в цифровом виде?
В его диссертации есть несколько примеров того, что улавливает датчик. См. рис. 3.3, 3.5, 3.7, 4.11-Б и т. д.

Вот мои слова после прочтения очень доступной статьи Рен Нг.

В традиционной цифровой камере падающий свет фокусируется на плоскости, датчике, который измеряет яркость каждой светочувствительной ячейки, пикселя. Это создает окончательное изображение в том смысле, что результирующий растр значений может быть построен как связное изображение.

Камера светового поля ( пленоптическая ) использует датчик того же типа, но перед датчиком размещается массив микролинз. Это становится плоскостью изображения и определяет разрешение пикселей постобработанных изображений, а не датчика в целом. Каждая микролинза улавливает световые лучи в различных направлениях, создавая «субапертурное изображение», которое записывается в группу ячеек на датчике. Полезная схема из статьи:

введите описание изображения здесь

Обычная фотография, которая была бы сформирована, может быть получена путем суммирования массива субапертурных изображений для каждого пикселя. Но дело в том, что выводы становятся возможными благодаря использованию вычислений трассировки лучей. (Леонардо де Винчи позавидовал бы.) В частности, глубиной резкости можно управлять, тем самым устраняя связь между традиционными оковами апертуры и глубины резкости. Также возможна коррекция аберрации объектива.

В документе говорится, что «все» световое поле и «все» направления света могут быть захвачены, тогда как на самом деле это будет ограничено количеством микролинз, площадью сенсора под каждой из них и т. д. Конечно, как и все в противном случае, если к нему можно добавить достаточное разрешение, можно сказать «практически все». Поэтому я полагаю, что камеры Plenoptic будут рекламировать количество пикселей и количество лучей.