Обработка стереоскопического изображения для преобразования из 3D в 2D

Мне интересно, можно ли взять стереоскопическое изображение и суммировать их таким образом, чтобы сделать его моноскопическим изображением с результирующей точкой обзора в центре того места, где на самом деле находятся две точки обзора.

Например, если бы у меня было две камеры на расстоянии около 1 фута друг от друга, каждая из которых одновременно снимает изображение объекта на расстоянии 3 фута, могу ли я получить полученные изображения, обработать их и сделать так, чтобы результирующее изображение выглядело так, как если бы оно было снято с 3-й камеры, расположенной в центре двух внешних?

Существуют ли инструменты для такого рода интерполяции? Я помню пару сцен во время создания «Матрицы » , где говорили о заполнении кадров вращением, и для съемки требовалось всего 4 или 5 камер. (Честно говоря, я также помню тот момент, когда у них было множество камер, каждая из которых снимала один кадр.)

Это возможно? Если да, то какие инструменты вы бы использовали для этого?

Мне кажется в тему. Я взял на себя смелость удалить самоуничижение. Добро пожаловать на фото.СЕ!

Ответы (3)

Вероятно, в большинстве случаев вы могли бы реконструировать изображение, которое выглядит убедительно, но вы не можете воссоздать то, что на самом деле видно из точки между точками обзора.

Возьмем, к примеру, изображение, сделанное прямо перед деревянным забором, где две точки обзора находятся посередине панели, так что они обе видят только панель. Промежуточная точка обзора будет видна между панелями:

    ^
    |
--- | ---
 o  x  o

Конечно, невозможно воссоздать то, что видно между панелями, по двум изображениям панели.

На большинстве изображений были бы определенные углы, которые не были бы видны ни с одной точки зрения, но были бы видны с точки зрения посередине. Инструмент, создающий моноскопическое изображение, должен был бы угадать, что можно было увидеть.

Посмотрите Пику Пику .

Насколько я могу судить, они используют что-то вроде оптического потока, чтобы найти совпадающие пиксели на двух изображениях, а затем используют информацию о глубине для создания интерполированного представления с простым предположением ближайшего соседа для отсутствующих пикселей. Он довольно хорошо работает со стереоскопическими изображениями, с которыми я пробовал, и дает улучшенный эффект по сравнению с покачивающейся стереоскопией . Вы можете увидеть заполненные пиксели и некоторые ошибки в этом примере .

Обычно это называется интерполяцией вида .

+1 за оптический поток. Еще одна возможность для этого — отличный плагин Foundry Kronos для After Effects. Аренда лицензии стоит менее 1 доллара в день.

Во многих подобных случаях, таких как деревянный забор Гуффа, это невозможно. В некоторых других случаях, таких как бесконечно удаленный фокус, это тривиально. Для всего, что между ними, это действительно очень сложно. Для этого есть программы, включая прошивку для Kinect. Хитрость заключается в том, что вы должны взять два вида и использовать их для создания 3D-модели мира перед камерой, а затем создать вид этого мира из нужной точки.

В некоторых текущих проектах Kinect можно произвольно перемещать виртуальную точку обзора, глядя на сцену сверху или сбоку. Чем дальше от камер вы перемещаетесь, тем больше недоступной информации, а значит, тем больше пробелов в результирующей картинке.

Очень интересно. Я понятия не имел, что Kinect может сделать это. У меня сложилось впечатление, что при съемке изображений или видео будет просто использоваться одна камера, а использование обеих камер предназначено исключительно для расчета 3D-аспектов. Очень интересно...
Вы получаете видео только с одной камеры за раз, но можете переключаться между ними. Затем вы получаете две разные почти совпадающие модели мира, на которых основывается ваша окончательная проекция.
Интересно, используют ли они для этого технологии, разработанные Microsoft Research для Photosynth ...