Мне интересно, можно ли взять стереоскопическое изображение и суммировать их таким образом, чтобы сделать его моноскопическим изображением с результирующей точкой обзора в центре того места, где на самом деле находятся две точки обзора.
Например, если бы у меня было две камеры на расстоянии около 1 фута друг от друга, каждая из которых одновременно снимает изображение объекта на расстоянии 3 фута, могу ли я получить полученные изображения, обработать их и сделать так, чтобы результирующее изображение выглядело так, как если бы оно было снято с 3-й камеры, расположенной в центре двух внешних?
Существуют ли инструменты для такого рода интерполяции? Я помню пару сцен во время создания «Матрицы » , где говорили о заполнении кадров вращением, и для съемки требовалось всего 4 или 5 камер. (Честно говоря, я также помню тот момент, когда у них было множество камер, каждая из которых снимала один кадр.)
Это возможно? Если да, то какие инструменты вы бы использовали для этого?
Вероятно, в большинстве случаев вы могли бы реконструировать изображение, которое выглядит убедительно, но вы не можете воссоздать то, что на самом деле видно из точки между точками обзора.
Возьмем, к примеру, изображение, сделанное прямо перед деревянным забором, где две точки обзора находятся посередине панели, так что они обе видят только панель. Промежуточная точка обзора будет видна между панелями:
^
|
--- | ---
o x o
Конечно, невозможно воссоздать то, что видно между панелями, по двум изображениям панели.
На большинстве изображений были бы определенные углы, которые не были бы видны ни с одной точки зрения, но были бы видны с точки зрения посередине. Инструмент, создающий моноскопическое изображение, должен был бы угадать, что можно было увидеть.
Посмотрите Пику Пику .
Насколько я могу судить, они используют что-то вроде оптического потока, чтобы найти совпадающие пиксели на двух изображениях, а затем используют информацию о глубине для создания интерполированного представления с простым предположением ближайшего соседа для отсутствующих пикселей. Он довольно хорошо работает со стереоскопическими изображениями, с которыми я пробовал, и дает улучшенный эффект по сравнению с покачивающейся стереоскопией . Вы можете увидеть заполненные пиксели и некоторые ошибки в этом примере .
Обычно это называется интерполяцией вида .
Во многих подобных случаях, таких как деревянный забор Гуффа, это невозможно. В некоторых других случаях, таких как бесконечно удаленный фокус, это тривиально. Для всего, что между ними, это действительно очень сложно. Для этого есть программы, включая прошивку для Kinect. Хитрость заключается в том, что вы должны взять два вида и использовать их для создания 3D-модели мира перед камерой, а затем создать вид этого мира из нужной точки.
В некоторых текущих проектах Kinect можно произвольно перемещать виртуальную точку обзора, глядя на сцену сверху или сбоку. Чем дальше от камер вы перемещаетесь, тем больше недоступной информации, а значит, тем больше пробелов в результирующей картинке.
Рид