Перекашивает ли широкоугольный эквивалент в кроп-сенсоре изображение?

Я вижу много сообщений как на этом форуме, так и в других местах, в которых обсуждается использование широкого угла на кроп-сенсоре. Например, они обсуждают, как при 14-мм объективе 14 мм на 35-мм пленке или полном кадре, но с 1,6-кратным кроп-датчиком это эффективные 28 мм. Мой вопрос: 14 мм на кроп-сенсоре такое же изображение, как 28 мм на полном кадре. Или «эффективный» включает в себя какой-то другой оттенок. Я читал, что 14 мм может создавать искажения на полном кадре и некоторую виньетку, поэтому люди, кажется, говорят, что использование его на кропе устраняет некоторые из этих проблем с краями. Меня смущает то, как объектив на самом деле снимает дополнительное изображение. Читая блог kenrockwells, я узнал, что широкий угол сохраняет линии прямыми, в то время как «рыбий глаз» на самом деле искажает линии.

Итак, как я понимаю, я все еще немного смущен тем, как изогнутый объектив, чтобы получить больший угол обзора, будет таким же, как обрезанная версия менее изогнутого объектива. Или «эффективный» относится только к объектам по сторонам, но не к искажению изображения. Или, если он другой, то настолько мал, что для фотографии не имеет значения? Техническое описание приветствуется, если есть общее понимание ситуации.

Спасибо!

Изменить: чтобы быть более понятным после комментариев,

Я конкретно говорю о конечной двумерной проекции из трехмерного пространства. Я прочитал оба этих предыдущих ответа. первое ближе к тому, о чем я говорю. Тем не менее, это все еще сбивает меня с толку. У меня есть опыт работы с 3D-моделированием и проекционными матрицами, что может сбить меня с толку. Но, например, я не понимаю изображения с объективом 50 мм, которые рисуются, начиная с сенсора, поэтому он показывает разное поле зрения для кропа и полного кадра. Если линза одна и та же, она получает такое же количество информации от мира, что делает луч, исходящий из определенного градуса от последней линзы, спроецированный в меньшее пространство, сенсор не проецируется, поэтому рисование линии от датчик мне непонятен. Расстояние от датчика до задней части объектива должно иметь некоторое влияние на проецируемый свет, но не представленный на изображениях. Кроме того, опять же из этого первого ответа говорится, что обрезка такая же, как масштабирование, но, насколько я понимаю, из того, как работает перспектива, она отличается, поскольку широкий угол будет проецировать линии иначе, чем маленькое поле зрения до того же размера, поэтому обрезка центр широкого угла и масштабирование чего-то очень разные. Это легко воссоздать в приложении opengl с различной матрицей проекции поля зрения, я думаю, что на уроках рисования люди также изучают это. Хорошим примером может служить «рыбий глаз», так как если бы кадрирование было таким же, как масштабирование, линза «рыбий глаз» сохраняла бы центр точно так же, как обычная линза, а затем градиент, направленный наружу, быстро создавал бы искаженную перспективу, но из того, что я вижу , это даже. Для меня эти изображения просто выглядят так, будто их сравнивают с кадрированными и полными кадрами в отношении ортогональных проекций.

Вы смешиваете несколько вопросов в один, так что становится трудно получить то, чего вы не понимаете. Сначала прочитайте этот предыдущий ответ , чтобы понять, что «делает» кроп-сенсор с объективом. Вот еще один ответ , который касается различий между полнокадровыми и кроп-сенсорами. Если после этого что-то непонятно, отредактируйте свой вопрос соответствующим образом. Старайтесь задавать по одному вопросу за раз.
Похоже, вы читали обрывки информации о фокусном расстоянии, дисторсии и т. д., но пока не совсем понимаете, как все это связано друг с другом. Кажется, вы задаете как минимум три разных вопроса о поле зрения на разных сенсорах, эффектах использования обычного/полнокадрового объектива на кроп-сенсоре и искажении объектива по сравнению с искажением перспективы. Попробуйте вычеркнуть все, о чем вы читали, и просто спросите простыми словами о том, чего вы не понимаете. В этом случае, предоставив меньше информации, будет легче ответить на ваш вопрос.
Я отредактировал свой вопрос. Чтобы добавить к моему вопросу, я почти уверен, что не понимаю, почему тот первый ответ, на который указал мне Барт, считается правильным. Он начинается с предпосылки сведения трехмерной задачи к двумерной, что не является реальностью, поскольку мир трехмерен, что кажется важным, когда вы говорите о перспективных проекциях, а не об ортогональной проекции.
Я думаю, что важно понять первую ссылку, прежде чем вы сможете перейти к другому вопросу. Конечно, мир трехмерен, но фотография — нет. Так что в фотографии я думаю, что безопасно сводить проблемы 3D к 2D. Пожалуйста, попытайтесь понять эту первую ссылку, отредактируйте свой вопрос и добавьте форматирование, чтобы можно было прочитать ваш вопрос. На этом сайте нет необходимости добавлять правку после оригинала, вы можете просто изменить исходный вопрос.
См. также photo.stackexchange.com/q/11338/15871 Если предположить, что круг изображения, отбрасываемый объективом, больше, чем датчик, на который он его отбрасывает, размер датчика определяет, какое поле зрения захватывается датчиком. Датчик меньшего размера записывает только центр круга изображения, датчик большего размера записывает большую его часть.

Ответы (2)

Вот краткий ответ: широкоугольный объектив на кроп-сенсоре искажает изображение точно так же, как в центре кадра на полнокадровом сенсоре . В свою очередь, это означает, что использование широкоугольного объектива (с малым фокусным расстоянием) на кроп-сенсоре дает такое же искажение перспективы, как и использование более узкого объектива (с большим фокусным расстоянием) на полнокадровом сенсоре, при этом увеличение фокусного расстояния прямо соответствует уменьшение размера кадра.

Но вы не думаете, что это правильно, так что давайте углубимся. :)

Я думаю, что это хорошо освещено в существующих ответах, но я думаю, что у вас есть некоторые основные заблуждения, которые слишком велики, чтобы описывать их в комментариях, поэтому я попробую здесь. Примечание для других читателей: если вы запутались в этой теме, но не обязательно имеете точно такой же мыслительный процесс, как этот вопрос, я действительно предлагаю начать с одной из ссылок, которые я даю ниже (или которые даны в комментариях к вопрос выше). Но если вы чувствуете, что вас смущают именно эти вещи, читайте дальше.

Во- первых, действительно ли моя камера с кроп-сенсором увеличивает фокусное расстояние объективов? это хорошее место для начала. Я знаю, вы еще не верите, но начните с того, что мой ответ правильный , а потом мы разберемся, почему .

Далее, давайте рассмотрим широкоугольное искажение и его причины. Проверьте вопрос Что на самом деле означает, что телеобъективы «сглаживают» сцены? и особенно прекрасная анимация чайника из Википедии:

из википедии

Это «широкоугольное искажение» — буквально вопрос перспективы. Не упустите из виду, что в этом примере камера движется назад, чтобы кадр не изменился.

Но объективы часто показывают другие виды искажений. Это несвязанная проблема из-за конструкции линзы, в которой проецируемое изображение не является прямолинейным идеалом. См. Что такое бочкообразная и подушкообразная дисторсия и как они исправляются? Это часто бывает особенно заметно в широкоугольных объективах, потому что широкоугольные объективы физически сложно спроектировать. Это часть того, почему существуют объективы типа «рыбий глаз»: они в основном отказываются от идеала прямолинейной проекции и используют другие проекции с такими названиями, как «равнополый угол». Но важно то, что это отличается от «широкоугольного искажения». Центр этой проекции действительно может выглядеть более естественно, чем края (см.Почему мой адаптер «рыбий глаз» не дает искажения «рыбий глаз» на моей цифровой зеркальной камере APS-C? ), но в целом это отвлекающий маневр.

Итак, пришло время поговорить о том, что такое «угол зрения» в фотографии? . Я вижу, что вы обеспокоены тем, что 2D-модель, которую я показываю, не отражает 3D-реальность. Это достаточно серьезное беспокойство, но ключевой момент заключается в том, что это не отображение из 3D в 2D (как на фотографии или в верхней части анимации выше). Это просто вид сверху, как во второй части анимации. Это напрямую соответствует 3D-ситуации. (Если это не имеет для вас смысла, скажите мне, почему, и мы проясним это.)

Еще одна проблема, связанная с ответом на угол зрения, связана с тем, что я проигнорировал расстояние от задней части объектива до датчика. Объективы современных камер сложны, состоят из множества различных линз, но математически они сводятся к одноточечной модели (по крайней мере, для этого вопроса). Подробнее о том, что такое фокусное расстояние, если есть также фокусное расстояние фланца? и Из какой точки отсчета рассчитывается фокусное расстояние объектива?

Вы также говорите

Если линза одна и та же, она получает такое же количество информации от мира, что делает луч, исходящий из определенного градуса от последней линзы, спроецированный в меньшее пространство, сенсор не проецируется, поэтому рисование линии от датчик не имеет смысла для меня

Я попытался осветить это в ответе с угла зрения, и я не уверен, что было непонятно, поэтому повторюсь. У каждого объектива есть круг изображения, который больше сенсора (или, точнее, те, которые не показывают черный цвет по углам и краям — см. Как круглая линза создает прямоугольные снимки? ). Этот круг изображения — это «количество информации», которую объектив извлекает из мира. Однако камера «снимает» только ту часть, которая действительно попадает на датчик, поэтому поле зрения вашего фактического снимка учитывает только эту часть. Вот почему мы рисуем конус от края. Если это поможет, вы можете нарисовать некоторые другие лучи и посмотреть, что с ними произойдет. (В этой модели они остаются прямыми, проходя через объектив.)

Вы также говорите, что меня смущает то, как объектив на самом деле снимает дополнительное изображение . Ну вот так: объектив всегда берет одинаковое количество, и такое же количество проецирует, но мы записываем из него больший или меньший прямоугольник.

Наконец, вы, безусловно, могли бы настроить демонстрацию этого в OpenGL, которая показала бы именно то, что я говорю. Если вы показываете что-то другое, это потому, что ваша модель меняет что-то, что не соответствует тому, что происходит, когда мы меняем фокусное расстояние или размер сенсора в камере. Разберитесь, что это такое, и исправьте.


О, и дополнение: в вашем исходном примере математики есть ошибка. Объектив 14 мм на датчике 1,6× имеет поле зрения, эквивалентное объективу 22,4 мм (обычно просто округленное, потому что реальные фокусные расстояния не такие точные) на камере с полнокадровым датчиком. (Это потому, что 14 мм × 1,6 = 22,4 мм, если расшифровать.) Это означает, что при одном и том же кадрировании вы стоите на одном и том же месте с объективом 14 мм на APS-C или объективом 22 мм на полном кадре, поэтому перспектива то же самое . С другой стороны, если у вас есть 14-миллиметровый объектив на обеих камерах, вы можете стоять в одном и том же месте, а затем обрезать полнокадровый результат в 1,6 раза (линейно) и получить фактически одинаковую фотографию .

Приведенный вами пример 14 мм → 28 мм, конечно же, будет соответствовать 2-кратному датчику кадрирования, такому как Micro Four Thirds.

Это было здорово! Перспективное изображение, которое вы показываете, вместе со ссылкой на куб было именно тем, что меня смутило. Я также понимаю ваш 2-й пример как диаграмму, а не отображение, что имеет смысл. Основная путаница, которая у меня была, пришедшая из 3д на компе, это то, что для того, чтобы получить одну и ту же информацию на экране с разным FOV, нужно отодвигать камеру ближе или дальше от объекта, что меня и смутило перспектива меняется. Что, в сочетании с тем, что внешние углы больше искажают изображение, в отличие от рыбьего глаза, смутило меня на поз. сенсора.
и под перекосом я подразумеваю, что объекты, расположенные дальше от поля зрения, «втягиваются» внутрь, поэтому они выглядят длиннее.
Для любых новичков в этом, таких как я, большая путаница для меня связана с терминологией. Как и пример, который я привел, 14 = 28, потому что в Интернете я нашел кого-то, кто сказал это (теперь я предполагаю, что он нашел ближайший подходящий объектив). Больше всего сбивает с толку использование 1,6x, что меня сбивает с толку, поскольку это не 1,6-кратное увеличение полнокадрового сенсора, а деление полного 35-мм сенсора.
@user1938107 user1938107 Да, есть много запутанной терминологии и много запутанной болтовни об этом в Интернете. Я понимаю, что вы говорите о том, что использование 1,6× вместо 0,625× сбивает с толку, но это потому, что мы обычно используем объективы, предназначенные для полного кадра, на камерах с кроп-сенсором, и очень редко делаем наоборот.

Перспектива определяется одним и только одним: расстоянием до объекта . Период.

Если вы сделали снимок, используя прямолинейный широкоугольный объектив, например 17 мм, который дает угол обзора по диагонали 104° на полнокадровой/35-мм камере, и обрезали получившееся изображение так, чтобы в поле зрения был только центр 3,08333°, вы бы иметь точно такую ​​же перспективу, как если бы вы сделали снимок с объективом 800 мм, который дает диагональный угол обзора 3,08333 °.

Почему бы нам всем просто не использовать широкоугольные объективы для каждого снимка, который мы делаем, а затем обрезать изображение, чтобы «увеличить» до размера изображения, которое мы хотим использовать? В основном плотность пикселей (или размер зерен в фотоэмульсии). Если бы мы использовали D800 с очень высоким разрешением 36 МП в приведенном выше примере, к тому времени, когда мы обрезали все изображение, кроме центра, снятого с помощью объектива 17 мм, чтобы получить угол обзора 800 мм, мы бы использовали только центр 0,01625 МП. То есть мы бы использовали центр 156x104 пикселей! Мы бы использовали только 1/2214 площади поверхности сенсора!

Я думаю, что путаница заключается в понимании того, как изображение, проецируемое прямолинейной линзой, отличается от изображения, проецируемого линзой «рыбий глаз», даже если они оба имеют одинаковое фокусное расстояние. Объектив «рыбий глаз» не пытается исправить геометрическое искажение, которое пытаются исправить прямолинейные объективы (и в большинстве случаев успешно).

Я не минусовал, но у меня есть вопрос. Даже если сенсор имеет теоретически идеальную плотность пикселей, не является ли сам объектив ограничивающим фактором в реальном мире?
@mattdm Конечно, разрешение объектива в конечном итоге станет ограничивающим фактором, но в большинстве текущих сценариев реального мира датчик по-прежнему оказывается первым. И те же законы физики, которые дают полнокадровым датчикам преимущество с точки зрения сбора света, применимы и при таком сильном кадрировании. Это также имело место в отношении зернистости пленки и различий в «плоскостности» пленки в эпоху доцифровых пленок. Но поскольку этот вопрос кажется скорее теоретическим, чем практическим, суть остается в том, что расстояние до субъекта определяет перспективу.
это было действительно недостающим звеном в том, что было моим непониманием
есть ли причина, по которой линзы «рыбий глаз» могут сближаться или, по памяти, даже перекрываться в диапазоне 8-10 мм, но я не вижу, чтобы многие обсуждали это. это то искажение, которое имеет для меня полный смысл, и я перепутал расстояние и поле зрения с углом от центра.
Вы можете сделать практичный объектив «рыбий глаз» даже длиннее 8-10 мм. Canon производит 14-мм объективы типа «рыбий глаз», а также 14-мм прямолинейные фикс-объективы. Они также производят зум-объектив «рыбий глаз» 8–15 мм и прямолинейный зум-объектив 11–24 мм. Все они предназначены для сенсоров с полным кадром. Они также делают пару прямолинейных зум-объективов для сенсора размера APS-C, которые имеют ширину 10 мм на широком конце.