Я вижу много сообщений как на этом форуме, так и в других местах, в которых обсуждается использование широкого угла на кроп-сенсоре. Например, они обсуждают, как при 14-мм объективе 14 мм на 35-мм пленке или полном кадре, но с 1,6-кратным кроп-датчиком это эффективные 28 мм. Мой вопрос: 14 мм на кроп-сенсоре такое же изображение, как 28 мм на полном кадре. Или «эффективный» включает в себя какой-то другой оттенок. Я читал, что 14 мм может создавать искажения на полном кадре и некоторую виньетку, поэтому люди, кажется, говорят, что использование его на кропе устраняет некоторые из этих проблем с краями. Меня смущает то, как объектив на самом деле снимает дополнительное изображение. Читая блог kenrockwells, я узнал, что широкий угол сохраняет линии прямыми, в то время как «рыбий глаз» на самом деле искажает линии.
Итак, как я понимаю, я все еще немного смущен тем, как изогнутый объектив, чтобы получить больший угол обзора, будет таким же, как обрезанная версия менее изогнутого объектива. Или «эффективный» относится только к объектам по сторонам, но не к искажению изображения. Или, если он другой, то настолько мал, что для фотографии не имеет значения? Техническое описание приветствуется, если есть общее понимание ситуации.
Спасибо!
Изменить: чтобы быть более понятным после комментариев,
Я конкретно говорю о конечной двумерной проекции из трехмерного пространства. Я прочитал оба этих предыдущих ответа. первое ближе к тому, о чем я говорю. Тем не менее, это все еще сбивает меня с толку. У меня есть опыт работы с 3D-моделированием и проекционными матрицами, что может сбить меня с толку. Но, например, я не понимаю изображения с объективом 50 мм, которые рисуются, начиная с сенсора, поэтому он показывает разное поле зрения для кропа и полного кадра. Если линза одна и та же, она получает такое же количество информации от мира, что делает луч, исходящий из определенного градуса от последней линзы, спроецированный в меньшее пространство, сенсор не проецируется, поэтому рисование линии от датчик мне непонятен. Расстояние от датчика до задней части объектива должно иметь некоторое влияние на проецируемый свет, но не представленный на изображениях. Кроме того, опять же из этого первого ответа говорится, что обрезка такая же, как масштабирование, но, насколько я понимаю, из того, как работает перспектива, она отличается, поскольку широкий угол будет проецировать линии иначе, чем маленькое поле зрения до того же размера, поэтому обрезка центр широкого угла и масштабирование чего-то очень разные. Это легко воссоздать в приложении opengl с различной матрицей проекции поля зрения, я думаю, что на уроках рисования люди также изучают это. Хорошим примером может служить «рыбий глаз», так как если бы кадрирование было таким же, как масштабирование, линза «рыбий глаз» сохраняла бы центр точно так же, как обычная линза, а затем градиент, направленный наружу, быстро создавал бы искаженную перспективу, но из того, что я вижу , это даже. Для меня эти изображения просто выглядят так, будто их сравнивают с кадрированными и полными кадрами в отношении ортогональных проекций.
Вот краткий ответ: широкоугольный объектив на кроп-сенсоре искажает изображение точно так же, как в центре кадра на полнокадровом сенсоре . В свою очередь, это означает, что использование широкоугольного объектива (с малым фокусным расстоянием) на кроп-сенсоре дает такое же искажение перспективы, как и использование более узкого объектива (с большим фокусным расстоянием) на полнокадровом сенсоре, при этом увеличение фокусного расстояния прямо соответствует уменьшение размера кадра.
Но вы не думаете, что это правильно, так что давайте углубимся. :)
Я думаю, что это хорошо освещено в существующих ответах, но я думаю, что у вас есть некоторые основные заблуждения, которые слишком велики, чтобы описывать их в комментариях, поэтому я попробую здесь. Примечание для других читателей: если вы запутались в этой теме, но не обязательно имеете точно такой же мыслительный процесс, как этот вопрос, я действительно предлагаю начать с одной из ссылок, которые я даю ниже (или которые даны в комментариях к вопрос выше). Но если вы чувствуете, что вас смущают именно эти вещи, читайте дальше.
Во- первых, действительно ли моя камера с кроп-сенсором увеличивает фокусное расстояние объективов? это хорошее место для начала. Я знаю, вы еще не верите, но начните с того, что мой ответ правильный , а потом мы разберемся, почему .
Далее, давайте рассмотрим широкоугольное искажение и его причины. Проверьте вопрос Что на самом деле означает, что телеобъективы «сглаживают» сцены? и особенно прекрасная анимация чайника из Википедии:
Это «широкоугольное искажение» — буквально вопрос перспективы. Не упустите из виду, что в этом примере камера движется назад, чтобы кадр не изменился.
Но объективы часто показывают другие виды искажений. Это несвязанная проблема из-за конструкции линзы, в которой проецируемое изображение не является прямолинейным идеалом. См. Что такое бочкообразная и подушкообразная дисторсия и как они исправляются? Это часто бывает особенно заметно в широкоугольных объективах, потому что широкоугольные объективы физически сложно спроектировать. Это часть того, почему существуют объективы типа «рыбий глаз»: они в основном отказываются от идеала прямолинейной проекции и используют другие проекции с такими названиями, как «равнополый угол». Но важно то, что это отличается от «широкоугольного искажения». Центр этой проекции действительно может выглядеть более естественно, чем края (см.Почему мой адаптер «рыбий глаз» не дает искажения «рыбий глаз» на моей цифровой зеркальной камере APS-C? ), но в целом это отвлекающий маневр.
Итак, пришло время поговорить о том, что такое «угол зрения» в фотографии? . Я вижу, что вы обеспокоены тем, что 2D-модель, которую я показываю, не отражает 3D-реальность. Это достаточно серьезное беспокойство, но ключевой момент заключается в том, что это не отображение из 3D в 2D (как на фотографии или в верхней части анимации выше). Это просто вид сверху, как во второй части анимации. Это напрямую соответствует 3D-ситуации. (Если это не имеет для вас смысла, скажите мне, почему, и мы проясним это.)
Еще одна проблема, связанная с ответом на угол зрения, связана с тем, что я проигнорировал расстояние от задней части объектива до датчика. Объективы современных камер сложны, состоят из множества различных линз, но математически они сводятся к одноточечной модели (по крайней мере, для этого вопроса). Подробнее о том, что такое фокусное расстояние, если есть также фокусное расстояние фланца? и Из какой точки отсчета рассчитывается фокусное расстояние объектива?
Вы также говорите
Если линза одна и та же, она получает такое же количество информации от мира, что делает луч, исходящий из определенного градуса от последней линзы, спроецированный в меньшее пространство, сенсор не проецируется, поэтому рисование линии от датчик не имеет смысла для меня
Я попытался осветить это в ответе с угла зрения, и я не уверен, что было непонятно, поэтому повторюсь. У каждого объектива есть круг изображения, который больше сенсора (или, точнее, те, которые не показывают черный цвет по углам и краям — см. Как круглая линза создает прямоугольные снимки? ). Этот круг изображения — это «количество информации», которую объектив извлекает из мира. Однако камера «снимает» только ту часть, которая действительно попадает на датчик, поэтому поле зрения вашего фактического снимка учитывает только эту часть. Вот почему мы рисуем конус от края. Если это поможет, вы можете нарисовать некоторые другие лучи и посмотреть, что с ними произойдет. (В этой модели они остаются прямыми, проходя через объектив.)
Вы также говорите, что меня смущает то, как объектив на самом деле снимает дополнительное изображение . Ну вот так: объектив всегда берет одинаковое количество, и такое же количество проецирует, но мы записываем из него больший или меньший прямоугольник.
Наконец, вы, безусловно, могли бы настроить демонстрацию этого в OpenGL, которая показала бы именно то, что я говорю. Если вы показываете что-то другое, это потому, что ваша модель меняет что-то, что не соответствует тому, что происходит, когда мы меняем фокусное расстояние или размер сенсора в камере. Разберитесь, что это такое, и исправьте.
О, и дополнение: в вашем исходном примере математики есть ошибка. Объектив 14 мм на датчике 1,6× имеет поле зрения, эквивалентное объективу 22,4 мм (обычно просто округленное, потому что реальные фокусные расстояния не такие точные) на камере с полнокадровым датчиком. (Это потому, что 14 мм × 1,6 = 22,4 мм, если расшифровать.) Это означает, что при одном и том же кадрировании вы стоите на одном и том же месте с объективом 14 мм на APS-C или объективом 22 мм на полном кадре, поэтому перспектива то же самое . С другой стороны, если у вас есть 14-миллиметровый объектив на обеих камерах, вы можете стоять в одном и том же месте, а затем обрезать полнокадровый результат в 1,6 раза (линейно) и получить фактически одинаковую фотографию .
Приведенный вами пример 14 мм → 28 мм, конечно же, будет соответствовать 2-кратному датчику кадрирования, такому как Micro Four Thirds.
Перспектива определяется одним и только одним: расстоянием до объекта . Период.
Если вы сделали снимок, используя прямолинейный широкоугольный объектив, например 17 мм, который дает угол обзора по диагонали 104° на полнокадровой/35-мм камере, и обрезали получившееся изображение так, чтобы в поле зрения был только центр 3,08333°, вы бы иметь точно такую же перспективу, как если бы вы сделали снимок с объективом 800 мм, который дает диагональный угол обзора 3,08333 °.
Почему бы нам всем просто не использовать широкоугольные объективы для каждого снимка, который мы делаем, а затем обрезать изображение, чтобы «увеличить» до размера изображения, которое мы хотим использовать? В основном плотность пикселей (или размер зерен в фотоэмульсии). Если бы мы использовали D800 с очень высоким разрешением 36 МП в приведенном выше примере, к тому времени, когда мы обрезали все изображение, кроме центра, снятого с помощью объектива 17 мм, чтобы получить угол обзора 800 мм, мы бы использовали только центр 0,01625 МП. То есть мы бы использовали центр 156x104 пикселей! Мы бы использовали только 1/2214 площади поверхности сенсора!
Я думаю, что путаница заключается в понимании того, как изображение, проецируемое прямолинейной линзой, отличается от изображения, проецируемого линзой «рыбий глаз», даже если они оба имеют одинаковое фокусное расстояние. Объектив «рыбий глаз» не пытается исправить геометрическое искажение, которое пытаются исправить прямолинейные объективы (и в большинстве случаев успешно).
Саару Линдестокке
Норман Ли
пользователь-2147482637
Саару Линдестокке
Майкл С