Имитирует ли съемка в более низком разрешении RAW с помощью камеры с кроп-сенсором качества полнокадровых камер?

Я не говорю об изменении фокусного расстояния.

Я читал много сообщений, в которых говорится, что в полнокадровой камере плотность пикселей ниже по сравнению с камерой с кроп-сенсором, поэтому она захватывает больше света и, следовательно, имеет лучшую производительность ISO и больший динамический диапазон. Так что, если я изменю камеру с помощью кроп-сенсора, чтобы снимать с более низким разрешением, будет ли это равноценно лучшей плотности пикселей и будет имитировать производительность полного кадра (или среднего формата) или она всегда будет снимать с максимальным разрешением и уменьшать размер?

--EDIT: 1--
У меня есть Canon 60D, и у меня есть 3 варианта размера изображения RAW (RAW, M-RAW и S-RAW). Если RAW - это просто дамп с датчиков камеры, как они могут быть 3 разных размеров? Камера также уменьшает изображения в формате RAW?

Вивек - прочитайте этот вопрос: photo.stackexchange.com/q/3419/1024 . Согласно @whuber (и статье, на которую он ссылается), меньшие RAW действительно представляют собой своего рода агрегацию отдельных сенсоров, как то, что Стэн описывает в своем ответе, только это делается программно, а не аппаратно.
(Ссылки на страницу ysap охватывают часть вопроса mraw/sraw.)
Я прочитаю документ от ysap и прокомментирую его.

Ответы (3)

Учитывая, что у вас есть Canon, более низкие режимы RAW, mRAW и sRAW, ДЕЙСТВИТЕЛЬНО ИСПОЛЬЗУЮТ ВСЕ доступные пиксели сенсора для получения более богатого результата без необходимости интерполяции Байера. Фактический выходной формат, хотя он все еще содержится в файле изображения Canon RAW .cr2, закодирован в формате Y'CbCr, подобно многим форматам раскрывающегося списка видео. Он хранит информацию о яркости для каждого ПОЛНОГО пикселя (четверка 2x2 из 1 красного, 1 синего и 2 зеленых пикселей), а каждый канал цветности выводится из данных полупикселя (пара 1x2 из 1 красного + 1 зеленого или 1 синего + 1 зеленого). .

Я не совсем уверен, каковы конкретные низкоуровневые аппаратные различия в чтении и кодировании между mRAW и sRAW, однако, вообще говоря, чем меньше выходной формат, тем больше входной информации о пикселях датчика вы можете использовать для каждого выходного пикселя. Небольшой объем интерполяции, присутствующий в m/sRAW, является спорным, поскольку оба формата интерполируют гораздо меньше, чем исходный RAW. Следует также отметить, что ни mRAW, ни sRAW не являются фактическими форматами «RAW» в обычном смысле… данные датчика обрабатываются и преобразуются во что-то еще, прежде чем они будут сохранены в файле .cr2.

Дополнительные сведения о форматах, производных от YUV, и Canon sRAW см. в моем ответе здесь: Почему цветовое пространство xvYCC не используется для фотосъемки?

Из «Понимание того, что хранится в файле Canon RAW .CR2»:

Формат sRaw («маленький RAW») был представлен в 1D Mark III в 2007 году. Это уменьшенная версия изображения RAW.

Для 1D Mark III, затем 1Ds Mark III и 40D (все с Digic III) размер sRaw составляет ровно 1/4 (одну четвертую) размера RAW. Таким образом, мы можем предположить, что каждая группа из 4 «сенсорных пикселей» суммируется в 1 «пиксель» для sRaw.

В 50D и 5D Mark II (с чипом Digic IV) формат RAW размером 1/4 все еще существует (sRaw2), а также появляется файл RAW половинного размера: sRaw1. В 7D половинный размер raw называется mraw (та же кодировка, что и sraw1), 1/4-й размер raw называется sraw (как и sraw2).

sRaw Jpeg без потерь всегда кодируется компонентом 3 цветов (nb_comp) и 15 битами.

Jpeg-код Dcraw был впервые изменен (8.79) для обработки sRaw из-за значения h=2 первого компонента (серый фон в таблице). В обычных RAW всегда h=1. Начиная с 50D, мы имеем v=2 вместо v=1 (оранжевый цвет в таблице). Dcraw 8.89 — первая версия, поддерживающая это, а также sraw1 от 50d и 5D Mark II.

«h» — горизонтальный коэффициент дискретизации, а «v» — вертикальный коэффициент дискретизации. Он указывает, сколько единиц данных по горизонтали/вертикали закодировано в каждом MCU (минимальная кодированная единица). См. Т-81, стр. 36.

3.2.1 Форматы sRaw и sRaw2

h=2 означает, что распакованные данные будут содержать 2 значения для первого компонента, 1 для столбца n и 1 для столбца n+1. С двумя другими компонентами, распакованными sraw и sraw2 (все они имеют h=2 и v=1), всегда есть 4 элементарных значения.

[ y1 y2 xz ] [ y1 y2 xz ] [ y1 y2 xz ] ...
(y1 и y2 для первого компонента)

Каждый «пиксель» в изображениях sRAW и mRAW содержит четыре компонента... разделенный компонент Y' (y1 и y2), а также x (синий цвет) и z (красный цвет). Все четыре компонента (с точки зрения 1/2 изображения, sRAW1/mRAW) имеют высоту столбца 2 (h) и ширину 1 (v). Это указывает на то, что значение яркости (Y') состоит из ПОЛНОГО квадрата пикселей 2x2... или двух столбцов пикселей 2x1, хранящихся в y1 и y2.

В приведенных ниже ссылках, похоже, это конкретно не указано, поэтому я немного размышляю здесь, однако с sRAW2 (1/4 raw) я полагаю, что информация о яркости будет получена из блока пикселей 4x4, где h = 4 и v = 2. Кодирование цветности станет более сложным для изображения размером 1/4, поскольку массив цветовых фильтров Байера на датчике не расположен в аккуратных красных и синих столбцах. Я не уверен, обрабатываются ли чередующиеся столбцы высоты 2x1 для каждого компонента Cr и Cb или выполняется какая-то другая форма интерполяции. Одно можно сказать наверняка... интерполяция исходных данных всегда больше, чем выходных данных, и, насколько я могу судить, не происходит никакого перекрытия (как при обычной байеровской интерполяции).

Наконец, файлы sRAW1/mRAW и sRAW/sRAW2 сжимаются с использованием алгоритма сжатия без потерь. Это важное различие между этими форматами и JPEG, который также использует кодировку типа ycc. JPEG выполняет сжатие с потерями, что делает невозможным восстановление пикселей до их точного исходного представления. Форматы Canon s/mRAW действительно можно восстановить до исходных 15-битных данных изображения с полной точностью.

Использованная литература:

Теоретически могло бы , если бы камера использовала правильную стратегию уменьшения размера изображения.

Как вы заметили, в современных камерах с кроп-сенсором необработанное изображение остается неизменным независимо от того, какой размер JPEG вы установили. Изображение JPEG просто масштабируется. Это может несколько уменьшить появление шума, но уменьшение происходит из-за алгоритма масштабирования изображения (вы не можете вместить столько крапчатых пикселей в меньшее изображение, сколько в полноразмерную версию). Однако более вероятно, что вы сможете добиться не меньшего, если не лучшего результата, если сделаете шумоподавление и масштабирование постфактум.

Существует стратегия, которая обеспечит истинное шумоподавление. Некоторые задние панели среднего формата с высоким разрешением (например, серия Phase One SensorPlus) используют стратегию, называемую объединением пикселей , когда группы соседних сенсоров рассматриваются как один гораздо больший сенсор, а их совокупный заряд считывается с сенсора. Это отличается от чтения отдельных зарядов и усреднения (это то, чем вы ограничены при обработке после чтения) — это происходит на аппаратном уровне и меняет значение «сырого». Шум считывания имеет больше шансов компенсироваться, а кумулятивный заряд делает аналого-цифровое преобразование менее неоднозначным (диапазон преобразуемых квантов шире при меньшем усилении).

На практике это обычно означает сокращение разрешения в четыре раза (половина ширины и половина высоты). С задней панелью среднего формата на 60 или 80 мегапикселей у вас все еще остается изображение с разрешением 15 или 20 мегапикселей; с 16-мегапиксельной камерой с кроп-сенсором вы получите 4-мегапиксельное необработанное изображение. Теперь вы, возможно, знаете, и я могу знать, что чистое 4-мегапиксельное изображение лучше шумного 16-мегапиксельного изображения, но не все согласятся с тем, что создание изображения меньшего размера требует дополнительных затрат. Это означает, что маловероятно, что в ближайшее время вы увидите объединение пикселей в чем-либо, кроме камеры профессионального уровня. Это может появиться в полнокадровых камерах, если их разрешение будет расти, но я бы не стал искать его в кроп-сенсоре. (Ну, может быть, Pentax когда-нибудь попытается, так как они не делают полнокадровые снимки.)

Извините, я думаю, что должен уточнить размеры изображений RAW. У меня Canon 60D, и у меня есть 3 варианта размера изображения RAW (RAW, M-RAW и S-RAW). Если RAW - это просто дамп с датчиков камеры, как они могут быть 3 разных размеров? Камера также уменьшает изображения в формате RAW?
@Stan: Canon уже делает именно то, что вы описали, со своими форматами mRAW и sRAW. Это не буквальные форматы RAW, они являются производными YUV (точнее, Y'CrCb), и они действительно относятся к формам объединения пикселей. Смотрите мой ответ для более подробной информации.
На будущее: реальное ограничение — это площадь сенсора. Если размер сенсора останется прежним, а разрешение увеличится (за счет уменьшения пикселей), чистого выигрыша от объединения пикселей не будет. Это просто вопрос использования большего количества сенсоров для считывания одной и той же физической области сенсора. На что мы можем надеяться, так это на улучшение чувствительности отдельных сенсоров, чтобы в любой данной небольшой части сенсора регистрировалось больше света и меньше шума.
@jrista: это не биннинг, это усреднение после чтения. Бинирование должно привести к интегральному снижению линейного разрешения, а данные отдельных фотосайтов недоступны для обработки, поскольку кумулятивные считывания (не отдельные, а затем усредненные считывания) выполняются по нескольким датчикам. (В квадроцикле Байера это означает 1/4, 1/16, 1/64 и т. д. полного разрешения, выраженного в виде площади или пикселей.) Усреднение после считывания технически ничем не отличается от масштабирования; он просто работает в другом пространстве данных.

Если ваша главная проблема — высокий уровень шума, одно из решений — снять несколько кадров и иметь программное обеспечение с хорошими алгоритмами, объединяющее одно хорошее изображение из нескольких худших. Например , это делает ALE, Anti-Lamenessing Engine . Для движущихся объектов это, очевидно, не работает, но вы можете снимать с рук, скажем, при ISO 1600, а затем комбинировать снимки, чтобы получить уровень шума, близкий к ISO 400 или 800.