Возможна ли установка «универсальной экспозиции» на практике?

Не уверен, насколько необразованный этот вопрос, но мне интересно учиться, поэтому заранее спасибо за ваше снисхождение.

Пленка физически меняется в течение периода времени, в течение которого она экспонируется. Однако цифровой датчик этого не делает; это просто чтение данных. Есть ли какая-то причина, по которой нельзя заставить камеру «запоминать» показания сенсора в каждой точке экспозиции? Это просто данные. Это может быть много данных, но иногда это может понадобиться, не так ли? Дает гораздо больше гибкости в постобработке.

Если бы хранение данных не было проблемой, есть ли причина, по которой это не могло бы быть нормой, по крайней мере, для профессиональной и художественной фотографии?

Любопытно, что это почти то же самое, что делают наши глаза. HDR разработан, чтобы попытаться реконструировать алгоритмы, выполняемые в наших клетках сетчатки и зрительной коре, и эмулировать их как можно лучше.
@CortAmmon И даже в этом случае самые продвинутые простые глаза имеют дополнительную функцию радужной оболочки, которая расширяется или сужается, чтобы пропускать больше или меньше света через зрачок в качестве дополнительного компонента в регулировании интенсивности. (Конечно, глаза тоже не сразу приспосабливаются, что легко показать при переходе из области яркого света в область слабого света или, что более болезненно, наоборот.)
Цифровой датчик также физически меняется под воздействием света (можно обсуждать «физический», «химический» и «электрический», но я могу утверждать, что это одно и то же). «Идеальная» камера записывала бы положение/время/угол каждого фотона; довольно сложно (настоящее совершенство невозможно из-за Гейзенберга), если только вы не пойдете на компромиссы: имеете дело с очень небольшим количеством фотонов в определенной полосе ( двухфотонное возбуждение , детекторы нейтрино )
@Cort Ammom Я думаю, что вы на правильном пути с упоминанием HDR, в котором используется концепция настроек многократной экспозиции, интегрированных обратно в одно изображение высокой четкости. Чтобы получить эту функциональность в режиме реального времени без необходимости изменения настроек, я думаю, потребуется иметь камеру с несколькими объективами — возможно, 5 будет достаточно для достойных изображений уровня HDR.
Это то, что делают наши глаза, Корт? Насколько я понимаю, наши глаза сканируют сцену перед нами, регулируя фокус и экспозицию (очень быстро, но далеко не мгновенно) по мере движения. И что наши мозги составляют картинку из результата. HDR ближе — эффективно брекетинг экспозиции сцены, а затем объединение наиболее экспонированных частей. На самом деле, очень близко - в ситуации с высоким динамическим диапазоном глаз, вероятно, часто временно плохо экспонирует, но мы «забываем» эти моменты при составлении нашей картины сцены.

Ответы (6)

Цифровой датчик на самом деле не лучше всего описывается как «считывание данных». Гораздо лучший способ описать это — «сбор фотонов», которые затем преобразуются в данные путем измерения микроскопических электрических зарядов, которые они производят после окончания периода сбора . У них нет возможности непрерывно записывать изменение состояния каждого пикселя, когда они собирают свет. И в зависимости от того, как мало или сколько света падает на датчик, может пройти много времени, прежде чем достаточное количество фотонов ударит по датчику, прежде чем будут сгенерированы что-то большее, чем случайные данные. С другой стороны, при очень ярком свете иногда все пиксельные лунки могут заполняться так быстро, что любые дополнительные фотоны, попадающие на матрицу, теряются.

В первом сценарии собирается недостаточно фотонов, чтобы создать различимую картину через «шум», создаваемый энергией, протекающей через датчик, который используется для сбора напряжений, создаваемых фотонами, попадающими в пиксельные лунки. Таким образом, никакая полезная информация не собирается. Вся ваша фотография темная со случайными пятнами цвета и света.

Во втором сценарии собирается так много фотонов, что каждый пиксель считывается с одним и тем же максимальным значением, называемым полной насыщенностью, и, поскольку каждый пиксель изображения имеет одинаковое значение, никакая полезная информация не сохраняется. Вся ваша фотография сплошного ярко-белого цвета.

Только когда на датчик попадает достаточное количество фотонов, области с большим количеством фотонов в единицу времени имеют более высокое значение считывания, чем области с меньшим количеством фотонов, поражающих их в единицу времени. Только тогда датчик собирает значимую информацию, которая может различать области различной яркости.

Представьте, что у вас во дворе стоит несколько ведер с водой, чтобы собирать капли дождя. Представьте, что во всех них есть немного воды, но вы выливаете ее перед тем, как поставить их. Некоторые из них размещаются под карнизом крыши вашего дома. Некоторые из них размещены под большими деревьями в вашем дворе. Некоторые из них размещены на открытом воздухе. Некоторые помещаются под носик, который сбрасывает воду из водосточных желобов во двор. Затем начинается дождь.

Предположим, что дождь идет очень короткое время: 15 секунд. В каждом ведре несколько капель воды. Но в каждом ведре недостаточно воды, чтобы можно было сказать, было ли в каждом ведре больше дождевой воды или в ведре осталось еще несколько капель, когда вы вылили воду, прежде чем поставить ведра. во дворе. Поскольку у вас недостаточно данных, чтобы определить, сколько дождя выпало на какую часть двора, вы выливаете все ведра и ждете, когда снова пойдет дождь.

На этот раз дождь идет несколько дней. К тому времени, когда дождь прекращается, все ведра во дворе переполняются. Даже если вы совершенно уверены, что некоторые ведра наполняются быстрее, чем другие, у вас нет возможности узнать, какие ведра наполнились быстрее, а какие ведра наполнились последними. Так что вам нужно снова вылить ведра и дождаться нового дождя.

С третьей попытки дождь идет три часа, а затем прекращается. Вы выходите во двор и осматриваете свои ведра. Некоторые почти заполнены! В некоторых практически нет воды! Большинство из них имеют различное количество воды между двумя крайностями. Теперь вы можете использовать местоположение каждого ведра, чтобы определить, сколько дождя выпало на каждый участок вашего двора.

Причина, по которой мы изменяем экспозицию в цифровых камерах, состоит в том, чтобы попытаться собрать достаточно света, чтобы самые яркие области были почти, но не совсем, насыщенными.В идеале это происходит с камерой при базовой чувствительности ISO. Иногда, однако, для этого недостаточно света. Даже при максимально доступной диафрагме мы не можем собрать достаточно света за самое долгое время, в течение которого оставляем затвор открытым (из-за движения наших объектов). Что мы делаем в этом случае, так это настраиваем настройку ISO в нашей камере так, чтобы все значения, поступающие с датчика, умножались на коэффициент, который приводит самые высокие значения к точке, где они почти, но не полностью насыщены. К сожалению, когда мы усиливаем сигнал (напряжения, создаваемые фотонами, попадающими в лунки пикселей), мы также усиливаем шум (случайные неравномерные напряжения, создаваемые током, используемым для сбора напряжений с каждой лунки пикселей). Это приводит к более низкому отношению сигнал/шум .что уменьшает количество деталей, которые мы можем создать из данных, собранных с датчика.

Существуют и другие технические ограничения, которые не позволяют камерам вести «нарастающий итог» количества фотонов, собранных с различными интервалами, пока затвор открыт. Бросьте достаточно денег на проблему, и некоторые из этих ограничений можно будет преодолеть, по крайней мере частично. Но либо законы физики должны быть изменены, либо нам нужно полностью изменить способ, которым датчики считают фотоны, прежде чем можно будет преодолеть другие из этих ограничений. В конце концов, технология некоторых или всех этих устройств может заменить способ, которым мы в настоящее время снимаем изображения очень высокого качества, но мы еще далеки от этого.

Раздел, цитируемый блоком, взят откуда-то из другого места, и для него требуется указание авторства, или вы просто пытаетесь выделить его по какой-то причине?
Это не цитата. Это моя собственная иллюстрация. Форматирование блочной цитаты использовалось, чтобы отделить его от остальной части ответа. Я решил сделать это таким образом, потому что я чувствовал, что среди доступных вариантов форматирования это был лучший выбор.
Следует отметить, что мы потенциально могли бы захватывать более короткие выдержки из более длинных, если мы разработаем датчики, которые мы можем опрашивать достаточно быстро — например, мы могли бы использовать выдержку в 1 секунду, но захватывать 1/250, 1/125, 1/60, 1/30 и т. д. от этого, многократно считывая датчик в течение этого времени и сохраняя своего рода «нарастающую сумму». Мы уже можем это сделать, но это не очень хорошо разработано и имеет ограничения на то, насколько короткая выдержка мы можем захватить.
Считывание занимает слишком много времени на датчиках с высоким разрешением. И многие кадры не задерживаются ни на секунду. Иногда 1/1000 недостаточно.
«Нарастающая сумма» — потенциально вводящая в заблуждение фраза. Что сейчас делают датчики, так это сохраняют «нарастающий итог» фотонов, наблюдаемых во время экспонирования. Я думаю, что вы имеете в виду в этом ответе и что имеет в виду @JonStory в своем комментарии, это сохранить серию очень коротких образцов из каждого пикселя.
Отсюда и кавычки вокруг «нарастающей суммы». Дело в том, что мы будем опрашивать через определенные промежутки времени и вычислять/сохранять значение для каждого воздействия по мере необходимости. Я подходил к этому с точки зрения программного обеспечения (т. е. сохранения в 1/1000, затем 1/500), а не механики датчика.
Это не что иное, как прославленный брекетинг. Что трудно сделать, когда вы снимаете спортсменов мирового класса со скоростью 10+ кадров в секунду. С широкими необработанными файлами, которые в настоящее время дают нам любой достойный фотограф, он должен быть в состоянии достаточно хорошо выставить экспозицию, чтобы получить желаемый результат. И помните, что с затвором в фокальной плоскости любому телевизору короче, чем скорость синхронизации, по-прежнему требуется столько же времени, сколько скорость синхронизации для двух шторок, чтобы пройти датчик. И затем есть время считывания, необходимое для того, чтобы датчик мог быть очищен для следующего кадра.
Как мы указали в нашем ответе, есть несколько способов обойти некоторые физические ограничения, но они дороги в исполнении и оставляют желать лучшего для определенных целей. Они, конечно, еще не практичны , к чему и относится вопрос.
Наилучшая окупаемость инвестиций в этом направлении в последние годы была связана с появлением экспонометров, которые независимо чувствительны к красному, зеленому и синему. Это не только помогает предотвратить засветку, которая полностью насыщена только в одном цветовом канале, но также помогает камере лучше идентифицировать конкретную сцену при сравнении ее с внутренней библиотекой, содержащейся во встроенном программном обеспечении камеры. Достижения в более высокой скорости обработки и одновременном снижении энергопотребления также способствовали улучшению измерения.
Майкл, это был фантастический ответ. Особенно после следующего обсуждения. Несколько вопросов вдогонку — первый: «В идеале это происходит с камерой при базовой чувствительности ISO». Почему?
Во-вторых: «Это не что иное, как прославленный брекетинг. Что трудно сделать, когда вы снимаете спортсменов мирового класса со скоростью 10+ кадров в секунду». Это имеет смысл, но также фокусируется на очень конкретной ситуации. Во многих других ситуациях, разве это не может быть действительно полезным видом прославленного брекетинга, встроенного в камеру в качестве опции?
«промежуточные итоги» — это больше, чем брекетинг — предполагается, что они никогда не переэкспонируются (из-за короткого времени выборки) и без временных промежутков между ними вы можете комбинировать их в синтетические экспозиции любой продолжительности. это научная фантастика (пока?), но с таким сенсором вообще не нужен замер экспозиции и нельзя даже испортить фото выставлением неправильной выдержки или iso. разве не здорово? ;-)
А как насчет таких устройств, как Google L16, Lytro Immerge и так далее? Они позволяют пост-редактирование ISO, поле зрения и т. д. Они используют массу датчиков под разными углами, чтобы добиться эффекта, предоставляющего удивительные возможности пост-редактирования.
@Вомбат Пит; 1) Соотношение сигнал/шум и динамический диапазон лучше, если вы можете выставить почти насыщение при базовом ISO. 2) Многие камеры более высокого уровня уже имеют автоматический брекетинг с широкими возможностями настройки. 3) Нет такой вещи, как "нарастающая сумма". Чтобы считать датчик CMOS или CCD, текущий заряд в каждой ячейке пикселя должен быть очищен. Вы будете добавлять только последовательные кадры (что означает, что вы также будете увеличивать шум чтения/уменьшать DR для каждого дополнительного кадра).
«Устройства, такие как ...», все подпадают под действие «Бросьте на это достаточно денег ...» в конце ответа. Есть несколько очень существенных компромиссов, и не только с точки зрения стоимости, связанных с использованием таких устройств. В конце концов, технология некоторых или всех этих устройств может заменить способ, которым мы в настоящее время снимаем изображения очень высокого качества, но мы еще далеки от этого. И в вопросе действительно есть слова «практически возможно».
«Чтобы считать датчик CMOS или CCD, текущий заряд в каждой ячейке пикселя должен быть очищен». Интересно. Это неизбежное механическое требование?
Вы должны двигать электроны, чтобы получить данные с датчика. Эти электроны представляют собой заряды, создаваемые фотонами, ударяющими о дно пиксельной лунки.
FWIW Я также нахожу форматирование «цитата» сбивающим с толку. Может быть, использовать заголовки/подзаголовки для разделения разделов?
Я решил сделать это таким образом, потому что я чувствовал, что среди доступных вариантов форматирования это был лучший выбор. Заголовки/подзаголовки, по крайней мере мне, кажутся логичным переходом от одного раздела к другому, но здесь это не так. Скорее это пауза для иллюстрации метафорой. Нет автоматического индикатора, который говорит «ЦИТАТА» до и после синего прямоугольника в середине ответа. В английском языке нет общепринятого соглашения, согласно которому заштрихованная рамка должна быть кавычкой . Если бы я выделил всю иллюстрацию курсивом или полужирным шрифтом , у других возникли бы проблемы с этим.

У нас уже есть некоторые технологии для этого. Наш термин для запоминания показаний датчика в каждой точке экспозиции — «видео», а то, что вы просите, — это реконструкция оптимального неподвижного изображения из нескольких видеокадров.

Обзор работы Microsoft Research по этому вопросу можно найти здесь: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/

Доступный пример см. в приложении Synthcam, которое можно использовать для уменьшения шума при слабом освещении путем объединения видеокадров, снятых камерой телефона: https://sites.google.com/site/marclevoy/

Это далеко не практично для повседневной фотографии, но вполне возможно, что будущие камеры будут снимать много кадров видео высокой четкости с высокой частотой кадров, что позволит фотографу достичь желаемого результата, выбирая и комбинируя позже.

Обновление в конце 2016 года: когда я написал исходный ответ, это было далеко от рынка. В конце 2016 года это кажется намного ближе. Приложение Марка Левоя «See In The Dark» объединяет несколько видеокадров со стабилизацией на потребительском смартфоне для создания пригодных для использования изображений при лунном свете. См. также камеру Light L16 , которая объединяет несколько небольших датчиков в одно изображение.

Какой тип попадает в категорию «Бросьте достаточно денег на проблему». Представьте, сколько будут стоить 4000 кадров в секунду при 50MP!
Я работал на 1000 кадров в секунду около пяти лет назад, и он весил несколько кг. Сейчас я ношу в кармане камеру со скоростью 120 кадров в секунду. Это может быть практично через 5-10 лет. Конечно, сейчас это не для основной фотографии, и вы всегда можете найти темную ситуацию, когда просто не хватает фотонов для чего-либо, с чем можно было бы работать.

Первоначальный вопрос основан на неверном предположении (о том, что цифровой датчик не меняет состояние во время экспозиции), но концепция связана с идеей квантового датчика изображения (QIS), исследованной Эриком Фоссумом .

http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/

QIS — это революционное изменение в том, как мы собираем изображения с помощью камеры, которую изобретают в Дартмуте. В QIS цель состоит в том, чтобы подсчитать каждый фотон, попадающий на датчик изображения, и обеспечить разрешение в 1 миллиард или более специализированных фотоэлементов (называемых йотами) на датчик, а также считывать битовые плоскости йот сотни или тысячи раз в секунду, что приводит к в терабитах/сек данных.

Такое устройство будет (цитируя вопрос)

"запоминать" какие были показания датчика в каждой точке воздействия

и, имея полный набор данных, мы могли бы, например, «изменить» эффективное время экспозиции после того, как «фотография» была сделана.

Сегодня это можно аппроксимировать путем записи видео и объединения кадров в постобработке для имитации более длительного времени экспозиции (ограничено производительностью камеры, разрешением видеорежима и выдержкой, но это показывает идею).

Если QIS будет работать, как обещано, он также представит другие интересные функции, такие как улучшенная производительность при слабом освещении, расширенный динамический диапазон, отсутствие наложения спектров, полностью настраиваемая чувствительность (например, пленочная), отсутствие настроек ISO, регулируемое разрешение в зависимости от шума.

Недавнее объявление: http://phys.org/news/2015-09-breakthrough-photography.html

«Если QIS будет работать, как обещано, он также представит другие интересные функции, такие как улучшенная производительность при слабом освещении, расширенный динамический диапазон, отсутствие наложения спектров, полностью настраиваемая чувствительность (например, как у пленки), отсутствие настроек ISO, регулируемое разрешение по сравнению с шумом». о чем я думал, именно поэтому я задал вопрос в первую очередь!
Терабит в секунду? Если быть щедрым, то это 1 ГБ для экспозиции 1/125 секунды или 2 ГБ для экспозиции 1/60 секунды. (Вы думаете, что файл RAW размером 25-50 МБ с достаточно высокопроизводительной зеркальной фотокамеры, в большинстве случаев, независимо от времени экспозиции, большой?) При скорости записи 1000 МБ/с, что довольно много, вы примерно в 100 раз медленнее. . Я думаю, что на этих уровнях хранение очень важно.

Пленка физически меняется в течение периода времени, в течение которого она экспонируется. Однако цифровой датчик этого не делает; это просто чтение данных.

На самом деле это зависит от типа датчика. Датчики CMOS, которые используются в современных цифровых зеркальных фотокамерах, накапливают электрический заряд в каждом пикселе с течением времени, поэтому они действительно меняются со временем так же, как пленка. Если бы они не работали таким образом, изображение существовало бы только до тех пор, пока был открыт затвор. Датчики CCD (другая распространенная технология для датчиков изображения в камерах) также работают таким же образом, накапливая свет с течением времени.

Есть ли какая-то причина, по которой нельзя заставить камеру «запоминать» показания сенсора в каждой точке экспозиции?

Это именно то, что делает камера, когда записывает изображение. Я думаю, что вы имеете в виду, что если датчик может считывать мгновенную интенсивность света, то вы можете настроить экспозицию постфактум на любое значение, которое вы хотите. Как объяснялось выше, на самом деле большинство датчиков изображения работают не так. С другой стороны, мы можем и часто немного корректируем экспозицию при постобработке.

Если бы хранение данных не было проблемой, есть ли причина, по которой это не могло бы быть нормой, по крайней мере, для профессиональной и художественной фотографии?

Что касается «запоминания» данных с сенсора, то для многих фотографов это норма . Большинство камер позволяют записывать изображения в формате «RAW», и это в значительной степени данные, считанные с датчика, плюс немного больше данных о том, какие настройки камеры были в то время. Изображения в формате RAW занимают намного больше места, чем другие форматы, такие как JPEG, но они дают фотографу свободу для повторной интерпретации данных позже, поэтому вы можете легко изменять такие настройки, как цветовая температура и баланс белого, при постобработке.

Я бы сказал, что ваш ответ - единственный, который содержит ключевой момент: датчики не производят непрерывное считывание, которое потребовалось бы для того, чего хотел ОП. Если бы кто-то хотел непрерывное воздействие, потребовался бы непрерывный вывод данных с очень маленькими временными шагами (меньше, чем «Live View» и подобные).
@DetlevCM Вы внимательно прочитали мой ответ? Он включает эту информацию как в первом, так и в последнем абзацах.
@MichaelClark Действительно - он действительно содержит это, когда я перечитываю его сейчас (изменения не записаны). Так что я думаю, что он потерялся в шуме, когда я просматривал ответы...
Я отредактировал его, чтобы сделать его еще более понятным.
«Если бы кто-то хотел непрерывную экспозицию, ему потребовался бы непрерывный вывод данных с очень маленькими временными шагами (меньше, чем «Live View» и подобные)» ... что является понятием «прославленного брекетинга» в обсуждении выше, верно? Новый вопрос, насколько я понимаю, касается практичности/доступности такого рода вещей.

Другие уже объяснили, почему технически это не сработает. Я хочу коснуться того, почему это не сработает на практике .

Если бы хранение данных не было проблемой, есть ли причина, по которой это не могло бы быть нормой, по крайней мере, для профессиональной и художественной фотографии?

Подумайте о величине различных условий освещения, которые мы можем захотеть сфотографировать. Даже игнорируя крайности, такие как астрофотография (где вы часто фотографируете маленькие точки света, окруженные почти полным черным цветом), у вас все еще есть вечерняя или ночная наземная фотография и ярко освещенные заснеженные зимние пейзажи. Я собираюсь использовать последние два в качестве примеров.

Кроме того, я собираюсь предположить, что для точного воссоздания любой желаемой экспозиции мы должны выставить датчик до точки полного насыщения.

Кроме того, я собираюсь предположить, что мы можем считывать значения датчиков неразрушающим образом. (Вероятно, это одна из тех проблем, которые попадают в категорию «выбросьте достаточно денег на проблему, и она может быть решаема».)

В случае с ночной фотографией нам нужно было бы выставлять датчик на очень долгое время, чтобы насытить все пиксели, а это означает, что любая фотография, независимо от того, что мы на самом деле хотим сфотографировать, займет абсурдно много времени. Классическая туристическая фотография танцоров в баре под открытым небом становится почти невозможной, потому что вы можете сделать несколько таких за весь вечер. Нехорошо. Таким образом, мы не можем подвергать насыщению, по крайней мере, без разбора. (Экспозиция с некоторым процентом насыщения пикселей также бесполезна, но по разным причинам; попробуйте получить точную экспозицию, сфотографировав камин с горящим в нем огнем. Это почти невозможно; как бы вы ни старались, некоторыепиксели будут пересвечены, или огромные участки изображения будут ужасно недоэкспонированы.)

При фотографировании ярко освещенного заснеженного пейзажа, например зимнего пейзажа в дневное время, когда светит солнце, экспозиция, на которую нацелена автоматическая система экспонирования камеры («18% серого»), крайне неадекватна. Вот почему вы часто видите фотографии темного снега, на которых снег выглядит скорее светло-серым, чем белым. Из-за этого мы часто используем положительную настройку компенсации экспозиции, в результате чего снег экспонируется как почти насыщенно-белый. Однако это означает, что мы не можем полагаться на систему автоэкспозиции камеры, чтобы определить, когда закончить экспозицию: если мы это сделаем, такие снимки всегда будут недоэкспонированы .

Другими словами, воздействие полного насыщения во многих случаях нецелесообразно, а воздействие, чтобы сделать систему АЭ удовлетворительной, во многих случаях является недостаточным. Это означает, что фотографу все равно придется сделать какой-то выбор, и в этот момент мы, по крайней мере , с таким же успехом останемся с тем, что у нас есть, и к чему привыкли фотографы, улучшая системы автоэкспозиции и облегчая фотографу ( проще?) доступ к настройкам компенсации экспозиции. Увеличивая практически используемый динамический диапазон сенсора, мы можем позволить (даже) большую свободу в изменении экспозиции при постобработке; оригинальные цифровые зеркальные фотокамеры были ужасно дорогими, но в этом отношении они были просто ужасны по сравнению с сегодняшними моделями даже начального уровня.

Все это вполне можно сделать в рамках того, что у нас уже есть. Это не означает, что резко улучшить полезный динамический диапазон датчика легко , но, вероятно, это намного проще, чем то, что вы предлагаете, и поставщики имеют опыт работы над этой проблемой.

Профессионалы почти по определению умеют пользоваться оборудованием своего дела. Нет никакой разницы, если они фотографы или пилоты космических челноков . Особенно когда это можно сделать, не вызывая информационной перегрузки, обычно лучше предоставить пользователю полный контроль над профессиональным оборудованием. На мой взгляд, современные высококачественные зеркальные фотокамеры довольно хорошо справляются с этой задачей.

Спасибо за указание на практические проблемы с этой идеей. Я предполагаю, что камера, которая умно и независимо усредняет каждый пиксель для создания сбалансированной экспозиции, будет давать довольно серые изображения.

Давайте упростим задачу, чтобы понять, почему нам всегда придется идти на компромиссы.

Давайте изобретем камеру, которую вы хотите, но только с одним монохромным пикселем. Он должен иметь возможность надежно принимать и уведомлять процессор о приеме одного фотона. Он также должен иметь возможность получать и уведомлять процессор о приеме, практически говоря, бесчисленного количества фотонов.

Первый случай в ситуации, когда нет света. Второй в случае даже умеренного количества света.

Основная проблема в том, что у нас просто нет технологии для создания сенсора с таким широким динамическим диапазоном. Нам всегда придется идти на компромисс, и прямо сейчас мы идем на компромисс, выбирая более высокий диапазон, в котором датчик может принимать почти бесконечное количество фотонов и давать нам показания, которые предполагают относительное количество света, попадающего на датчик. Он их вообще не считает, а действует так же, как и наши глаза — они просто выдают результат, соответствующий количеству фотонов, попавших на них, не пытаясь подсчитывать фотоны.

Это еще более усложняется тем фактом, что это накапливается с течением времени.

Идеальный датчик на самом деле был бы больше похож на счетчик Гейгера — измеряя время между фотонами, чтобы дать нам почти мгновенное измерение количества света, падающего на датчик, предполагая, что фотоны относительно равномерно распределены (что не так, но является удобным предположением, и почему счетчики Гейгера усредняются во времени так же, как и камеры).

Квантовые датчики столкнулись бы, по сути, с той же проблемой. Конечно, они могут ощущать отдельные фотоны, но в какой-то момент они приходят настолько быстро, что вы просто не можете измерить время между ними или даже подсчитать, сколько их приходит за период экспозиции.

Таким образом, у нас есть этот компромисс, который требует, чтобы мы либо сделали несколько изображений с разной экспозицией, либо сложили вместе несколько изображений с одной и той же высокой экспозицией, чтобы выделить области слабого освещения, либо разделили входящий свет на два или более пути с разными датчиками с разной динамикой. диапазона, или создавать датчики, которые могут группировать пиксели вместе, или складывать датчики света, или, или, или - есть буквально тысячи способов, которыми фотографы преодолевали эту основную проблему на протяжении десятилетий с помощью самых разных материалов.

Это физическое ограничение, которое вряд ли удастся преодолеть. У нас никогда не будет камеры* без участия фотографа, которая позволяла бы принимать все решения при постобработке.

* Конечно, если вы измените определение камеры, то вас могут устроить результаты какого-то другого процесса, но это во многом субъективно. Реальность такова, что если вы изображаете сцену своей камерой, а затем показываете сцену человеку, а затем изображение, которое вы сняли, они будут воспринимать различия из-за врожденных различий между их глазами, вашим датчиком изображения и процессом, который вы использовали для печати. изображение. Фотография в такой же степени связана с интерпретацией и искусством, как и с захватом света, поэтому фанатичная сосредоточенность на «идеальной камере», вероятно, не очень полезна.

если вы пытаетесь сосчитать почти бесконечное количество фотонов, то вы уже мертвы ;-) (сожжены мощным источником света), в других случаях мы всегда можем придумать какую-нибудь технологию, чтобы справиться с этим, например --> dpreview.com/ статьи/5923827506/…