Почему датчики камеры не могут работать так, как человеческий глаз? Я имею в виду, почему определенная часть изображения должна быть переэкспонирована/недоэкспонирована, если мы компенсируем темные и светлые области соответственно при съемке фотографии и выборе настроек диафрагмы и выдержки.
Я понимаю, что попадание света зависит от диафрагмы и скорости затвора, но, поскольку зеркальные фотокамеры цифровые, не может ли существовать технология, которая позволила бы каждой сенсорной ячейке использовать свой собственный замер, и, следовательно, все они не подвергались бы одинаковому количеству света, но в зависимости от замера центральный процессор камеры отключал определенные ячейки, чтобы не переэкспонировать их.
Надеюсь, я не говорю глупостей. Это кажется мне правдоподобной идеей.
Кто решает, какие пиксели получают какое усиление? Многое из того, что происходит в зрительной системе человека, происходит в коре головного мозга, а не в глазах, и зависит от того, что мы считаем важным увидеть, на основе комбинации интеллектуальных решений и инстинктивного стремления к самосохранению (в некоторой степени поддающимся преодолению). . Хотя в одном смысле верно то, что мы видим то, что есть, в другом смысле верно и то, что мы видим то, что хотим (или должны) видеть.
Это было бы почтитривиально создать датчик с относительно низкой плотностью пикселей с большими фотосайтами, которые обеспечивают огромный динамический диапазон и (при условии, что технология типа CCD, поскольку текущая технология датчиков CMOS не может работать таким образом) попиксельный электронный затвор в дополнение к механический затвор. Так что бы это вам дало? Плоское изображение с большой битовой глубиной и очень низким локальным контрастом (если вся битовая глубина преобразуется как есть для отображения или печати), а также количество пикселей, которые почти, но не совсем обрезаются насыщенностью сенсора ( хотя на самом деле они обрезаются ограничивающим действием электронного затвора непосредственно перед точкой насыщения). Скажем, однако, в качестве аргумента, что этот датчик и связанный с ним компьютер могли записывать данные отсечения (причина, по которой он прекратил запись в этом месте, что может быть столь же простым, как запись фактической продолжительности воздействия на этом участке). Это позволило бы электронике камеры реконструировать, какими были бы цифры, если бы фотосайт оставался в игре до финального свистка. Так что теперь у нас есть еще более плоское изображение с большей битовой глубиной. И где вы проводите черту? 32 бита? 64?
Теперь самое сложное — превратить это плоское изображение с широким динамическим диапазоном в привлекательную фотографию. Самый простой подход состоит в том, чтобы взять восемь битов (или любую другую разрядность на выходе), которые представляют первичное измеренное изображение, и отбросить остальные. Вероятно, было бы не намного сложнее подогнать данные под S-образную кривую, сжав экстремальные тени и/или блики — что более или менее то, что уже делают настройки расширенного динамического диапазона на новых камерах. Но для каждого пикселя доступно ограниченное количество выходных битов, и большинство расширенных значений подсветки будут округлены до белого (или, по крайней мере, смеси 254 и 255). Таким образом, вы очень мало выиграли, резко усложнив систему.
Но остается еще один вариант — картирование выборочной области. Почему бы не уменьшить, скажем, небо или просто облака на этом небе, чтобы оно могло сохранить детали, сохраняя при этом желаемый контраст на переднем плане? Вот где живет трудная проблема. Что важно? Должна ли камера решать за вас? Если камера решит, то у нас есть большой прогресс в машинном зрении и искусственном интеллекте, чтобы обойти его первыми. Если нет, то действительно ли вы хотите принимать решения после съемки на этом уровне для каждого изображения, которое вы снимаете? Да, я знаю, что найдутся любители фото-техно, которые действительно захотят быть такими практичными, но можем ли мы признать, что это патологическое состояние, и что профессионалы, заинтересованные во времени обработки, и подавляющее большинство потребителей не заинтересованы в этом? не нравится?
Таким образом, вам нужен новый датчик, гораздо более сложная электроника вокруг датчика, огромный файл изображения для проецируемых необработанных данных (что требует больших карт и более длительного времени записи/более низкой частоты кадров), и все это для сбора данных, которые будут выброшены в большинстве случаев. время, так что вы можете время от времени снимать одноразовые HDR-изображения, которые требуют значительного вмешательства человека при постобработке (или огромного скачка в MV/AI). Вероятно, вы могли бы продать несколько из них, но я ожидаю, что рынок будет намного больше похож на рынок среднего формата, чем на существующий рынок 35 мм/APS-C. То есть вы продаете избранной группе состоятельных фотографов, которым действительно нужны возможности по профессиональным причинам или для реализации своего художественного видения, и нескольким, которые просто получают достаточно большой доход от постобработки, чтобы платить. налог на технологии.
Есть одна вещь, о которой упоминают лишь немногие, и это то, что сцена не будет выглядеть одинаково, если разные области экспонируются по-разному по сравнению с другими областями. Сцена выглядит именно так, потому что есть вариации. Да, это может быть способ сохранить блики и усилить тени, но, в конце концов, вам действительно нужен более широкий динамический диапазон, который может захватывать динамический диапазон сцены с использованием одной настройки экспозиции.
Наши глаза великолепно обеспечивают нам гораздо больший динамический диапазон, чем современные технологии потребительских камер. Я могу быстро оглядываться и одновременно различать точные детали в затененных и ярко освещенных местах.
Один из способов, которым производители камер решают эту проблему, заключается в использовании пикселей как с высокой, так и с низкой чувствительностью в одном датчике, а затем совмещения результата для каждого пикселя. Новые цифровые кинокамеры RED имеют матрицу сенсорных пикселей с нормальной и низкой чувствительностью, называемую HDRx. Маленькие пиксели сенсора с низкой чувствительностью объединяются в блики ярких пикселей для увеличения динамического диапазона.
Во-первых, динамический диапазон человеческого глаза не так уж и велик. Это только кажется лучше, чем наши нынешние камеры высокого класса, потому что наш мозг постоянно объединяет «моментальные снимки», сделанные с использованием разных настроек экспозиции. Наши глаза не могут одновременно регистрировать очень яркие и очень темные объекты (хотя мозг может). Настоящее чудо обработки изображений, но только посредственная оптика/устройство обработки изображений.
Есть несколько предложений/прототипов, показывающих, как можно значительно улучшить динамический диапазон датчиков изображения:
Модульная камера Массачусетского технологического института
каждый фотодиод сбрасывает свое состояние при достижении максимального заряда и запоминает, сколько раз это произошло
Датчик изображения Quanta от Эрика Фоссума
использует гораздо меньшие и более быстрые пиксели для подсчета фотонов вместо «аналоговых» зарядных контейнеров + аналого-цифровые преобразователи
Вам не хватает элементарной физики. Основная проблема заключается в том, что реальные сцены имеют большую контрастность. Наши глаза эволюционировали, чтобы справляться с этим, воспринимая уровни света логарифмически, а не линейно. К сожалению, современная сенсорная технология по своей сути измеряет свет линейно. Точнее говоря, шум фиксируется по линейной световой шкале.
С современной технологией максимальный предел контрастности в основном зависит от уровня шума. В качестве аргумента давайте использовать шкалу освещенности от 0 до 1000, что означает, что датчик может сообщить вам уровень освещенности от 0 до 1000. Какое максимальное соотношение он может измерить? Это зависит от уровня шума. Уровень шума — это то, что вы получаете вместо истинного черного цвета, который в этом примере равен 0. Грубо говоря, если уровень шума равен 2, то вы получите отношение яркости примерно 1000:2 = 500:1. Пока сцена не превышает этого (хотя почти все превысят его, на самом деле 500:1 не так уж и много), вы можете сделать любое логарифмическое отображение, какое захотите, позже.
Таким образом, текущая стратегия, учитывая, что современные датчики по своей природе линейны, состоит в том, чтобы попытаться увеличить отношение сигнал/шум и предоставить достаточное количество битов, чтобы шум квантования был ниже собственного случайного шума. Чем ниже уровень шума сенсора, тем более широкий динамический диапазон вы можете снимать, не обрезая светлые участки и не искажая тени.
Существует совершенно другая сенсорная технология, которая по своей сути измеряет логарифм яркости. Иногда их называют датчиками «CMOS», потому что они очень похожи на динамические CMOS RAM со снятой крышкой (я упрощаю, но первый тест в лаборатории действительно был проведен именно так). Вы получаете напряжение, пропорциональное логарифму света, но в настоящее время они имеют гораздо более низкое отношение сигнал/шум. Mitsubishi была первой, кто выпустил эти датчики на рынок, но они еще далеко не достаточно хороши для камер высокого класса.
Несомненно, будут достигнуты успехи на нескольких фронтах, и я уверен, что мы будем наблюдать устойчивый прогресс еще долгие годы. Однако есть веские причины, почему все так, как сейчас, а не только потому, что никто не может придумать что-то лучше. Если бы у кого-то была технология, которая могла бы точно измерять широкий динамический диапазон по цене, за которую люди готовы платить, он бы разбогател.
Я считаю, что это слишком сложно.
В основном было бы два возможных подхода; либо каждый фотодатчик мог отслеживать время и отключаться, либо ЦП мог отслеживать данные от фотодатчиков и отключать их.
Для первого подхода это будет означать, что каждому фотодатчику потребуется тактовый сигнал и счетчик, чтобы он мог отслеживать, сколько времени прошло до его отключения. Это намного больше схем, которые можно разместить на чипе, и для его работы требуется гораздо больше электроэнергии, что увеличивает шум сигнала. Наверное, настолько, что увеличение динамического диапазона было бы бессмысленным.
Для второго подхода ЦП потребуется считывать все данные с датчика примерно раз в 1/10000 секунды. Это примерно в 1000 раз быстрее, чем могут достичь современные технологии, так что это на десятилетия вперед, если вообще возможно.
Кроме того, есть и другие сложности с таким решением, например, каждый пиксель будет иметь разное время экспозиции. Вы получите довольно странные артефакты, если будете фотографировать все, что движется.
Хотя это правда, что зеркальные фотокамеры являются цифровыми, объективы — нет. Все датчики камеры будут иметь одну и ту же диафрагму, независимо от того, насколько умным станет корпус DSLR, потому что диафрагма устанавливается на объективе. Поэтому я думаю, что изменение апертуры для каждой сенсорной ячейки невозможно, по крайней мере, с современной технологией линз.
Что касается скорости затвора, она контролируется камерой, но если мы представим камеру, которая может изменять скорость затвора в разных частях изображения, чтобы контролировать передержку или недодержку, вы получите неравномерное размытие движения. Более темные части сцены должны быть экспонированы дольше и будут более размытыми, чем более яркие части. Я думаю, что решение, которое меняет скорость затвора, не будет работать по этой причине.
Так что остается только ISO. Изменение ISO будет означать разный уровень шума в разных частях изображения. Звучит не так уж плохо, учитывая, что взамен вы получите значительно увеличенный динамический диапазон. Я мало знаю о том, как работают датчики, но я могу предположить, что настройка ISO реализована в датчиках как своего рода «настройка» в отношении определенного подмножества шкалы яркости. Мне кажется, что иметь независимый замер и регулировку ISO для каждой сенсорной ячейки было бы непомерно дорого, но, возможно, изображение можно разделить на области и измерять каждую область отдельно. Затем у камеры должен быть какой-то алгоритм для смешивания областей с разной экспозицией, что-то вроде того, что делает «объединение», когда собирает панораму, где каждое изображение имеет разную экспозицию. Это звучит выполнимо для меня.
Другой вариант — иметь камеру с несколькими датчиками, каждый из которых настроен на разное значение ISO. В видеотехнике есть 3 ПЗС-камеры, где каждая ПЗС записывает один из красного, зеленого и синего цветов. Я не понимаю, почему не может быть аналогичной концепции для цифровых зеркальных камер, где несколько датчиков делают снимок с разными уровнями ISO, создавая изображение HDR.
Я не могу найти информацию в данный момент, но я, кажется, читал описание подобной технологии. Идея была примерно такой: единственное, о чем нужно позаботиться, — это пересветы. Если вы можете предотвратить это, о темных областях можно позаботиться, увеличив экспозицию всего изображения. Таким образом, чтобы предотвратить пересветы, каждый датчик будет отслеживать свой накопленный свет, и если он приблизится к максимуму, датчик отключится. Само по себе это ничего не улучшит, а на самом деле усугубит ситуацию, вместо того, чтобы иметь несколько ярких белых пересветов, можно было бы получить еще больше немного более темных бликов. Таким образом, вместо того, чтобы просто отключиться, ячейка также отключила бы ячейки в каком-то районе, что сохранило бы некоторые детали в ярких областях.
Как я уже писал, сейчас не могу найти текст, но как-то он в моем сознании ассоциируется с цифровыми камерами HP.
Это можно сделать математически (теоретически): http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.64.9692&rep=rep1&type=pdf
дполлитт
пользователь7264
Итай
пользователь7264
Эй Джей Финч
Ричард Смит