Проблемы с HDR в отношении битовой глубины и типа файла

Когда я объединяю свои скобки с Lightroom, они всегда 8-битные, а в HDR Efx Pro 2 они также 8- или 16-битные.

Когда я использую PS для объединения скобок, я могу преобразовать его в 32-битный, но тогда я не могу выполнить его последующую обработку так, как хочу.

Я не хочу, чтобы мои HDR-изображения выглядели причудливо и грязно. Я просмотрел множество руководств по HDR, но в них ничего не говорится о типах файлов (TIFF, RAW и т. д.) и о том, какую битовую глубину они используют.

Даже все файлы RAW в 8-битном формате. Это причина, по которой я не могу работать в 32-битной? Я что-то упустил здесь?

В лайтруме нет ничего 8-битного, по крайней мере, вы об этом не знали. Когда вы экспортируете изображение, вы сами устанавливаете формат в диалоговом окне экспорта.

Ответы (1)

Возможно, вы упускаете какие-то моменты.

HDR — это в первую очередь концепция, имеющая больший динамический диапазон.

Во-вторых, об объеме информации. Настоящий файл HDRI содержит информацию с плавающей запятой, что является оптимизированным способом хранения огромной разницы в значениях. Это более эффективно, чем определение, например, 16 миллионов возможных значений.

Но нам нужно преобразовать эту «сырую» информацию в более полезную. Это то, что делает тональная карта. 16-битное изображение имеет достаточно места для настройки и воспроизведения видимого и воспроизводимого изображения.

RAW сам по себе не является типом файла, это тип необработанной информации.

Файл TIF может хранить разную глубину информации о пикселях, которая может быть прочитана различными программами. Обычно пригодный для использования файл tiff может хранить 8 или 16 бит на канал (всего 24, 32, 48 бит).

32 бита на канал — это несколько миллиардов уровней, поэтому с этим довольно сложно работать. (Не путайте это с общим размером 32 бита, который является изображением CMYK)

Но если вы работаете в фотошопе, лучше всего использовать родной формат файла. PSD.


Обычный монитор отображает только 256 уровней каждого цвета, 8 бит, потенциально отображая 16 миллионов различных оттенков. (24-битные изображения)

Некоторые мониторы имеют большую контрастность, например 10000:1, но это то, насколько отличается оттенок 0 от оттенка 256. Это не означает, что отображаются 10 000 различных тонов, это то, насколько тона разделены.

Некоторые мониторы помечают отображение как 32-битное вместо 24-битного. На самом деле это используется операционной системой, чтобы указать, что она может обрабатывать визуализируемые прозрачные объекты, например прозрачное окно при его перемещении. Эти 3d не на канал, а 8 бит на каждый канал RGB (24 плюс прозрачность 24+8=32).

Вы не можете «уменьшить» глубину бита, вы просто уменьшите ее.

Но опять же, не путайте X бит изображения с X бит на канал


Я могу изменить свой монитор с 16 на 32 бита

Это общая битовая глубина, а не на канал. 16-битный монитор — это полные биты, поэтому он может отображать только 65 000 различных цветов, поэтому вы увидите полосы. Оставьте свой монитор на 24 или 32 бита.

Я не совсем безграмотен в плане компьютеров, но слышал, что люди говорят, что наши мониторы не могут показать настоящий 32-битный файл, а потом обрабатывают его в PS в 32-битном формате. Я хочу воздержаться от программ типа Photomatix или HDR Efx и работать со слоями-масками или масками яркости в PS. Чтобы получить наилучшее качество моих фотографий, мне нужно знать больше о том, какой тип файла использовать, чтобы я мог напечатать красивую большую фотографию и повесить ее на стену. Если бы я распечатал свои текущие фотографии, они выглядели бы нечеткими и шумными.
Как я уже говорил, в 16-битном изображении достаточно места. У вас есть 65 000 уровней для игры, и ваше финальное изображение может быть 8-битным или 256 цветов. Взгляните на это: photo.stackexchange.com/questions/72116/… - Нечеткость может быть связана с другой причиной, а не с разрядностью. Наверное разрешение или фокус.
Может ли быть что-то сделать с размером, а? Если бы я изменил его размер, чтобы он соответствовал реальному стандартному монитору, он бы выглядел меньше?
* менее размыто? Извините за опечатку.
Чего я также не понимаю, так это того, почему я могу изменить свой монитор с 16-битного на 32-битный, но люди говорят, что вы не можете смотреть изображения на обычном мониторе, которые были обработаны в 32-битном режиме. Парень в другой теме сказал, что он уменьшил свои изображения до 8 бит, чтобы они подходили для всех мониторов. Если я ищу 32-битные мониторы, я получаю простые ЖК-мониторы.
Я немного дополнил свой ответ. (Не путайте бит с цифровым битом) n_n
@Chris понимает, что вы не меняете количество битов в мониторе, вы меняете количество битов в адаптере дисплея. И я никогда не понимал, для чего они используют дополнительные 8 бит, поскольку большинство мониторов не могут отображать более 24 бит.
@Mark Ransom Тогда мне действительно чего-то здесь не хватает. Моя видеокарта и монитор могут отображать 32-битное изображение, и в настоящее время я не видел ни одного монитора или видеокарты, которые бы не соответствовали этому. Так что я должен отредактировать его в 16 или даже 8 бит, а затем оставить на этом?
@ Крис, какая у тебя модель монитора? Я перепроверю на себе. То, что он принимает 32 бита, не означает, что он использует более 24 бит.
@MarkRansom Я дважды проверил, и он может отображать только 24 бита. Почему тогда я вижу изменения в 32-битной картинке? 32-битное изображение, созданное PS, всегда выглядит более плавным, чем 16-битное изображение. Что если я посмотрю 32-битное изображение на 16-битном мониторе? Что изменится?
@ Крис, нет 16-битных мониторов. 16-битное изображение ( всего 16 бит , а не на цветовой канал) очень ограничено по цвету и определенно будет уступать 24 или 32 битам.
@MarkRansom Итак, в чем разница между каналом и цветом? Я редактирую в 16 бит в LS, HDR Efx или Photomatix. Означает ли это, что это 16 бит на канал?
@Chris Я не знаю этих приложений, поэтому не могу быть уверен, но я думаю , что все они имеют в виду 16 бит на цветовой канал . Единственным исключением может быть Photoshop, и я тоже не уверен в этом.
@MarkRansom, да, на некоторых устаревших мониторах отображается 16-битный цвет, но опять же, это только High Color, а не настоящий цвет. Крис, прочитай мои выпуски к ответу.
@Rafael есть некоторые мониторы, которые могут обрабатывать 10 бит на канал (всего 30), но я не уверен, как они взаимодействуют с адаптером дисплея. Вся эта область — та, в которой я хотел получить образование, но информацию трудно найти. Объедините это с управлением цветом, и получится огромный беспорядок.