Почему эффективные пиксели больше, чем фактическое разрешение?


16

На этой странице сравниваются камеры Canon EOS 550D и Canon EOS 500D и упоминается

18,7 миллиона эффективных пикселей

для 550D. Однако наилучшее разрешение, возможное при использовании этой камеры,

5184 * 3456 = 17915904 ~ 17.9 million pixels

Что такое эффективные пиксели, и почему в этом случае это число превышает 17,9 миллиона?


1
Также имейте в виду, что «разрешение» имеет два значения. В компьютерах мы используем его для обозначения размеров экрана или изображения в пикселях. А на компьютерном чертеже или сгенерированном изображении это обычно соответствует «реальному» разрешению - количеству деталей, фактически разрешенных на изображении. Но на фотографии это не обязательно так.
Mattdm

1
Это не то, что здесь происходит - просто дополнительный источник путаницы.
Mattdm

Ответы:


9

Часть того, что мы видим здесь, - это (я достаточно уверен) не более чем простая опечатка (или что-то в этом роде) со стороны DPReview.com. По данным Canon , [PDF, стр. 225] количество лунок на датчике составляет «Приблизительно 18,00 мегапикселей».

Затем они уменьшаются до примерно 17,9 мегапикселей, когда входные данные шаблона Байера превращаются в то, что большинство из нас считает пикселями. Разница довольно проста: каждая лунка на датчике воспринимает только один цвет света, но пиксель, как вы обычно ожидаете на выходе (например, файл JPEG или TIFF), имеет три цвета для каждого пикселя. На первый взгляд может показаться, что файл будет иметь только одну треть пикселей, по сравнению с ячейками датчика на входе. Очевидно, что это не так. Вот (упрощенное представление), как все работает:

упрощенная схема Байера

Каждая буква представляет одну лунку на датчике. Каждый блок представляет собой один трехцветный пиксель, который будет добавлен в выходной файл.

Во «внутренней» части датчика каждый выходной пиксель зависит от входных данных от четырех лунок датчика, но каждая лунка датчика используется в качестве входных данных для четырех различных выходных пикселей, поэтому количество входных сигналов и количество выходных сигналов остается неизменным.

Однако по краям у нас есть сенсорные лунки, которые дают только два пикселя вместо четырех. В углах каждый лунка датчика вносит свой вклад только в один выходной пиксель.

Это означает, что общее количество выходных пикселей меньше, чем количество сенсорных лунок. В частности, результат меньше на одну строку и один столбец по сравнению с входными данными (например, в примере у нас есть датчик 8x3, но выходные пиксели 7x2).


+1 особенно за диаграмму. Но я все еще озадачен, потому что это объяснило бы отсутствие 2 (5184-1 + 3456-1) = около 17K пикселей, которое было бы просто потеряно при округлении при вычислениях 18,0 - 17,9 = 0,1M пикселей. Может показаться, что по крайней мере в три раза больше пикселей должно быть убрано с границы (потому что все, что меньше 50К, должно округляться до 0,0M). Возможно, для демозаики используются более крупные окрестности, чем показанные здесь 2 x 2: возможно, они используют окрестности 7 x 7?
whuber

1
@whuber: Я не уверен, что могу напрямую объяснить все остальное. Конечно, можно использовать больше датчиков для получения одного выходного пикселя, но у меня нет никакого реального способа узнать, что именно в этом случае делает Canon. Необработанный файл с камеры даст точное количество лунок датчика, но все равно не скажет точно, как Canon получает данные от входа X к выходу Y.
Джерри Коффин

3
В хороших алгоритмах демозаписи (например, с адаптивной направленной однородностью) каждый датчик вносит вклад в более четырех выходных пикселей, поэтому теряется больше, чем одна строка или столбец. Достаточно просто получить недооцененный вывод из dcraw и сравнить размеры изображения с выводом DPP Canon, чтобы получить окончательный ответ, я попробую, когда у меня будет время.
Мэтт Грум

@Matt Grum: Правильно - оглядываясь назад, мой предыдущий комментарий довольно плохо сформулирован. Я пытался понять, что есть несколько алгоритмов, которые могут (и будут) терять / отбрасывать ~ 3 строки / столбца пикселей, но один только счетчик пикселей не скажет вам, какой из них они используют. Однако использование более сложного алгоритма, в котором используется больше датчиков на каждый выходной пиксель, практически не имеет значения.
Джерри Гроб

5

Я не знаю, почему термин «эффективный» используется DPReview, но есть несколько причин несоответствия между количеством фотосайтов (пикселей) на чипе и размером в пикселях результирующих изображений.

Некоторые датчики камеры имеют полосу маскированных пикселей по бокам. Эти пиксели идентичны основной массе пикселей на датчике, за исключением того, что они не получают свет. Они используются для обнаружения помех и вычитания их из сигнала, создаваемого светочувствительными пикселями.

Во-вторых, [хорошие] алгоритмы демозаписи используют много «операций соседства», это означает, что значение пикселя зависит в некоторой степени от значения соседних пикселей. Пиксели на крайнем крае изображения не имеют соседей, поэтому вносят вклад в другие пиксели, но не увеличивают размеры изображения.

Также возможно, что камера обрезает датчик по другим причинам (например, окружность изображения на объективе не совсем покрывает датчик), хотя я сомневаюсь, что это имеет место с 550D.


Используются ли пограничные пиксели для устранения помех или просто для установки черной точки?
Mattdm

1
И то, и другое, я думаю, если бы не было никаких помех (включая тепловую реакцию), черная точка была бы 0
Мэтт Грум,

Описание DPReview . Мне кажется, что он идет назад и вперед между двумя противоположными понятиями, и я не вижу, чтобы он действительно определял этот термин, кроме как неявно. Ваш ответ, я думаю, немного помогает, но все же заставляет задуматься, почему «эффективные» пиксели были бы больше, чем настоящие фото-сайты, хотя страница dpreview действительно дает некоторые возможности. Эффективно: используется для обработки данных изображения? Или изображение даты в конечном итоге так повлияло? (примечание: эффект глагол с e: создание существования.) Мне все еще интересно, что они имеют в виду.
Линдес

5

Есть две причины, по которым эффективные пиксели меньше, чем фактическое количество пикселей датчика (чувствительных элементов или датчиков). Во-первых, датчики Байера состоят из «пикселей», которые воспринимают один цвет света. Обычно присутствуют красные, зеленые и синие сенсоры, организованные в пары строк в виде:

RGRGRGRG
GBGBGBGB

Один «пиксель», как большинство из нас знакомо с ним, пиксель в стиле RGB на экране компьютера, генерируется из датчика Байера путем объединения четырех сенсоров, квартета RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Поскольку для генерирования одного компьютерного пикселя RGB используется сетка 2x2 из четырех датчиков RGBG, по краю датчика не всегда достаточно пикселей для создания полного пикселя. «Дополнительный» край пикселей обычно присутствует на датчиках Байера, чтобы приспособиться к этому. Дополнительная граница пикселей может также присутствовать просто для компенсации полной конструкции датчика, использования в качестве калибровочных пикселей и размещения дополнительных компонентов датчика, которые обычно включают ИК- и УФ-фильтры, фильтры сглаживания и т. Д., Которые могут препятствовать полное количество света от достижения внешней периферии датчика.

Наконец, датчики Байера должны быть «демозакнуты» для получения нормального RGB-изображения компьютерных пикселей. Существует множество различных способов демозирования датчика Байера, однако большинство алгоритмов пытаются максимизировать количество пикселей RGB, которое можно извлечь, смешивая пиксели RGB из каждого возможного перекрывающегося набора 2 × 2 квартетов RGBG:

Bayer Demosaicing

Для датчика с 36 одноцветными датчиками можно извлечь всего 24 пикселя RGB. Обратите внимание на перекрывающуюся природу алгоритма демозаики, наблюдая за анимированным GIF выше. Также обратите внимание, что во время третьего и четвертого проходов верхний и нижний ряды не использовались. Это демонстрирует, как не всегда могут использоваться граничные пиксели датчика при демозаизации массива Байера-сенсора.

Что касается страницы DPReview, я полагаю, что они могут иметь неверную информацию. Я полагаю, что общее число сенсоров (пикселей) на датчике Canon 550D Bayer составляет 18,0 мегапикселей, в то время как эффективные пиксели или число компьютерных пикселей RGB, которые можно сгенерировать из этой базы 18 мегапикселей, составляют 5184x3456 или 17 915 904 (17,9 мегапикселя). Разница сводилась бы к тем граничным пикселям, которые не могут полностью составить полный квартет, и, возможно, к некоторым дополнительным граничным пикселям, чтобы компенсировать конструкцию фильтров и крепежного оборудования, которые расположены перед датчиком.


Я только что заметил, что неправильно посчитал датчики в моем анимированном изображении. На первых двух этапах он не объединяет 8 отправителей ... он объединяет 28 отправителей в 8 пикселей. На последних двух шагах он объединяет 14 сенсоров в 4 пикселя. Извините за несоответствие. Я постараюсь исправить это в ближайшее время.
Йриста

-3

Извините, что разочарован, но ни одно из этих объяснений не соответствует действительности. На каждом датчике есть область вне области формирования изображения, которая также содержит фотосайты. Некоторые из них отключены, некоторые включены полностью, а некоторые используются для других целей мониторинга. Они используются для установки уровней усиления и баланса белого как «контрольный набор» для тех, кто выполняет фактическую съемку.

Если вы берете данные датчика RAW с любой из камер Powershot, совместимых с CHDK, и используете dcraw для их преобразования, вы можете получить полное изображение датчика, включая эти 100% черные и 100% белые области.

Что интересно, так это то, что разрешение RAW в камере всегда превышает разрешение JPG в камере. Причина в том, что более простые и быстрые методы интерполяции, используемые в камере для перехода от RAW к JPG, требуют, чтобы окружающие RGB фотосайты определяли конечный цвет каждого пикселя. Крайние и угловые фотосайты не имеют этих цветовых ссылок со всех сторон, чтобы сделать это. Выполнение этого процесса позже на компьютере с лучшим программным обеспечением для интерполяции RAW позволит вам получить немного большее разрешение по размеру изображения, чем то, которое можно получить с помощью встроенного в камеру JPG.

Рецензенты DPReview и авторы статей никогда не должны восприниматься кем-либо как Евангелие. Я нашел так много пробелов в их тестах и ​​вопиющих примерах, когда тестеры даже не знали, как пользоваться камерами, что я не учел их советы много лет назад.


5
Несмотря на ваш комментарий о том, что «ни одно из этих объяснений не является правдой», другие ответы фактически уже охватывают это.
Mattdm
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.