Матрица камеры это: Матрица фотоаппарата — основа основ

Содержание

Ремонт и устранение битых пикселей на матрице фотоаппарата в СПб, проверка на горячие пиксели

Проверка и устранение «горячих» и «битых» пикселей

Что такое «горячие» пиксели и чем они отличаются от «битых»?

Матрицы цифровых фотокамер состоят их множества отдельных светочувствительных элементов — пикселей. «Горячими» (Hot) принято называть пиксели, которые выдают неправильный цвет из-за нагрева матрицы. Как правило, это яркие точки красного, зеленого, синего или белого цвета. Матрица нагревается при длинных выдержках, которые обычно применяются при ночной пейзажной или астросъемке. В современных камерах речь идет о выдержках в несколько секунд и более, хотя у старых камер горячие пиксели могли появляться уже при выдержках в 1/8 или 1/4 с. Особенностью горячих пикселей является то, что они появляются только при длинных выдержках. Это является не дефектом, а конструктивной особенностью матриц, избавиться от которой при нынешнем уровне технологии можно только программно: многие фоторедакторы, такие как Adobe Photoshop, Lightroom и другие могут пакетно распознавать и подчищать такие пиксели, аналогичная функция есть и в меню большинства камер (хотя она работает более грубо и занимает много времени).

«Битыми» (Dead) принято называть пиксели, которые выдают неправильный цвет при любой выдержке. Если вы заметили точку, которая на всех кадрах светится неестественным цветом – это и есть битый пиксель. Пиксели могут становиться битыми как просто с течением времени, так и по вине пользователя. В первом случае речь идет о штучных пикселях, которые легко исправляются – либо через меню камеры, либо в сервисном центре, если у камеры нет такой возможности. Неисправный пиксель просто перестает учитываться камерой, а пустое место заполняется с помощью аппроксимации по соседним точкам. С учетом того, что пикселей на матрице миллионы, это никак не сказывается на качестве изображения.

Гораздо хуже дела могут обстоять при неаккуратном обращении с камерой: яркие источники света, такие как солнце (при использовании длиннофокусных объективов), электросварка (вблизи), промышленные / медицинские / осветительные лазеры с легкостью могут оставить неизгладимый след на матрице фотоаппарата. Эти дефекты легко распознаются: на матрице остается целое пятно или дорожка выбитых пикселей. К сожалению, такое повреждение невозможно исправить программно: слишком большая часть изображения получается потеряна, чтобы камера могла угадать, что именно скрывается под этим пятном. Обычно подобное лечится только полной заменой матрицы: это очень дорогая операция, поэтому мы призываем всегда быть осторожными при работе рядом с яркими источниками, не наводить камеру в их сторону или, по крайней мере, использовать плотные затемняющие ND фильтры.

Как обнаружить битые пиксели?

Допустим, вы собираетесь купить новую камеру, или б/у фотоаппарат с рук. Как проверить его на битые пиксели? Это довольно просто:

  • Закройте крышку объектива или снимите объектив и закройте байонетное отверстие штатной крышкой
  • Для зеркальных камер: закройте видоискатель, чтобы свет не проникал через него (для этого у некоторых камер есть специальные шторки, а у других — отдельные крышки)
  • Поставьте на камере ручной режим экспозиции (М)
  • ISO выставьте минимальное, выдержку — на 1 секунду.
  • Сделайте снимок
  • Внимательно рассмотрите его на экране компьютера
  • Если вы обнаружите подозрительный пиксель, запомните его расположение и сделайте снимок еще раз, затем проверьте эту часть кадра

Второй способ (при покупке камеры с истекшей гарантией с рук): приносите фотоаппарат в наш FOTO-ONE Service. У нас вы можете провести полную диагностику камеры: примерно за полчаса мы проверим ее на битые пиксели, состояние затвора и зеркального блока, проверим калибровку других систем, выдадим экспертное заключение о состоянии техники и рекомендации по ее обслуживанию.

Благодаря доступу к специальному диагностическом оборудованию и закрытому программному обеспечению, а также высокой квалификации наших специалистов, мы сможем быстро и точно выявить возможные неисправности и сориентировать по цене их устранения. При покупке дорогих профессиональных камер небольшая затрата на диагностику перед покупкой может избавить вас от больших расходов на дальнейший ремонт. В настоящий момент мы работаем с камерами Canon, Nikon и Fujifilm, т.е. являемся авторизованным (официальным) сервисом этих брендов.

Наш сервисный центр работает ежедневно, без обеда и выходных, с 9 до 21 часа

Получить бесплатную консультацию

ПЗС или КМОП матрица – “муки выбора”?

Существуют два вида матриц — CCD (ПЗС) и CMOS (КМОП).

Что же это значит и в чем отличие?

CCD и CMOS сенсоры были изобретены в 1960–1970х годах, и они пришли на смену электронно-лучевым видиконам. CCD сенсоры изначально стали доминирующими на рынке, они были нацелены на использование в научных исследованиях (равно как, и в промышленности, и медицине) и позволяли достичь превосходного качества изображения, соответствующего уровню технологий того времени. Полупроводниковые производства просто не могли «раскрыть» все возможности CMOS сенсоров на то время. Вновь интерес к производству CMOS возник в 90-х годах, так как была выявлена необходимость массового производства матриц с меньшим энергопотреблением и меньшей ценой.

В CCD сенсоре свет, который попадает на пиксель, изменяет его «электрическое» состояние. «Информация» об этом передаётся только через один выходной канал (реже — два). Далее происходит конвертация в уровень напряжения, проходит процедура буферизации и подача на выходе — как аналоговый электрический сигнал. Данный сигнал потом усиливается и конвертируется в цифровое значение, благодаря аналого-цифровому преобразователю (АЦП), который находится вне сенсора.

CMOS сенсоры благодаря технологии производства уже включают в себя усилители и АЦП, соответственно процедура получения изображения позволяет достичь гораздо большей скорости чтения.

Все это сказывается на общем методе получения изображения — технология CCD позволяет проводить считывание только с одного канала или максимум двух (и это является «бутылочным горлышком» данной технологии). Тогда как в CMOS сенсоре цифровые усилители используются в каждом отдельном пикселе (на данный момент в CMOS сенсорах могут использоваться 8 и 16 канальное считывание). Казалось бы, отдельное считывание каждого пикселя должно занимать больше времени, но так как процессы считывания в CMOS сенсорах происходят параллельно, это позволяет им достичь большей пропускной способности по сравнению с CCD сенсорами.


Источник изображения: dslrclub.ru

Это можно сравнить с дорогой  CCD представляет собой хорошую, но двух полосную автомагистраль, в то время как CMOS сенсоры можно сравнить с восьми или даже 16 полосным шоссе.

У каждой из технологий есть и свои особенности

— CCD сенсоры имеют лучшую светочувствительность и меньше подвержены «цифровому шуму» (дефект изображения, при котором видны пиксели случайного цвета и яркости) так как размер пикселя, как правило, больше, потому что в камерах, использующих CMOS сенсоры, сложная электронная схема уменьшает размер пикселя. Как результат — некоторое количество света попадает не на светочувствительные фотодиоды. Именно поэтому при съемке с малым количеством света рекомендованы камеры, использующие CCD сенсоры.

Но тут, следует отметить, что еще в 2009 году, компания Sony презентовала технологию т.н. «обратной подсветки». Вследствие этого, CMOS сенсоры стали гораздо более эффективны при съемке со слабым освещением и/или малоконтрастных объектов. И на текущий момент данный недостаток CMOS сенсоров был практически нивелирован. 

— CCD сенсоры требуют более сложной электронной схемы сопровождения и, как следствие, это выходит в более высокую стоимость готового изделия с их использованием. 

— Энергопотребление CCD сенсоров по некоторым расчётам превышает таковое у CMOS сенсоров вплоть до 100 раз! (именно благодаря низкому энергопотреблению и более компактному размеру CMOS сенсоров они стали основными на потребительском рынке. Например, все камеры в современных мобильных телефонах и планшетах используют CMOS сенсоры). А более высокое энергопотребление может привести к проблемам тепловыделения, которое не только негативно влияет на изображение, но так же может еще больше увеличить стоимость готового изделия (из-за применения специализированного охлаждения). 

— В сенсорах CMOS благодаря технологии индивидуального «чтения» каждого пикселя возможна работа т.н. «окна», которое позволяет выделить определённую часть сенсора (изображения) для считывания вместо всей области сенсора сразу. Это позволяет достичь высокой скорости съемки в выделенной области (по сравнению с CCD). 

 
— В разных типах сенсоров используются различные экспозиционные принципы: CCD используют Global shutter, а в CMOS — Rolling Shutter технологий (более подробно, мы рассмотрим эту тему в отдельной статье).

Следовательно, беря во внимание все вышесказанное, если Вам:

Необходима высокая скорость съемки — Вам необходимы камеры с CMOS сенсорами.   

Необходима высокая светочувствительность — Вам необходимы камеры с CCD сенсорами (либо CMOS с технологией «обратной подсветки»).

Необходимо малое количество «цифрового шума» — Вам необходимы камеры с CCD сенсорами.

Необходимо чуть более дешёвое решение — Вам необходимы камеры с CMOS сенсорами.

Подводя итог, следует отметить тот факт, что в любом случае выбор камеры должен зависеть именно от сферы применения, а не только исходя из технических характеристик.   

Наши специалисты помогут подобрать камеру именно под Ваши нужды!


Видеокамера CCD, CCD матрица

SpyG (СпайДжи) by Spyglass Surveillance Systems. Продажа систем видеонаблюдения


        Для поиска камеры воспользуйтесь Конфигуратором подбора выше


         В современных цифровых камерах применяется два типа матриц: CCD (Charged Coupled Device) и CMOS (Complementary Metal-Oxide Semiconductor). Ключевое различие между

видеокамерой CCD и CMOS-камерой состоит в том, что CCD-матрица преобразует заряды пикселей в аналоговый сигнал, а CMOS-матрица в цифровую информацию.

            CCD-матрицы обеспечивают для камер более низкий шумовой уровень. Также видеокамеры CCD имеют высокий динамический диапазон (чувствительность). Поэтому у видеокамеры CCD реже возникают трудности с подавлением помех и увеличением чувствительности, то есть качество получаемого изображения у видеокамеры CCD гораздо выше, чем у CMOS-камеры.

         Но в отличие от камер на основе CMOS-матрицы, видеокамера CCD имеет более сложный принцип считывания сигнала и более высокий уровень энергопотребления. А следовательно видеокамера CCD обходится дороже в производстве.

         Таким образом, видеокамера CCD — это камера со сверхчувствительной матрицей. Видеокамера CCD актуальна в тех случаях, когда требуется высокое качество изображения.

 В нашем ассортименте представлены IP камеры и аналоговые камеры  SpyG как с матрицей CMOS, так и CCD.

Корзина

Товаров: 0 Зарегистрируйтесь

Личный кабинет позволит Вам отслеживать свои покупки и видеть оптовые цены


Обратная связь Форум

SpyG  IP камеры видеонаблюдения,  SpyG IP камеры, цифровые камеры SpyG,  купольные камеры SpyG, аналоговые камеры,  видеосервер SpyG,  ПО для видеокамер SpyG, видеорегистратор SpyG,   видео сервер SpyG,  объектив для камер  видеонаблюдения, крепление для камеры, термокожух для камер,  беспроводные камеры,  бескорпусные  видеокамеры, POE, видеокамера CCD, видеокамера CMOS.

Все права защищены

197343, Санкт-Петербург, ул. Матроса Железняка, 57А, офис 41 (4 этаж)
Телефон: (812) 495-68-80 |

Цифровое формирование изображений – возможности микроскопии (II)

Представление приборов с зарядовой связью (ПЗС)

Несомненно, цифровые камеры с различными конфигурациями ПЗС-фотоприемников (приборов с зарядовой связью) являются наиболее распространенными устройствами получения снимков в современной оптической микроскопии. До последнего времени, для регистрации наблюдаемых в микроскоп изображений, использовались, главным образом, специализированные пленочные камеры. Этот традиционный метод, основанный на светочувствительности галогенидосеребряных фотопленок, включает в себя стадию временного хранения скрытого изображения в форме реакционно-активных участков экспонированной пленки. Видимым изображение становится только после химической обработки эмульсионного слоя пленки (проявления).

Рис. 1. Цифровые ПЗС-камеры для оптической микроскопии

В цифровой камере вместо светочувствительной пленки используется фотонный детектор (фотоприемник) — тонкая кремниевая пластина, содержащая от нескольких тысяч до нескольких миллионов светочувствительных элементов (областей), организованных в регулярную матрицу. Эти светочувствительные элементы получают и хранят информацию об изображении, в виде локализованного электрического заряда, величина которого определяется интенсивностью падающего светового излучения. Переменный электрический сигнал, связанный с каждым элементом изображения (пикселем) фотоприемника, с высокой скоростью считывается, как значение интенсивности соответствующего участка изображения. После преобразования считанных значений в цифровую форму из них воссоздается изображение, которое, практически мгновенно, можно отобразить на мониторе компьютера.

На рисунке 1 представлены некоторые цифровые камеры, созданные специально для оптической микроскопии. Цифровая камера Nikon Digital Eclipse DXM1200 формирует цифровые изображения высокого фотографического качества, обладает разрешением в 12 миллионов пикселей, низким уровнем искажений, превосходной цветопередачей и высокой чувствительностью. Управляющее ПО камеры предоставляет пользователю широкую свободу действий в отношении сбора, организации и коррекции цифровых изображений. Непосредственный контроль в цвете на экране вспомогательного компьютера со скоростью 12 кадров в секунду позволяет легко выполнять фокусировку изображений, которые можно сохранять в одном из трех (по выбору) форматов: JPG, TIF и BMP, что обеспечивает высокую гибкость в использовании информации.

На рисунке 1 представлена новейшая цифровая камера DS-5M-L1 Digital Sight от компании Nikon, предназначенная для цифровой съемки в микроскопии. По сути, камера представляет собой цифровую систему формирования изображений, созданную по принципу «все в одном», включая автономный блок управления со встроенным ЖК-монитором. Благодаря простым меню и программируемым режимам формирования изображений, в соответствии с различными методами наблюдения, система оптимизирует получение высококачественных изображений с разрешением до 5 мегапикселей. Автономная конструкция обеспечивает преимущества независимой работы, включая сохранение изображений на компактной флэш-карте памяти (CompactFlash Card), устанавливаемой в модуль «блок управления/монитор», и, при этом, предоставляет возможность, при желании, включить систему в полнофункциональную сеть. Для подключения к ПК система оборудована интерфейсом USB, а для подключения к локальной сети или к сети Интернет предусмотрен порт Ethernet. Для просмотра изображений в реальном масштабе времени и дистанционного управления камерой система поддерживает веб-браузер, а также протоколы HTTP, Telnet, сервер/клиент FTP, и совместима с протоколом DHCP. Показанная на рисунке 1 система представляет современные технологии, доступные сегодня для получения цифровых изображений в оптической микроскопии.

Пожалуй, самым важным преимуществом цифровой технологии получения изображений, что подтверждается использованием ПЗС-камер, является возможность незамедлительно убедиться в успешном получении требуемого изображения. Особенно очевидной становится ценность такой возможности, если учесть экспериментальные сложности во многих ситуациях получения изображений и преходящий характер большинства исследуемых процессов. ПЗС-фотоприемник выполняет те же функции, что и фотопленка, но во многих режимах получения изображений обладает рядом преимуществ. ПЗС-камерынаучно-исследовательского класса обладают экстраординарным динамическим диапазоном, пространственным разрешением, полосой пропускания и скоростью формирования изображений. С учетом светочувствительности и собирательной способности некоторых ПЗС-систем, для получения пленочных изображений со сравнимым отношением сигнал/шум потребовалась бы фотопленка со светочувствительностью около 100 000 единиц ISO. Пространственное разрешение современных ПЗС-фотоприемников аналогично этому параметру фотопленок, тогда как разрешение по интенсивности света на два-три порядка лучше, чем у пленочных и видеокамер. В отличие от высококачественных ПЗС-фотоприемников, которые обеспечивают значительный квантовый выход даже в ближней инфракрасной области спектра, обычные фотографические пленки нечувствительны к волнам длиной более 650 нанометров. Линейность характеристик ПЗС-камер в широком диапазоне значений освещенности обеспечивает превосходное качество и количественные характеристики, присущие спектрофотометрам с функцией регистрации изображений.

ПЗС-фотоприемник состоит из большого числа светочувствительных элементов, организованных в двумерную матрицу на тонкой кремниевой подложке. Полупроводниковые свойства кремния позволяют ПЗС-структуре, при определенных значениях электрического смещения, улавливать и удерживать индуцированные фотонами носители заряда. Отдельные элементы изображения (пиксели) разграничиваются в кремниевой матрице ортогональной решеткой узких прозрачных токопроводящих полосок (электродов), или затворов, нанесенных на кристалл. Основным светочувствительным элементом матрицы ПЗС является металл-оксид-полупроводниковый (МОП) конденсатор, работающий как фотодиод и устройство хранения. На рисунке 2 представлен отдельный МОП прибор такого типа. Под действием напряжения обратного смещения, отрицательно заряженные электроны мигрируют в область, расположенную под положительно заряженным затвором. Высвобожденные фотонами электроны накапливаются в обедненной области, пока не заполнят все накопительные ямы-емкости. При объединении в общую матрицу ПЗС отдельные фоточувствительные элементы в одном направлении разделяются при помощи напряжений, прикладываемых к поверхностным электродам, а в другом направлении электрически изолируются друг от друга изолирующими барьерами, или ограничителями каналов (охранными кольцами) в кремниевой подложке.

Светочувствительные фотодиодные элементы матрицы ПЗС поглощают бóльшую часть энергии падающих фотонов, в результате чего происходит высвобождение электронов, с образованием в кристаллической решетке кремния мест с дефицитом электронов (т. н. дырок). На каждый поглощенный фотон образуется одна пара «электрон — дырка» и соответствующий заряд, который накапливается в каждом пикселе пропорционально числу падающих фотонов. Накопление и перемещение зарядов, накапливающихся в течение заданного интервала времени, осуществляется внешними напряжениями, прикладываемыми к электродам каждого пикселя. Сначала каждый пиксель фоточувствительной матрицы работает, как потенциальная яма для хранения заряда в процессе его накопления. И хотя в потенциальной яме могут накапливаться как отрицательно заряженные электроны, так и положительно заряженные дырки (в зависимости от конструкции матрицы ПЗС), элементы заряда, создаваемые падающим светом, обычно, называют фотоэлектронами. В рамках нашего обсуждения, за носители заряда мы принимаем электроны. Фотоэлектроны могут накапливаться и храниться в течение длительных периодов времени, прежде чем будут считаны электронной системой камеры. Процесс накопления и хранения зарядов является одним из этапов формирования изображения

Вообще, процесс формирования изображения ПЗС-камерой можно разделить на четыре основных функциональных этапа: формирование заряда при взаимодействии фотонов со светочувствительной областью устройства, накопление и хранение, перенос и измерение высвободившегося заряда. На первом этапе, под действием падающих фотонов в обедненной области структуры МОП-конденсатора генерируются электроны и дырки; высвободившиеся электроны мигрируют в потенциальную яму, находящуюся под близлежащим положительно смещенным электродом затвора. Алюминиевые или поликремниевые поверхностные электроды затворов перекрывают каналы переноса заряда, расположенные в изолирующем слое окисла кремния, находящемся между структурой затворов и кремниевой подложкой, но изолированы от этих каналов. Использование поликремния в качестве материала для электродов обеспечивает зону прозрачности для падающих волн длинее 400 нанометров, что повышает долю доступной для воздействия фотонов поверхности прибора. Образующиеся в обедненной зоне электроны сначала накапливаются в положительно смещенных потенциальных ямах, связанных с каждым пикселем. В процессе считывания, накопленный заряд, под действием прикладываемых к затворам напряжений, последовательно сдвигается по каналам переноса. Рисунок 3 иллюстрирует систему электродов, образующих границы отдельного светочувствительного элемента матрицы ПЗС.

Рис. 2. Металл-оксид-полупроводниковый (МОП) конденсатор

В общем случае, хранящийся заряд прямо пропорционален световому потоку, падающему на пиксель фотоприемника, вплоть до полной емкости потенциальной ямы; следовательно, полная емкость потенциальной ямы (FWC) определяет максимально возможный сигнал, воспринимаемый пикселем, и является главным фактором, влияющим на динамический диапазон матрицы ПЗС. Зарядовая емкость потенциальной ямы элемента матрицы ПЗС определяется, главным образом, физическими размерами отдельного пикселя. С момента своего появления на рынке, самые распространенные ПЗС-фотоприемники состоят, как правило, из квадратных пикселей, собранных в прямоугольную матрицу с соотношением сторон 4:3. На рисунке 4 приведены типовые размеры некоторых, наиболее распространенных сегодня форматов фотоприемников, с их дюймовыми обозначениями, в соответствии с исторически сложившейся традицией в отношении диаметров видиконов.

Форматы матриц ПЗС

Прямоугольная форма и общепринятые размеры матриц ПЗС — результат их конкуренции на начальном этапе с видиконами, которым требовались твердотельные приемники для формирования электрического выходного сигнала, соответствующего принятым в то время видеостандартам. Отметим, что «дюймовые» обозначения не соответствуют в точности ни одному из форматов матриц ПЗС, а представляют собой размер прямоугольной области сканирования в видиконе соответствующего круглого сечения. Диагональ матрицы, обозначенной как «1-дюймовая», равна 16 миллиметрам, а размеры фотоэлемента, т. е., 9,6×12,8 мм, произошли от 1-дюймового видикона с наружным диаметром 25,4 мм и с диаметром входного окна около 18 мм. К сожалению, эта сбивающая с толку, система обозначений сохранилась, и часто используется скорее, для обозначения «типа», нежели размера матрицы ПЗС. Более того, в ней имеются форматы, определяемые комбинациями дюймово-десятичных размеров, например, широко распространенная 1/1,8-дюймовая матрица ПЗС, имеющая размер, промежуточный между ½-дюймовым и 2/3-дюймовым устройствами.

Хотя, в бытовых камерах по-прежнему используются, преимущественно, прямоугольные фотоприемники одного из «стандартных» форматов, в камерах научно-исследовательского уровня все шире применяются квадратные матрицы фотоприемников, которые лучше согласуются с круглым полем изображения в микроскопе. Сегодня производится широкий спектр типоразмеров матриц ПЗС, с пикселями различных размеров, оптимизированных для различных рабочих условий. Матрица ПЗС распространенного формата 2/3 дюйма содержит, как правило, не менее 768×480 фотодиодов и имеет размеры 8,8 мм x 6,6 мм (диагональ 11 мм). Максимальный размер (представленный диагональю) многих матриц ПЗС, значительно меньше поля зрения типового микроскопа, в результате чего получается только часть (сильно увеличенная) поля изображения. В некоторых случаях сильное увеличение может оказаться полезным, но, если урезанное поле зрения препятствует получению изображения, необходимо использовать промежуточные оптические компоненты, уменьшающие изображение. В качестве альтернативы можно использовать матрицу ПЗС большего размера, лучше согласующуюся с диаметром поля изображения, который в типовых микроскопах составляет 18–26 мм.

Приблизительная емкость хранения потенциальной ямы в матрице ПЗС равна площади диода (пикселя), умноженной на 1000. Матрицы ПЗС бытового уровня, форматом 2/3 дюйма, с размером пикселя 7–13 мкм, способны хранить от 50 000 до 100 000 электронов. Исходя из этого приближения, полная емкость потенциальной ямы диода с размерами 10×10 микрометров будет равна, приблизительно, 100 000 электронов. При заданном размере матрицы ПЗС, выбор конструкции, в отношении суммарного количества пикселей в матрице и, следовательно, ее размеров, требует компромисса между пространственным разрешением и зарядовой емкостью пикселя. Тенденция к максимальному увеличению числа пикселей и, как следствие, разрешения в современных устройствах потребительского уровня привела к использованию пикселей очень малых размеров, — в некоторых из новейших матриц ПЗС формата 2/3 дюйма используются пиксели размером менее 3 мкм.

В матрицах ПЗС для научных целей традиционно используются фотодиоды бóльших размеров, чем в бытовых (особенно, для видеорежима) и промышленных камерах. Полная емкость потенциальной ямы и динамический диапазон прямо определяются размерами фотодиода. Поэтому, с целью расширения динамического диапазона, повышения чувствительности и улучшения отношения сигнал/шум, в матрицах ПЗС для камер научно-исследовательского уровня с медленной разверткой используются, как правило, фотодиоды с размерами до 25×25 мкм. Совершенствование конструкций многих высококачественных камер научно-исследовательского уровня позволило использовать в них матрицы бóльших размеров с меньшими пикселями, способные поддерживать оптическое разрешение микроскопа на высоких скоростях передачи кадров. Большие матрицы, с несколькими миллионами пикселей, в таких усовершенствованных камерах способны формировать изображения с высоким разрешением всего поля зрения, а, в случае необходимости, обеспечивают повышенную чувствительность более крупных пикселей за счет использования бининга (см. ниже) и регулируемой скорости считывания.

Считывание электронов из матрицы ПЗС

Прежде, чем хранящийся в каждом элементе матрицы ПЗС заряд можно будет измерить, чтобы определить падающий на этот пиксель поток фотонов, упомянутый заряд необходимо переместить в модуль считывания, не нарушив, при этом, целостность зарядового пакета. Ключевыми аспектами использования матриц ПЗС в качестве устройств формирования изображений являются быстрые и эффективные процессы переноса и считывания заряда. В матрице ПЗС, где МОП-конденсаторы в большом количестве размещаются очень близко друг к другу, заряд перемещается через устройство за счет определенных изменений напряжения на затворах конденсаторов, вынуждающих заряд перетекать из одного конденсатора (либо ряда конденсаторов) в другой. Перенос заряда в кремнии эффективно сочетается с напряжением в виде тактовых (синхронизирующих) импульсов, прикладываемым к структуре перекрывающих электродов, — основе термина «прибор с зарядовой связью». Изначально матрицы ПЗС задумывались, как запоминающие устройства, и предназначались для использования в качестве электронного варианта устройств на цилиндрических магнитных доменах (ЦМД). Схема процесса переноса заряда удовлетворяет критическому требованию к запоминающим устройствам, относительно установления физической величины, представляющей бит информации, и сохранения целостности этой физической величины вплоть до ее считывания (или измерения). В матрицах ПЗС, использующихся для формирования изображений, бит информации представляется пакетом зарядов, порожденных фотонным взаимодействием. Поскольку матрица ПЗС является последовательным устройством, пакеты зарядов считываются поочередно.

Рис. 3. Структура воспринимающего элемента (пикселя) ПЗС

Чтобы определить фотонный поток, падающий на каждый из фотодиодов, необходимо измерить заряд, накопленный (и хранимый) каждым из фотодиодов за определенный промежуток времени, называемый временем интегрирования или временем экспонирования. Количественное определение хранящегося заряда осуществляется за счет комбинации параллельных и последовательных переносов, поочередно доставляющих зарядовые пакеты каждого из воспринимающих элементов в единый измерительный модуль. Сеть электродов, или структура затворов, встроенная в примыкающий к воспринимающим элементам слой матрицы ПЗС, образует сдвиговый регистр для переноса заряда. Основополагающий принцип переноса заряда, позволяющий выполнять его последовательное считывание с двумерной фотодиодной матрицы, изначально требует одновременного переноса всего массива отдельных зарядовых пакетов, образующего на поверхности фотоприемника параллельный регистр, в виде построчного сдвига (с шагом, равным одному ряду фотодиодов матрицы). Перемещение всего параллельного регистра переносит ближайший к краю регистра ряд (строку) зарядов пикселей в специальный одиночный ряд пикселей, расположенный вдоль одного из краев кристалла, под названием последовательный регистр. Из этого ряда (регистра) зарядовые пакеты последовательно переносятся в расположенный на этом же кристалле измерительный усилитель. После того, как последовательный регистр опустеет, он снова заполняется очередной сдвигаемой строкой параллельного регистра. Описанный цикл параллельно-последовательных сдвигов повторяется до тех пор, пока не опустеет (т. е. будет считан) весь параллельный регистр. Некоторые производители матриц ПЗС вместо терминов «параллельный» и «последовательный» регистр используют, соответственно, термины «вертикальный» и «горизонтальный», хотя первый вариант лучше ассоциируется с функциями, выполняемыми этими регистрами.

Для иллюстрации концепции последовательного считывания зарядов матрицы ПЗС широко используется так называемая «пожарная цепочка» для измерения количества осадков, когда интенсивность осадков, выпадающих на массив (матрицу) ведер может варьироваться, в зависимости от места, аналогично фотонам, падающим на пиксели фотоэлемента (см. рисунок 5(a)). Параллельный регистр представляется матрицей ведер, собирающих за период интегрирования различные количества воды (заряда). Лента конвейера пошагово перемещает ведра с водой в направлении ряда пустых ведер, представляющих собой последовательный регистр, который перемещается вторым конвейером, перпендикулярным первому. На рисунке 5(b) содержимое одного ряда ведер параллельно перемещается (сдвигается) в ведра последовательного регистра. Операции последовательного сдвига и считывания иллюстрируются рисунком 5©, на котором показано, как собранная дождевая вода последовательно перемещается из каждого ведра в калиброванную измерительную емкость — аналог выходного усилителя матрицы ПЗС. После того, как содержимое всех ведер последовательного конвейера будет поочередно измерено, очередной параллельный сдвиг переместит содержимое следующего ряда накопительных ведер в емкости последовательного регистра. Процесс будет повторяться, до тех пор, пока не будет измерено содержимое каждого ведра (пикселя).

Для создания матрицы ПЗС, использующейся для формирования изображений, существует множество способов объединения МОП-конденсаторов и управления напряжениями на их затворах. Как уже упоминалось, электроды затворов расположены в виде полосок, покрывающих всю рабочую поверхность матрицы ПЗС. Простейшей и наиболее распространенной конфигурацией для переноса заряда является трехфазная матрица ПЗС. В матрице такой конфигурации каждый из фотодиодов (пикселей) разделяется на три части, с тремя параллельными потенциальными ямами, ограниченными электродами затворов. В такой матрице каждый третий затвор включается в одну цепь формирователя тактовых импульсов. Базовый воспринимающий элемент матрицы ПЗС, соответствующий одному пикселю, состоит из трех затворов, подключенных к трем отдельным формирователям тактовых импульсов (синхроимпульсов), называемых синхроимпульсами фазы-1, фазы-2 и фазы-3. Каждая последовательность из трех параллельных затворов формирует однопиксельный регистр, а вся совокупность пикселей, покрывающих рабочую поверхность матрицы ПЗС, образует параллельный регистр устройства. Попав в потенциальную яму, электроны перемещаются через каждый пиксель в результате трехступенчатого процесса, который сдвигает зарядовый пакет от одного ряда пикселей к следующему. Последовательные изменения напряжения, прикладываемого к электродам параллельной (вертикальной) структуры затворов, перемещают потенциальные ямы и находящиеся в них электроны под управлением импульсов синхронизации параллельного регистра.

Общая схема синхронизации, использующаяся для трехфазного переноса, начинается с этапа интегрирования заряда, в течение которого для двух из трех параллельных фаз каждого пикселя задается положительное смещение, создающее область сильного поля относительно третьего затвора, на который подается низкий, или нулевой потенциал. Например, фазы 1 и 2 можно обозначить, как фазы накопления, и удерживать под высоким электростатическим потенциалом, относительно фазы 3, которая будет называться изолирующей фазой, и использоваться для изоляции заряда, накапливаемого высокопотенциальными фазами соседнего пикселя. По истечении времени интеграции заряда осуществляется его перенос, который начинается сохранением высокого потенциала только на затворах фазы-1, вследствие чего, под ними накапливаются формируемые в этой фазе заряды, а заряды, сформированные в фазах-2 и 3, находящихся в это время под нулевым потенциалом, быстро диффундируют в потенциальную яму под затвором фазы-1. На рисунке 3 представлена структура электродов, определяющих каждый из пикселей трехфазной матрицы ПЗС, и показано накопление электронов в потенциальной яме под электродом затвора фазы-1, находящимся под положительным потенциалом (+V). Перенос заряда осуществляется в соответствующим образом синхронизированной последовательности формирования напряжений, подаваемых на затворы, что вынуждает потенциальные ямы и изолирующие барьеры перемещаться по всем пикселям.

Рис. 4. Стандартные форматы фотоприемников на матрицах ПЗС (размеры в миллиметрах)

На каждом шаге переноса заряда на затвор потенциальной ямы, находящейся перед зарядовым пакетом, подается положительное напряжение, а на затвор потенциальной ямы, содержащей электроны — отрицательное, либо ноль (земля). В результате, накопленные электроны принудительно переносятся в элемент, тактируемый следующей фазой. С целью максимально эффективного переноса заряда, тактовые сигналы (уровни напряжения) соседствующих фаз переключаются не круто, а плавно и с некоторым перекрытием. Переход к фазе 2 осуществляется за счет подачи положительного потенциала на затворы фазы-2, в результате чего накопленный заряд распределяется между потенциальными ямами фазы-1 и фазы-2. Когда, после этого, потенциал фазы-1 становится равным потенциалу общей цепи (земли), весь зарядовый пакет переносится в фазу 2. Аналогичная последовательность переключений напряжения, синхронизированных с тактовым сигналом параллельного сдвигового регистра, используется для переноса заряда из фазы 2 в фазу 3; процесс продолжается до полного завершения сдвига одного пикселя. Подача одного трехфазного цикла синхронизации одновременно на весь параллельный регистр сдвигает всю матрицу на один ряд. Важное свойство трехфазного переноса состоит в постоянном наличии потенциального барьера между зарядовыми пакетами двух соседних пикселей, что обеспечивает взаимно однозначное пространственное соответствие пикселей фотоприемника и дисплея на протяжении всей последовательности формирования изображения.

Рисунок 6 иллюстрирует последовательность описанных выше операций по переносу заряда в трехфазной матрице ПЗС, а также последовательность импульсов управления сдвигом, формируемых тактовым генератором параллельного сдвигового регистра. На представленном схематичном изображении пикселя показан перенос заряда слева направо, под управлением тактовых сигналов, которые одновременно уменьшают напряжение на положительно смещенном электроде (определяющем потенциальную яму) и повышают на одном электроде справа (рисунки 6(a) и 6(b)). На последнем из трех шагов (рисунок 6©), заряд полностью переносится от одного затвора к другому. Следует отметить, что с целью повышения эффективности переноса и минимизации возможных потерь заряда, в процессе переключения высокие и низкие уровни импульсов синхронизации несколько перекрываются по времени (не показано).

В результате каждого полного параллельного переноса, зарядовые пакеты из одного ряда пикселей перемещаются в последовательный регистр, из которого они последовательно сдвигаются в выходной усилитель (см. пояснение на примере «пожарной цепочки», рисунок 5©). Для горизонтального (последовательного переноса) используется тот же трехфазный механизм зарядовой связи, что и для вертикального сдвига ряда.

Синхронизация, в этом случае, осуществляется сигналами тактового генератора последовательного регистра. После переноса всех зарядов из сдвигового регистра в модуль считывания, схема синхронизации параллельного регистра формирует сигналы перемещения в последовательный регистр очередного ряда накопленных фотоэлектронов. Из последовательного регистра каждый зарядовый пакет поступает в выходной модуль, где распознается и считывается выходным усилителем (иногда его называют встроенным в кристалл предусилителем), который преобразует заряд в пропорциональное напряжение. Выходное напряжение усилителя представляет собой величину сигнала, формируемого фотодиодами, по мере последовательного считывания их зарядов слева направо в каждом ряду, и сверху вниз по рядам двумерной матрицы. На этом этапе, на выходе матрицы ПЗС формируется аналоговый сигнал напряжения, эквивалентный растровой развертке накопленного заряда на рабочей поверхности устройства.

После того, как выходной усилитель усилит зарядовый пакет и преобразует его в пропорциональное напряжение, это напряжение подается на аналогово-цифровой преобразователь (АЦП), который преобразует его (напряжение) в двоичный код, состоящий из 0 и 1, и необходимый для интерпретации сигнала компьютером. Каждому пикселю присваивается значение, соответствующее амплитуде сигнала, с шагами дискретизации, соответствующими разрешающей способности, или битовой глубине АЦП. Например, 12-разрядный АЦП присваивает каждому пикселю значение из диапазона 0 — 4095, представляющего 4096 возможных уровней яркости изображения (2 в 12-й степени равно 4096 ступеням АЦП). Каждая ступень представления уровня яркости называется аналого-цифровой единицей (ADU).

Учитывая большое количество операций, требующихся для получения цифрового изображения, а также точность и скорость выполнения процесса, технологическое совершенство нынешних матриц ПЗС поражает. Ниже приведена последовательность операций, необходимых для формирования единичного изображения полнокадровой ПЗС-камерой. Открывается затвор камеры и начинается накопление фотоэлектронов; на электроды затворов предварительно поданы смещения, соответствующие фазе накопления заряда.

По окончании периода интегрирования закрывается затвор; под управлением сигналов синхронизации, формируемых электронным модулем камеры, накопленный в пикселях заряд построчно (рядами) сдвигается по параллельному регистру. Ряды зарядовых пакетов последовательно перемещаются из одного крайнего ряда параллельного регистра в последовательный сдвиговый регистр. Заряды пикселей, находящиеся в последовательном регистре, поочередно перемещаются в выходной модуль, где считываются встроенным в кристалл усилителем; этот усилитель усиливает электронный сигнал и преобразует его в аналоговое напряжение. АЦП присваивает каждому пикселю цифровое значение, соответствующее амплитуде сигнала (напряжения) этого пикселя. Значение каждого пикселя сохраняется в памяти компьютера или в буфере кадров камеры. Процесс последовательного считывания повторяется до считывания всех рядов пикселей параллельного регистра; камеры высокого разрешения содержат 1000 и более рядов пикселей. Хранящийся в памяти файл окончательного изображения (объемом до нескольких мегабайт) отображается в соответствующем формате на мониторе компьютера, с целью визуального анализа. С целью удаления остаточного заряда, перед очередной экспозицией выполняется полный цикл считывания матрицы ПЗС, за исключением этапа преобразования в цифровую форму.

Рис. 5. Интегрирование фотонно-индуцированного заряда

Несмотря на большое количество выполняемых операций, более одного миллиона пикселей могут быть перемещены по матрице, преобразованы в 12-разрядные цифровые коды яркости, занесены в память компьютера и отображены на его дисплее менее чем за одну секунду. Для считывания и отображения изображения 1-мегапиксельной камерой с частотой аналого-цифрового преобразования, равной 5 МГц, требуется около 0,5 секунды. Эффективность переноса заряда можно очень сильно повысить в охлаждаемых ПЗС-камерах. При этом, потери заряда, даже после нескольких тысяч переносов из наиболее удаленных от выходного усилителя областей матрицы, минимальны.

Архитектура фотоприемника на приборах с зарядовой связью (ПЗС)

В современных системах формирования изображений используются три основных варианта архитектуры матриц ПЗС: полнокадровая, с покадровым переносом и с построчным переносом (см. рисунок 7). Преимущество полнокадровой матрицы ПЗС, как уже упоминалось в описании процедуры считывания, заключается в практически 100-процентном использовании ее светочувствительной поверхности, на которой почти отсутствуют мертвые зоны между пикселями. На время считывания матрицы ПЗС ее рабочая поверхность должна быть защищена от света. Для этой цели, обычно, используется электромеханический затвор, управляющий экспозицией. После того, как затвор закроется, выполняется считывание и перенос заряда, накопленного за время экспозиции (время, в течение которого затвор остается открытым). Поскольку эти два процесса не могут происходить одновременно, скорость передачи кадров изображения ограничивается скоростью работы механического затвора, скоростью переноса заряда и количеством шагов в операции считывания. Хотя, полнокадровые устройства и обладают наибольшей из всех типов матриц ПЗС площадью светочувствительной поверхности, они более всего подходят для визуализации образцов с широким внутрикадровым динамическим диапазоном и для тех приложений, которые не требуют временнóго разрешения менее одной секунды. В режиме частичного использования матрицы (когда, с целью повышения скорости считывания, считывается только часть всего массива пикселей), максимально возможная скорость передачи информации составляет около 10 кадров в секунду, и ограничивается механическим затвором.

Камеры с покадровой передачей могут передавать информацию об изображении быстрее, чем полнокадровые устройства, поскольку при покадровой передаче экспозиция и считывание могут выполняться одновременно, с различной степенью временнóго перекрытия. По конструкции параллельного регистра они аналогичны полнокадровым устройствам, но одна половина прямоугольной матрицы пикселей закрывается непрозрачной маской и используется в качестве буфера хранения для фотоэлектронов, генерируемых открытой частью светочувствительной матрицы. По окончании экспонирования изображения, накопленный светочувствительными пикселями заряд быстро (обычно, за 1 миллисекунду) сдвигается в пиксели буферной части матрицы. Поскольку пиксели хранения защищены от воздействия света алюминиевым, или аналогичным непрозрачным покрытием, хранящийся в этой части матрицы заряд можно систематически считывать с более медленной скоростью, обеспечивающей меньшие потери заряда, а на светочувствительную часть матрицы в это время может экспонироваться очередное изображение. При этом становится ненужным затвор, поскольку время, необходимое для переноса изображения из области формирования в область хранения, составляет только часть времени типовой экспозиции (выдержки). Благодаря отсутствию в них механического затвора, камеры с матрицами покадрового переноса могут работать в непрерывном высокоскоростном режиме передачи кадров, и с успехом использоваться для исследований быстрых кинетических процессов, например, по методу, визуализации относительного содержания красителей, где важны пространственное разрешение и динамический диапазон. Недостаток фотоприемников такого типа заключается в использовании для формирования изображений только половины матрицы ПЗС. Вследствие этого кристалл имеет бóльшие, чем у полнокадрового устройства с эквивалентным фотоприемником, размеры, что удорожает камеру и накладывает ограничения на ее физическую конструкцию.

В матрице ПЗС с построчным переносом заряда, столбцы активных пикселей изображения и закрытые масками столбцы пикселей хранения-переноса чередуются по всему массиву параллельного регистра. Поскольку канал переноса непосредственно примыкает к каждому столбцу светочувствительных пикселей, для того, чтобы накопленный заряд попал в канал переноса его (заряд) необходимо сдвинуть всего на один столбец. Этот единственный шаг переноса можно выполнить менее чем за 1 миллисекунду, после чего матрица хранения считывается при помощи параллельных сдвигов в последовательный регистр, а массив светочувствительных пикселей в это время экспонируется очередным изображением. Благодаря электронному управлению интервалами экспонирования, архитектура с построчным переносом позволяет использовать очень малые времена интегрирования, а вместо использования механического затвора для защиты матрицы от света, ее можно эффективно сделать нечувствительной к свету путем сброса накопленного заряда, вместо сдвига его в каналы переноса. Хотя фотоприемники построчного переноса позволяют выполнять высококачественное считывание изображений ярко освещенных объектов на скоростях видеорежима, базовые модели ранних устройств страдали от узкого динамического диапазона, низкого разрешения и чувствительности, вследствие того, что около 75% поверхности матрицы ПЗС были заняты каналами хранения-переноса.

Несмотря на то, что ранние модели матриц ПЗС с построчным переносом, например, использующиеся в камкордерах, обеспечивают высокую скорость считывания и передачи кадров и не требуют применения затворов, они не обладают должными параметрами для использования в микроскопии высокого разрешения при низких уровнях освещенности. Помимо пониженной светочувствительности, свойственной конструкции с чередованием столбцов формирования изображения и столбцов хранения-переноса, высокие скорости считывания создавали сильные помехи и сужали динамический диапазон ранних моделей ПЗС-камер. Благодаря совершенствованию конструкций фотоприемников и электронных компонентов камер ситуация изменилась до такой степени, что современные построчные матрицы ПЗС обеспечивают цифровым камерам превосходные параметры, позволяющие использовать такие камеры в микроскопии, включая исследования с низкими уровнями освещенности, например, регистрацию малых концентраций флуоресцентных молекул. Прикрепленная микрооптика, отъюстированная на поверхности матрицы ПЗС, так чтобы охватить пары пикселей формирования-хранения сигнала, собирает световые потоки, которые, без этих линз, попали бы на закрытые пиксели и были бы потеряны, и фокусирует их на светочувствительные пиксели (см. рисунок 8). Благодаря сочетанию пикселей малых размеров и микролинз, фотоприемники с построчным переносом способны обеспечивать пространственное разрешение и эффективность использования светового потока, сравнимые с полнокадровыми и покадрового переноса матрицами ПЗС. Эффективная светочувствительная поверхность фотоприемников построчного переноса со встроенными микролинзами составляет 75–90% от площади поверхности.

Кроме того, встраивание микролинз в структуру матриц ПЗС позволяет расширить спектральную чувствительность фотоприемника в синюю и ультрафиолетовую области спектра. Это предоставляет дополнительные возможности в сфере коротковолновых приложений, например, в области популярных методик с использованием зеленого флуоресцентного белка (GFP) и красителей, возбуждаемых ультрафиолетовым излучением. С целью повышения квантового выхода в видимой части спектра, в новейшие высококачественные кристаллы встраиваются затворные структуры из материалов, обладающих высокой прозрачностью в сине-зеленом диапазоне спектра, например, из оксида индия и олова. Такие непоглощающие затворы позволяют приблизить квантовый выход в зеленой части спектра к 80%.

Рис. 6. Схема синхронизации трехфазной матрицы ПЗС

Прежние ограничения, связанные с узким динамическим диапазоном матриц ПЗС с построчным переносом, преодолены, главным образом, благодаря совершенствованию электронных компонентов, что позволило снизить шум чтения в камере почти в два раза. Поскольку активная площадь пикселей матрицы ПЗС с построчным переносом, примерно, в три раза меньше, чем у полнокадровых устройств, полная емкость потенциальной ямы (функция площади пикселя), аналогичным образом, меньше. В прошлом, этот фактор, вкупе со сравнительно высокими шумами камеры, был причиной узкого динамического диапазона, не позволявшего получать в результате аналогово-цифрового преобразования разрешение более 8–10 разрядов. Шумы считывания современных высококачественных камер с построчным переносом составляют не более 4–6 электронов, обеспечивая динамический диапазон, эквивалентный динамическому диапазону 12-разрядных камер с полнокадровыми матрицами ПЗС. Дополнительные усовершенствования схем синхронизации и электронных узлов камеры позволили повысить скорости считывания. Современные камеры построчного переноса позволяют получать 12-разрядные мегапиксельные изображения на частоте 20 МГц, что почти в четыре раза превышает аналогичный параметр полнокадровых камер с матрицами ПЗС сравнимых размеров. В некоторые конструкции матриц ПЗС построчного переноса вносятся и другие усовершенствования, включая изменение состава полупроводника, с целью повышения квантового выхода в ближней инфракрасной области спектра.

Функциональные характеристики фотоприемников на приборах с зарядовой связью

Некоторые рабочие параметры камеры, определяющие этап считывания в процессе формирования изображения, влияют на качество последнего. Скорость считывания в большинстве ПЗС-камернаучно-исследовательского класса регулируется, и находится, обычно, в диапазоне от 0,1 МГц до 10 — 20 МГц. Максимально возможная скорость зависит от скорости работы АЦП и других электронных компонентов камеры, определяющих время, необходимое для аналогово-цифрового преобразования одного пикселя. Для изучения быстрых кинетических процессов необходимы высокие скорости считывания и передачи кадров, позволяющие достичь требуемого временнóго разрешения. В некоторых ситуациях необходимо передавать видеоданные со скоростью 30 и более кадров в секунду. К сожалению, среди различных шумовых составляющих, которые всегда присутствуют в электронном изображении, основной компонентой является шум чтения, и с повышением скорости считывания уровень этой компоненты возрастает. Когда максимальное временнóе разрешение не требуется, улучшить изображение образца, создающего пиксели низкой интенсивности, можно за счет снижения скорости считывания до значения, обеспечивающего минимальный уровень помех при адекватном отношении сигнал/шум. В тех случаях, когда для исследования динамических процессов требуются высокие скорости формирования и передачи кадров изображения, можно изменить стандартную последовательность считывания, снизив количество обрабатываемых зарядовых пакетов, что, в некоторых случаях, позволяет повысить скорость формирования изображения до нескольких сотен кадров в секунду. Такого повышения скорости формирования и передачи кадров можно достичь за счет объединения пикселей во время считывания матрицы ПЗС и /или за счет считывания только части этой матрицы (см. ниже).

Программное обеспечение большинства использующихся в оптической микроскопии ПЗС-камер позволяет выделить из всей матрицы некоторое подмножество пикселей, или субматрицу, для получения и отображения изображений. При выделении (для обработки) только части поля изображения, не вошедшие в это поле пиксели не обрабатываются аналого-цифровым преобразователем, в результате чего скорость считывания повышается. В зависимости от используемой управляющей программы камеры, размер субматрицы можно выбрать из ряда стандартных значений, либо определить интерактивно, в виде области интереса, воспользовавшись компьютерной мышью и дисплеем. Метод выделения субматрицы считывания используется, обычно, для получения последовательностей изображений в заданный интервал времени, с тем, чтобы уменьшить размеры файлов изображений и упростить работу с ними.

В процессе считывания, накопленные зарядовые пакеты смежных пикселей матрицы ПЗС можно объединять и создавать меньшее количество суперпикселей. Этот процесс носит название бининг, и осуществляется в параллельном регистре, путем параллельного сдвига в последовательный регистр двух или более рядов, прежде чем выполнить процедуру последовательного сдвига и считывания. Процесс бининга, как правило, повторяется и в последовательном регистре, путем нескольких сдвигов зарядовых пакетов в модуль считывания, прежде чем результирующий заряд будет подан на вход выходного усилителя. Организовать можно любую комбинацию параллельных и последовательных сдвигов, однако, обычно, в каждый отдельный суперпиксель объединяют симметричную матрицу пикселей (см. рисунок 9). Например, для реализации бининга 3×3 сначала выполняются 3 операции параллельного сдвига (соответственно, трех рядов) в последовательный регистр. С этого момента каждый из пикселей последовательного регистра содержит объединенный заряд 3-х пикселей, которые соседствовали в смежных параллельных рядах. Затем, до измерения заряда, выполняются 3 такта последовательного сдвига в выходной модуль. Результирующий зарядовый пакет обрабатывается, как один пиксель, однако содержит фотоэлектроны 9-и физических пикселей (или суперпикселя формата 3×3). Хотя бининг и ухудшает пространственное разрешение, этот метод, зачастую, позволяет получать изображения в таких условиях, когда с использованием стандартной схемы считывания сделать это просто невозможно. Кроме того, бининг позволяет повышать скорость передачи кадров последовательностей изображений, когда эта скорость ограничивается циклом чтения, который задает камера. Помимо этого, при равных временах выдержки бининг обеспечивает лучшее отношение сигнал/шум. Среди дополнительных преимуществ, следует отметить более короткое время экспонирования, требующееся для получения изображений определенной яркости (чрезвычайно важное качество для съемки живых клеток), а также меньшие размеры файлов изображений, что снижает требования к объему ресурсов хранения компьютера и ускоряет обработку изображений.

Третьим фактором формирования изображений в камере, который может влиять на качество изображения, поскольку изменяет процесс считывания информации с матрицы ПЗС, является коэффициент передачи (усиления) электронной системы камеры. Настройка коэффициента передачи цифровой ПЗС-камеры устанавливает, какое количество накопленных фотоэлектронов определяет каждую из ступеней уровня яркости, которую способна различить система считывания, и применяется, как правило, на этапе аналого-цифрового преобразования. Увеличение коэффициента усиления соответствует уменьшению количества фотоэлектронов, приходящихся на одну градацию яркости (количество электронов/ADU), и позволяет разделить данный сигнал на большее количество уровней яркости. Отметим, что этот метод отличается от выбора коэффициента усиления в фотоумножителях и в видиконах, где изменяющийся сигнал усиливается с определенным коэффициентом. Хотя регулировка усиления и предоставляет метод увеличения ограниченной амплитуды сигнала до требуемого количества уровней яркости, слишком малое количество электронов, которым будут отличаться смежные уровни яркости в результате чрезмерного повышения этого коэффициента, может приводить к ошибкам аналого-цифрового преобразования. Высокий коэффициент усиления может стать причиной возникновения шумов из-за ошибок аналого-цифрового преобразования, которые будут проявляться в виде зернистости конечного изображения. В том случае, когда требуется сократить время экспонирования, повышение коэффициента передачи позволяет сохранить неизменным количество уровней яркости, несмотря на снижение уровня сигнала, при условии, что такое повышение не приведет к чрезмерному ухудшению качества изображения. В качестве примера влияния применения различных коэффициентов усиления к сигналу постоянного уровня, рассмотрим вариант, когда исходное значение коэффициента усиления, при котором каждой единице ADU (уровню яркости) соответствуют 8 электронов, определяет, что сигнал пикселя, содержащего 8000 электронов, будет отображаться с использованием 1000 уровней яркости. В результате увеличения исходного коэффициента усиления в 4 раза, количество электронов, соответствующих одному уровню яркости, уменьшится до 2 (2 электрона/ADU), и система аналого-цифрового преобразования будет различать 4000 уровней яркости. 

Рис. 7. Типовые архитектуры приборов с зарядовой связью (ПЗС)

Качество цифрового изображения можно оценить по четырем количественно-измеримым критериям, которые определяются, частично конструкцией матрицы ПЗС, а также отражают реализацию уже упоминавшихся рабочих параметров камеры, непосредственно влияющих на рабочие характеристики ПЗС-фотоприемника. Ниже перечислены основные критерии качества изображения и характер их проявления.

Пространственное разрешение. Определяет способность визуализировать мельчайшие детали образца, без проявления пикселей на изображении.

Разрешение по интенсивности освещения. Определяет динамический диапазон или количество уровней яркости (градаций серого цвета), различимых на отображаемом изображении.

Временнóе разрешение. Частота дискретизации (скорость передачи кадров) определяет способность отслеживать перемещение живого образца или быстрые кинетические процессы.

Отношение сигнала к шуму. Определяет различимость и чистоту сигналов от образца, относительно фона изображения.

При формировании изображений в микроскопии, как правило, невозможно одновременно оптимизировать все важные критерии обеспечения качества одного изображения, или последовательности изображений. Получение изображений наилучшего качества, в рамках ограничений, накладываемых конкретным образцом или экспериментом, требует, как правило, отыскания компромисса между перечисленными критериями, которые, зачастую, выдвигают противоречивые требования. Например, получение в заданный интервал времени последовательности изображений живых флуоресцентно-помеченных образцов, может потребовать сокращения общего времени экспонирования, чтобы минимизировать фотообесцвечивание и фототоксичность. Решить такую задачу можно несколькими способами, хотя, каждый из них влечет ухудшение того или иного параметра получения изображения. Менее частое экспонирование образца ухудшает временнóе разрешение; использование бининга для сокращения интервалов экспонирования снижает пространственное разрешение; увеличение коэффициента передачи сужает динамический диапазон и ухудшает отношение сигнал/шум. Для получения оптимальных результатов в различных ситуациях часто требуются совершенно разные подходы к получению изображений. В отличие от предыдущего примера, чтобы достичь максимального динамического диапазона для единственного изображения образца, требующего короткой экспозиции, использование бининга, или повышение коэффициента передачи, может решить поставленную задачу, не оказывая значительного отрицательного влияния на качество изображения. Для квалифицированного выполнения цифровой визуализации требуется доскональное знание решающих критериев качества изображения, а также практических аспектов сбалансированной настройки рабочих параметров камеры, с целью максимального удовлетворения наиболее важных для конкретной ситуации требований.

Основные аспекты качества цифрового изображения в микроскопии определяются всего лишь несколькими основными параметрами матрицы ПЗС и камеры, причем, эти параметры чрезвычайно сильно взаимосвязаны. К наиболее важным факторам, в контексте практического использования ПЗС-камер, следует отнести источники шумов фотоприемника и отношение сигнал/шум, скорость передачи кадров и временнóе разрешение, размер пикселя и пространственное разрешение, спектральный диапазон, квантовый выход и динамический диапазон.

Матрицы камер видеонаблюдения — CCD (ПЗС), CMOS (КМОП), принцип действия

Матрица во многом определяет такие характеристики камеры видеонаблюдения как разрешающая способность, светочувствительность, уровень шумов. По принципу действия можно выделить две основные технологии производства:

  • CCD (ПЗС),
  • CMOS (КМОП).

Основные их возможности и характеристики описаны в материале про устройство камеры видеонаблюдения, однако, для тех, кому интересна эта тема, здесь матрицы будут описаны несколько подробнее.

Общие сведения

Любая матрица состоит из массива светочувствительных элементов (пикселей), расположенных на полупроводниковой пластине.

Каждый из них формирует минимальный элемент изображения. Происходит это путем преобразования энергии светового потока в электрический заряд (не путать с током). Для различных типов дальнейшая обработка (считывание) сигнала определяется как раз технологией производства.

CCD (ПЗС) матрицы

Этот тип применяется для аналоговых камер видеонаблюдения. Принцип действия здесь заключается в последовательном сдвиге заряда по ячейкам и преобразование его в электрический ток (напряжение) уже вне кристалла (рис.1).

Таким образом, вся площадь элементарных площадок задействуется для обработки светового потока, как следствие — обеспечивается высокий уровень чувствительности. Отсутствие на полупроводнике активных элементов определяет также низкий уровень собственных шумов.

CMOS (КМОП) матрицы

Эта технология позволяет осуществлять преобразование заряда в электрический сигнал непосредственно на пикселе. Соответственно считывание производится сразу с нужного элемента, что позволяет практически сразу сформировать цифровой сигнал.

Таким образом, CMOS технологии идеально подходят для цифровых (ip) камер видеонаблюдения.

Однако, этот процесс требует размещения на каждом пикселе матрицы соответствующих электронных компонентов (транзисторы, конденсаторы, резисторы), что уменьшает полезную площадь, а соответственно — чувствительность (рис.2).

Стоит заметить, что последние разработки позволяют увеличить светочувствительную область от 30% (APS технологии) до 70% (ACS).

Естественно, все активные элементы повышают уровень собственных шумов.

Матрицы цветного изображения

Чтобы получить на выходе камеры цветное изображение нужно разложить световой поток на основные составляющие цвета, которых, как известно семь.

Однако, для обеспечения цветопередачи видеонаблюдение использует три — красный, зеленый, синий. При этом используются пиксели с соответствующими светофильтрами (рис.3).

Понятно, что формирование единичного размера изображения осуществляется тремя элементами матрицы, что приводит к уменьшению (при прочих равных условиях) их площади, а значит — общей чувствительности камеры видеонаблюдения.

ОСНОВНЫЕ ВЫВОДЫ

По большому счету, потребителю вполне достаточно характеристик камер видеонаблюдения, указанных их производителем, а сравнительный анализ параметров матриц различных типов является излишним. Но, тем не менее, конспективно изложу некоторые выводы, следующие из вышеприведенного материала.

Итак, при прочих равных условиях:

  • чувствительность камер на базе ПЗС матриц выше чем КМОП, а монохромных лучше чем цветных,
  • уровень собственных шумов CCD матрицы ниже нежели у CMOS,
  • КМОП матрицы имеют меньшее энергопотребление, дешевле при производстве.

Однако, достоинство, касающееся цены обольщать не должно, поскольку стоимость матрицы составляет всего лишь часть от цены остальных компонентов камеры видеонаблюдения.

  *  *  *


© 2014-2021 г.г. Все права защищены.
Материалы сайта имеют ознакомительный характер, могут выражать мнение автора и не подлежат использованию в качестве руководящих и нормативных документов.

SWIR-камера: как увидеть невидимое

Создание инновационных продуктов в гражданской сфере − один из приоритетов в развитии холдинга «Швабе». Предприятие холдинга, НПО «Орион», разработало первую российскую SWIR-камеру. Устройство способно работать в условиях пониженной освещенности и передавать цифровое изображение на расстояние. О SWIR, преимуществах камеры и сферах ее применения – в нашем материале.

 

На короткой волне

Работа распространенных сегодня приборов ночного видения основана на принципе наблюдения объектов в свете Луны, ночного неба, звезд и других источников излучения за счет многократного усиления полученного сигнала. Но использование классических приборов ночного видения в системах с передачей видеосигнала на расстояние крайне затруднительно. Для передачи ночной съемки в виде цифрового сигнала могут быть использованы SWIR-камеры, включающие матричные фотоприемные устройства на основе InGaAs (арсенида индия-галлия).

SWIR (short wave infrared или коротковолновый инфракрасный диапазон) – это международное наименование светового излучения в диапазоне электромагнитных волн 0,9 – 2,5 мкм. Сенсоры на основе InGaAs могут работать в диапазоне короткого инфракрасного излучения и обладают высокой чувствительностью в этом диапазоне.


Для излучения SWIR-диапазона не являются преградой пар, туман, дым, тонированные стекла или, например, силикон. Благодаря этим преимуществам SWIR-камеры получили распространение в качестве приборов наблюдения в сложных метеоусловиях и условиях плохой видимости.

Сфера применения новой технологии постоянно расширяется. Безусловно, такие камеры заинтересуют военных и службы безопасности. Большие возможности открываются в использовании SWIR-камер для различного рода мониторинга. Широчайшие перспективы у технологии − в медицине и науке.
 

Всевидящее око «Ориона»  

Несколько лет назад ученые из научно-производственного объединения «Орион» представили SWIR-камеру собственного производства. Работа над прибором длилась два года, он полностью разработан в Москве и на 100% состоит из российских комплектующих. Инфракрасная камера со спектральным диапазоном 0,9-1,7 микрон весит не более 250 грамм. Такой малый вес позволяет применять ее на беспилотниках любого класса, а также усиливать длиннофокусными и короткофокусными объективами. Изображение с камеры может передаваться на монитор компьютера или даже смартфона.


«SWIR-камера ‒ одна из главных разработок нашего предприятия, отмеченная представителями экспертного сообщества на множестве профильных выставок. В серию мы запускаем усовершенствованную модель. Ее новый корпус сделан из сплава, который применяется в авиационной и космической промышленности. Оболочка соответствует одному из самых высоких классов защиты IP67, надежно защищая уникальную матрицу от повреждений, пыли и воды. Камеру можно погружать на глубину до одного метра без риска для ее дальнейшей работоспособности», – отмечает генеральный директор НПО «Орион» Евгений Чепурнов.

Камера состоит из объектива, матрицы и блока обработки. В матрице камеры используются фоточувствительные элементы из арсенида индия-галлия. SWIR-камера может поставляться в составе беспилотного комплекса ORION-DRONE и гражданского гусеничного вездехода СБХ-10, также разработанных НПО «Орион».


SWIR-камера, установленная на дроне

SWIR-камерой от «Ориона» можно пользоваться в любое время суток в сложных погодных условиях. Она помогает обнаруживать замаскированные объекты, так как камуфлирующие покрытия, эффективные в области спектра от 0,4 до 0,9 мкм, теряют свои маскирующие свойства в диапазоне SWIR-волн. Кроме того, камера позволяет эффективно находить источники лазерного излучения на длине волны 1,54 мкм, применяемые, например, в дальномерах, а также любые тепловые вспышки – выстрелы, залпы, сигналы. 

С помощью SWIR-камеры значительно облегчается мониторинг линий электропередач, нефте- и газопроводов, железных дорог, сельскохозяйственных полей и лесных угодий. SWIR может применяться в морской и речной навигации для обнаружения и наблюдения объектов на воде. Для ученых более доступными становятся научные наблюдения в любых широтах. SWIR-камеры могут широко использоваться в работе с лазерами: для анализа профиля луча в реальном времени, испытания и регулировки лазеров.


Потенциальной сферой применения камеры в медицине может стать ее использование в аппаратуре для когерентной томографии, бесконтактного мониторинга жизненно важных признаков, создания карт микрокаскулярного кровотока и метаболизма в реальном времени. Метод визуализации флуоресценции с использованием SWIR также способен обнаруживать ранний рак.

Другая интересная область применения SWIR-камер – это анализ и выявление подлинности предметов искусства. Так, в ноябре 2018 года были проведены испытания камеры НПО «Орион» в Государственном научно-исследовательском институте реставрации. SWIR-излучением «просветили» икону начала XVIII века и натюрморт 1937 года. С помощью камеры удалось рассмотреть нижние слои краски, затертые надписи и даже подготовительный рисунок картин. SWIR-технология позволяет увидеть весь жизненный путь шедевров и облегчает дальнейшую работу реставраторам.

CMOS (КМОП) матрицы — что это?

В современных видеокамерах активно используют 2 типа матриц: CMOS и CCD.  Матрица CMOS (КМОП) построена на базе CMOS-технологии, которая и дала название этому продукту (complementary metal-oxide-semiconductor, комплементарная структура металл-оксид-полупроводник). Если в камерах среднего ценового сегмента оба варианта применяются примерно в равной пропорции, то в бюджетных видеосистемах чаще встречается именно КМОП.

Принцип работы технологии следующий:

  • Подается сигнал сброса;
  • Диоды накапливают заряд во время экспозиции;
  • Происходит считывание параметров.

Несмотря на многолетнюю историю применения, матрицы данного типа не относятся к устаревшим. Они до сих пор позволяют выполнить задачу организации видеонаблюдения на объекте. Ежегодно выпускаются новые модели камер, оснащенных CMOS.

Основные преимущества

Ключевые причины, по которым стоит сделать выбор в пользу CMOS (КМОП) матрицы:
  • Невысокая стоимость по сравнению с ПЗС-аналогами. При увеличении размеров разница в стоимости продолжает расти;
  • Низкое энергопотребление. Важный фактор при работе камеры от аккумулятора, устаревшей электросети объекта, значительном количестве подключенных устройств;
  • Возможность кадрированного считывания – анализа произвольных пикселей, увеличивающая скорость записи. Не нужно считывать сразу всю информацию, как с ПЗС-камерой. Улучшается качество ручной фокусировки;
  • Используются в миниатюрных видеокамерах. 

Недостатки

Делая выбор в пользу данного типа элементов, стоит учитывать ограничения CMOS-технологии:
  • Повышенный нагрев устройства, рост шумов;
  • Низкая светочувствительность матрицы на старых моделях камер. Сейчас ситуация частично исправлена за счет новой линейки оборудования с технологией Exmor с увеличением светочувствительности пикселей;
  • Искривленное изображение быстро перемещающихся объектов. Эффект «rolling shutter».

Со временем технология совершенствуется, отставание в указанных областях от CCD-матриц уменьшается.

Область применения CMOS матриц

КМОП-элементы благодаря надежности, низкой стоимости и гибкой настройки получили широкое применение в нескольких сферах нашей жизни. Прежде всего, в фотографии – камеры телефонов и фотоаппаратов оснащены именно этими матрицами, удовлетворяя потребности пользователя. Второе место – видеонаблюдение:
  • При охране квартир;
  • Наблюдении за аэропортом;
  • Контроле строительной площадки;
  • В офисе;
  • В торговом центре;
  • На складе;
  • Для других объектов с разными условиями эксплуатации.

Матрицы удастся встретить в дорожной (контроль поведения участников дорожного движения), научной сфере, медицине, промышленности.


Что вам нужно знать в первую очередь)

Матрица перспективы и ортогональной проекции

Что вам нужно знать в первую очередь

Прежде чем мы начнем изучать, как построить базовую матрицу перспективной проекции, нам сначала нужно рассмотреть некоторые методы, на которых построены матрицы проекции.

Преобразование угла обзора в единичный куб

Рис. 1: P ‘- это проекция буквы P на холст.

Умножение точки P на нашу простую матрицу перспективной проекции даст точку P ‘, чьи:

  • x’- и y’-координаты являются координатами P на плоскости изображения.Оба x ‘и y’ определены в пространстве NDC. Как упоминалось во введении, матрица перспективной проекции повторно отображает координаты трехмерной точки в ее «2D» положение на экране в пространстве NDC (в диапазоне [-1,1] в этом уроке). Обычно матрица гарантирует, что точки, видимые через камеру (содержащиеся в пирамиде), будут переназначены в диапазон [-1,1] (независимо от того, является ли холст квадратом — это не координаты экранного пространства, а координаты NDC).
  • Помимо переназначения трехмерной точки на ее двумерные координаты, нам также потребуется переназначить ее координату z.В предыдущем уроке по растеризации мы вообще не беспокоились о переназначении z ‘, но графические процессоры переназначают P’ z-координату в диапазон [0,1] или [-1,1] в зависимости от API. Когда P лежит на ближней плоскости отсечения, z ‘переназначается на 0 (или -1), а когда P лежит на дальней плоскости отсечения, z’ переназначается на 1.

Рис. 2: матрица проекции преобразует усеченную пирамиду обзора в единичный куб или канонический объем обзора.

Тот факт, что координаты x и y точки P ‘, а также ее координата z переназначены в диапазон [-1,1] и [0,1] (или [01,1]), по сути, означает, что преобразование точки P матрицей проекции преобразует объем усеченной точки обзора в куб размером 2x2x1 (или 2x2x2).Этот куб часто называют единичным кубом (это не совсем куб, если он имеет размерность 2x2x1, но вы поняли идею) или объем канонического представления . Вы также можете увидеть этот процесс, как если бы усеченная пирамида была нормализована. Это очень важная концепция в компьютерной графике, которую иногда трудно даже визуализировать, но усеченная область просмотра, которая определяется ближней и дальней плоскостями отсечения, а также размерами экрана, который вовсе не является кубом, а имеет форму усеченной пирамиды, является действительно «искривлен» в куб.По сути, это то, что делает матрица проекции. Когда пространство, определяемое усеченной пирамидой, «деформируется» в куб, становится легче работать с точками (куб — геометрическая форма, с которой работать намного проще, чем усеченная пирамида). Эта очень важная концепция — одна из вещей, которые вы должны помнить о матрицах проекций. Матрица проекции (по крайней мере, так, как она используется в компьютерной графике) преобразует пространство, определяемое усеченной пирамидой, в единичный куб.

Об отсечении

Рисунок 3: пример обрезки в 2D.На этапе отсечения новые треугольники могут быть сгенерированы везде, где исходная геометрия перекрывает границы усеченной области просмотра.

Рис. 4: точка, расположенная за камерой, будет проецироваться так же, как и точки впереди, но ее проецируемые координаты будут отражаться в обоих направлениях.

Давайте познакомимся с концепцией отсечения. По сути, он «обрезает» геометрию, пересекающую границы усеченной пирамиды. Другими словами, если некоторые треугольники или линии перекрывают просматриваемые плоскости усеченной вершины, геометрия «обрезается» таким образом, что части геометрии, содержащиеся в усеченной вершине, сохраняются, а части, которые находятся за пределами объема усеченной вершины ( и, следовательно, не видны камере), отброшены (рис. 3).Отсечение может показаться только процессом оптимизации, хотя его основная цель — не отбрасывать части сцены, которые не видны, чтобы ускорить рендеринг. «К сожалению» перспективная проекция одинаково хорошо работает для объектов, которые находятся перед камерой или за ней. Рассмотрим точку, расположенную за «наблюдателем». Представим себе точку с координатами (2, 5, 10). Если применить к этому моменту правила перспективной проекции, то получится:

$$ \ begin {array} {l} х ‘= \ dfrac {2} {- 10} = -0.2, \\ y ‘= \ dfrac {5} {- 10} = -0,5, \\ \ end {array} $$

Обратите внимание на то, что проецируемые координаты будут абсолютно правильными, но также обратите внимание, что точка фактически отражается на холсте в обоих направлениях. Хотя координаты x и y точки в пространстве камеры положительны, в конечном итоге они оказываются отрицательными в пространстве экрана (рисунок 4).

Урок, объясняющий один из наиболее распространенных алгоритмов отсечения, известный как алгоритм Коэна-Сазерленда, будет позже добавлен в раздел, посвященный расширенной растеризации, хотя мы поговорим больше об отсечении и пространстве отсечения в четвертой главе.

Теперь, когда мы понимаем концепцию отсечения, мы можем более легко объяснить, почему это преобразование из усеченной пирамиды просмотра в этот канонический объем просмотра выполняется.

Рис. 5: преобразование усеченной перспективы в единичный куб до отсечения.

  • Основная причина, как мы упоминали ранее, заключается в том, что он преобразует довольно сложное для работы пространство (усеченную пирамиду усеченной пирамиды обзора) в базовый блок. В этом пространстве легче выполнять такие операции, как, например, отсечение.
  • После определения относительно этого канонического объема просмотра становится тривиальным преобразование трехмерных координат точек в двухмерные координаты на плоскости изображения.

Имейте в виду, что модель камеры, которую мы хотим смоделировать, — это камера-обскура , которая определяется ближней и дальней плоскостью отсечения, а также углом обзора (см. Урок о модели камеры-обскуры). Параметр угла обзора необходимо учитывать при переназначении точек из пространства экрана в пространство NDC.

точек проецирования на экран

Прежде чем мы изучим, как создать перспективную матрицу, мы сначала еще раз рассмотрим, как проецировать трехмерные точки на экран (этот процесс подробно описан в уроке «Вычисление пиксельных координат трехмерной точки»). Обычно 3D-точки, проецируемые на плоскость изображения, сначала преобразуются в систему координат камеры. В этой системе координат положение глаза соответствует началу координат, оси x и y определяют плоскость, параллельную плоскости изображения, а ось z перпендикулярна этой плоскости xy.В нашей настройке плоскость изображения будет расположена ровно на одну единицу от начала системы координат камеры, то есть глаза. Это соглашение может вас сбить с толку, если вы привыкли к системе, в которой расстояние до плоскости изображения произвольно, как в случае с OpenGL. В следующих главах мы узнаем, как расширить матрицу для обработки произвольных плоскостей отсечения. Но пока мы будем использовать это соглашение, чтобы упростить демонстрацию.

Имейте в виду, что Scratchapixel использует правую систему координат, как и многие другие коммерческие приложения, такие как Maya.Чтобы узнать больше о правой и левой системах координат, ознакомьтесь с уроком по геометрии в разделе «Математика и физика для компьютерной графики». Поскольку мы используем правую систему координат, камера будет указывать в направлении, противоположном оси z. Это связано с тем, что, когда мы проецируем точки на плоскость изображения, мы хотим, чтобы ось x указывала вправо. С математической точки зрения, все точки, видимые камерой, имеют отрицательную z-компоненту, когда точки выражены в системе координат камеры.Это подробно объясняется в предыдущем уроке.

Давайте представим, что мы хотим спроецировать точку P на холст. Если мы проведем линию от P до глаза, мы увидим, что P проецируется на экран в точке P ‘. Как мы вычисляем P ‘?

Рисунок 6: Для проецирования P на плоскость изображения (в P ‘) мы задаем координаты xy точки P по координате z точки P.

На рисунке 6 вы можете видеть, что зеленый (\ (\ Delta ABC \)) и красный (\ (\ Delta DEF \)) треугольники имеют одинаковую форму, но не одинаковый размер.Такие треугольники называются подобными . Другими словами, красный треугольник можно рассматривать как уменьшенную версию зеленого треугольника. Подобные треугольники обладают полезным свойством: соотношение сторон между ними постоянно. Другими словами:

$$ \ dfrac {BC} {EF} = \ dfrac {AB} {DE}. $$

Поскольку нас интересует сторона BC, то есть положение P ‘на плоскости изображения, мы можем написать:

$$ BC = \ dfrac {AB * EF} {DE}. $$

Учитывая, что B лежит на плоскости изображения, которая находится на расстоянии одной единицы от A (AB = 1), у нас есть окончательная формула для расчета длины BC:

$$ BC = \ dfrac {(AB = 1) * EF} {DE} = \ dfrac {EF} {DE}.$$

Из этого уравнения мы можем найти координаты x и y точки P ‘. Все, что нам нужно сделать, это разделить координаты x и y точки P на ее координату z. В математической форме мы можем написать (уравнение 1):

$$ \ begin {array} {l} P’_x = \ dfrac {P_x} {- P_z}, \\ P’_y = \ dfrac {P_y} {- P_z}. \ end {массив} $$

Обратите внимание, что мы разделили \ (P_x \) и \ (P_y \) на \ (- P_z \), а не на \ (P_z \), потому что z-компонента точек, видимых через камеру, всегда отрицательна, если определена в камере. система координат.Таким образом, очень просто вычислить координаты P ‘, которая является проекцией P на плоскость изображения. Обратите внимание, что на рисунке 6 показана только проекция координаты y точки P на плоскость изображения. Если повернуть рисунок 5 на девяносто градусов по часовой стрелке и заменить ось y осью x, вы получите вид сверху, представляющий проекцию координаты x точки P на плоскость изображения.

Однородные координаты

Рисунок 7: чтобы умножить трехмерную точку на матрицу 4×4, нам нужно преобразовать декартовы координаты точки в однородные координаты.Поскольку все, что требуется для этого преобразования, — это установить однородную четвертую координату на 1, это преобразование должно быть только неявным. Внутри самой функции умножения точки на матрицу мы можем преобразовать точку из однородной обратно в декартовы координаты, разделив преобразованные координаты точки x ‘, y’ и z ‘на w’.

Вы можете подумать, что на самом деле в перспективной проекции нет ничего особенно сложного. Сам принцип действительно довольно прост. Однако на этом история не заканчивается.Что мы действительно хотим, так это закодировать этот процесс проекции в матрицу, чтобы проецирование точки на плоскость изображения могло быть получено с помощью базового умножения точки на матрицу. Давайте быстро рассмотрим, что мы знаем об этом процессе.

Если вы помните, что мы говорили в уроке по геометрии, две матрицы могут быть умножены друг на друга, если числа на каждой стороне знака умножения равны или, иначе говоря, если количество столбцов левой матрицы и количество строк правой матрицы равно.

$$ \ begin {array} {l} {\ color {\ red} {\ text {no:}}} & [n \: m] * [q \: n] \\ {\ color {\ green} {\ text {yes:}}} & [m \: n] * [n \: q] \\ \ end {массив} $$

Помните, что точка может быть представлена ​​матрицей с одной строкой (некоторые люди предпочитают запись с одним столбцом, но Scratchapixel использует запись с одной строкой). Но тогда наша точка представляет собой матрицу 1×3 (1 строка, 3 столбца) и, следовательно, не может быть умножена на матрицу 4×4 (матрицы 4×4 используются в CG для преобразования точек и векторов.Они кодируют вращение, масштаб и перенос). Что мы можем сделать? Чтобы решить эту проблему, мы используем трюк, который состоит в представлении точки с координатами не три на четыре. Говорят, что такие точки имеют однородных координат и могут быть представлены в виде матрицы 1×4. Четвертая координата точки в ее однородном представлении обозначается буквой w . Когда мы переводим точку из декартовых координат в однородные, w устанавливается равным 1. \ (P_c \) (точка в декартовых координатах) и \ (P_h \) (точка в однородных координатах) взаимозаменяемы, если w равно 1.Когда w отличается от 1, мы должны разделить все четыре координаты точки [xyzw] на w, чтобы вернуть значение w в 1 (если мы снова хотим использовать точку как трехмерную декартову точку) .

$$ \ begin {array} {l} [x \: y \: z] \ neq [x \: y \: z \: w = 1.2] \\ x = \ dfrac {x} {w}, y = \ dfrac {y} {w}, z = \ dfrac {z} {w}, w = \ dfrac {w} {w} = 1 \\ {[x \: y \: z] = [x \: y \: z \: w = 1]} \ end {массив} $$

Возможно, более формальный способ определения этой идеи — сказать, что точка с однородными координатами [x, y, z, w] соответствует трехмерной декартовой точке [x / w, y / w, z / w] .

Вот как выглядит типичная матрица преобразования:

$$ \ begin {bmatrix} \ color {green} {m_ {00}} & \ color {green} {m_ {01}} & \ color {green} {m_ {02}} & \ color {blue} {0} \\ \ color {green} {m_ {10}} & \ color {green} {m_ {11}} & \ color {green} {m_ {12}} & \ color {blue} {0} \\ \ color {green} {m_ {20}} & \ color {green} {m_ {21}} & \ color {green} {m_ {22}} & \ color {blue} {0} \\ \ color {красный} {T_x} & \ color {красный} {T_y} & \ color {красный} {T_z} & \ color {синий} {1} \\ \ end {bmatrix} $$

Внутренняя матрица [3×3] (зеленая) кодирует поворот и масштаб.Три коэффициента внизу матрицы (выделены красным) кодируют перевод.

Помните, что матрицы преобразования 4×4 называются аффинными. Аффинное преобразование имеет два очень специфических свойства:
  • Коллинеарность сохраняется: все точки, лежащие на линии, по-прежнему лежат на линии после применения преобразования.
  • Соотношения расстояний сохраняются: середина линейного сегмента остается средней точкой после применения преобразования.
Это важно знать, потому что, напротив, проективные преобразования (которые мы собираемся представить далее) обладают первым свойством, но не вторым.Мы уже упоминали в предыдущем уроке, что перспективная проекция сохраняет линии, но не расстояния.

Мы знаем, что мы используем эти матрицы для преобразования трехмерных точек, однако, как мы только что сказали, на самом деле мы обрабатываем эти трехмерные точки так, как если бы они были точками с однородными координатами. Мы делаем это, «неявно» предполагая, что эти трехмерные точки на самом деле имеют четвертую координату, значение которой равно 1. Помните, что трехмерная точка с координатами {x, y, z} и точка с однородными координатами {x, y, z, w } эквивалентны, пока w = 1.3D-точку можно определить как точку с однородными координатами, если мы напишем:

$$ P = \ {x, y, z, w = 1 \}. $$

Всегда имейте в виду, что если вы умножаете «трехмерную» точку на матрицу 4×4, ваша точка будет (по крайней мере, неявно, если вы явно не определяете эту точку с четырьмя координатами, как это делают некоторые программы) точкой с однородными координатами и чьей w-координата равна 1. Почему мы не определяем точки с четырьмя координатами «явно» в программировании, это просто для экономии памяти (на самом деле нет смысла использовать память для хранения координаты, значение которой всегда равно 1).Теперь давайте умножим эту точку 1×4 на нашу матрицу преобразования 4×4. Если мы умножим матрицу [1×4] (нашу точку) на матрицу [4×4], мы должны получить матрицу [1×4], другими словами, другую точку с однородными координатами. Чтобы преобразовать эту точку обратно в 3D, нам нужно будет разделить координаты точек {x, y, z} на w. Хотя четвертая строка матрицы преобразования 4×4 — это , всегда установлено на {0, 0, 0, 1}, что означает, что в результате способа точки и матрицы умножаются друг на друга, w ‘, четвертая координата преобразованная точка всегда равна 1.Посмотрим, почему так происходит:

$$ \ begin {bmatrix} x ‘& z’ & y ‘& w’ \ end {bmatrix} знак равно \ begin {bmatrix} x & z & y & w = 1 \ end {bmatrix} * \ begin {bmatrix} \ color {green} {m_ {00}} & \ color {green} {m_ {01}} & \ color {green} {m_ {02}} & \ color {blue} {0} \\ \ color {green} {m_ {10}} & \ color {green} {m_ {11}} & \ color {green} {m_ {12}} & \ color {blue} {0} \\ \ color {green} {m_ {20}} & \ color {green} {m_ {21}} & \ color {green} {m_ {22}} & \ color {blue} {0} \\ \ color {красный} {T_x} & \ color {красный} {T_y} & \ color {красный} {T_z} & \ color {синий} {1} \\ \ end {bmatrix} $$ $$ \ begin {array} {l} x ‘= x * m_ {00} + y * m_ {10} + z * m_ {20} + (w = 1) * T_x, \\ y ‘= x * m_ {01} + y * m_ {11} + z * m_ {21} + (w = 1) * T_y, \\ z ‘= x * m_ {02} + y * m_ {12} + z * m_ {22} + (w = 1) * T_z, \\ \ color {purple} {w ‘= x * 0 + y * 0 + z * 0 + (w = 1) * 1 = 1}.\\ \ end {массив} $$

Как видите, независимо от внутренней матрицы 3×3 и значения коэффициентов трансляции, w ‘всегда будет равно 1. Это потому, что w’ вычисляется из w, которое равно 1, а коэффициенты четвертого столбца матрицы, которые для матрицы преобразования всегда равны {0, 0, 0, 1} соответственно. Они постоянны. Они никогда не меняются, иначе это не была бы матрица преобразования (скорее, матрица проекции, как мы скоро увидим). На практике это также означает, что преобразование координат x ‘, y’ и z ‘обратно в декартовы координаты путем деления их на w’ не требуется, поскольку w ‘также всегда равно 1.

Трехмерная декартова точка P, преобразованная в точку с однородными координатами {x, y, z, w = 1} и умноженная на матрицу аффинного преобразования 4×4, всегда дает точку P ‘с однородными координатами и w-координатой w’ всегда равно 1. Таким образом, преобразование преобразованной точки P ‘с однородными координатами {x’, y ‘, z’, w ‘} обратно в трехмерную декартову координату {x’ / w ‘, y’ / w ‘, z ‘/ w’}, не требует явной нормировки преобразованной точки ‘однородные координаты на w’.

Технически функция, реализующая точку, умноженную на матрицу 4×4, должна выглядеть так (версия 1):

шаблон void multVecMatrix (const Vec4 & src, Vec3 & dst) const { S a, b, c, w; // обратите внимание, что src.w = 1 a = src.x * x [0] [0] + src.y * x [1] [0] + src.z * x [2] [0] + src.w * x [3] [0]; b = src.x * x [0] [1] + src.y * x [1] [1] + src.z * x [2] [1] + src.w * x [3] [1]; c = src.x * x [0] [2] + src.y * x [1] [2] + src.z * x [2] [2] + src.w * x [3] [2]; w = src.x * x [0] [3] + src.y * x [1] [3] + src.z * x [2] [3] + src.w * x [3] [3]; dst.x = a / w; dst.y = ч / б; dst.z = c / w; }

Предполагается, что исходная точка является точкой с однородными координатами (отсюда и название Vec4), поскольку только точки с четырьмя координатами могут быть умножены на матрицы 4×4. В Vec4 координата w определена явно. Но поскольку src.w всегда предполагается равным 1 (это условие взаимозаменяемости точек с декартовыми координатами и точек с однородными координатами), код можно упростить до (версия 2):

шаблон void multVecMatrix (const Vec3 & src, Vec3 & dst) const { S a, b, c, w; // поскольку src.Предполагается, что w всегда равно 1, его не нужно определять явно a = src.x * x [0] [0] + src.y * x [1] [0] + src.z * x [2] [0] + x [3] [0]; b = src.x * x [0] [1] + src.y * x [1] [1] + src.z * x [2] [1] + x [3] [1]; c = src.x * x [0] [2] + src.y * x [1] [2] + src.z * x [2] [2] + x [3] [2]; w = src.x * x [0] [3] + src.y * x [1] [3] + src.z * x [2] [3] + x [3] [3]; dst.x = a / w; dst.y = ч / б; dst.z = c / w; }

В этой версии src по-прежнему является точкой с однородными координатами, но поскольку ее w-координата равна 1, нам действительно не нужно явно определять ее, поэтому src в этом случае определяется как Vec3.Кроме того, если матрица является матрицей аффинного преобразования, мы знаем, что w также всегда будет равно 1. Таким образом, w не нужно вычислять, и деление координат x, y и z на w может также можно пропустить. Это сокращает код до версии 3:

шаблон void multVecMatrix (const Vec3 & src, Vec3 & dst) const { S а, б, в; // поскольку предполагается, что src.w всегда равен 1, его не нужно определять явно a = src.x * x [0] [0] + src.y * x [1] [0] + src.z * x [2] [0] + x [3] [0]; b = src.x * x [0] [1] + src.y * x [1] [1] + src.z * x [2] [1] + x [3] [1]; c = src.x * x [0] [2] + src.y * x [1] [2] + src.z * x [2] [2] + x [3] [2]; // нет необходимости вычислять w явно. Для аффинных преобразований всегда равно 1 // w = src.x * 0 + src.y * 0 + src.z * 0 + 1 * 1 = 1; // деление на w не нужно dst.x = a; dst.y = b; dst.z = c; }

Этот код обычно используется для преобразования точек с помощью матриц аффинного преобразования.

Почему мы прошли это длинное объяснение? Во-первых, чтобы поближе познакомиться с концепцией однородных координат. В компьютерной графике мы работаем в основном с двумя типами матриц: матрицами аффинного преобразования 4×4 и проекционными матрицами 4×4. Матрицы аффинного преобразования сохраняют w-координату преобразованных точек равной 1, как мы только что видели, но матрицы проекций, которые мы будем изучать в этом уроке, этого не делают. Таким образом, точка, преобразованная матрицей проекции, потребует, чтобы координаты x ‘y’ и z ‘были нормализованы, что, как вы теперь знаете, не требуется, когда точки преобразуются матрицей аффинного преобразования.

Матрица аффинного преобразования Матрица проекции
(перспективная или орфографическая)
Входная трехмерная точка неявно преобразуется в однородные координаты {x, y, z, w = 1} Входная трехмерная точка неявно преобразуется в однородные координаты {x, y, z, w = 1}
\ (m_ {30}, m_ {31}, m_ {32} \) и \ (m_ {33} \) всегда равны {0,0,0,1} соответственно. \ (m_ {30}, m_ {31}, m_ {32} \) и \ (m_ {33} \) принимают значения, специфичные для матриц проекции.Мы скоро объясним, что это за ценности.
w ‘всегда равно 1.
Нет необходимости вычислять w’. $$ \ begin {array} {l} w ‘& = & x * (m_ {30} = 0) + \\ && y * (m_ {31} = 0) + \\ && z * (m_ {32} = 0) + \\ && (w = 1) * 1 \\ & = & 1 \ end {array} $$
w ‘может отличаться от 1 и должно быть вычислено явно: $$ \ begin {array} {l} w ‘& = & x * (m_ {30}! = 0) + \\ && y * (m_ {31}! = 0) + \\ && z * (m_ { 32}! = 0) + \\ && (w = 1) * (m_ {33}! = 1) \\ &! = & 1 \ end {array} $$
Нормализация никогда не нужна $$ \ begin {array} {l} P’_H = \ {x ‘, y’, z ‘, w’ = 1 \} \\ P’_C = \ {x ‘, y’, z ‘\} \ конец {массив} $$ Нормализация необходима, если \ (w ‘! = 1 \).$$ \ begin {array} {l} P’_H = \ {x ‘, y’, z ‘, w’! = 1 \} \\ P’_C = \ {x ‘/ w’, y ‘/ w ‘, z’ / w ‘\} \ end {array} $$

Почему важно знать разницу между аффинным преобразованием и матрицами проекции? Это очень важно. Во-первых, потому что, если вы умножаете точку на матрицу проекции, вам нужно будет использовать версию функции умножения точечной матрицы, которая явно вычисляет w, а затем нормализует координаты преобразованной точки. Что-то похожее на эту функцию (версия 2):

шаблон void multVecMatrix (const Vec3 & src, Vec3 & dst) const { S a, b, c, w; // поскольку src.Предполагается, что w всегда равно 1, его не нужно определять явно a = src.x * x [0] [0] + src.y * x [1] [0] + src.z * x [2] [0] + x [3] [0]; b = src.x * x [0] [1] + src.y * x [1] [1] + src.z * x [2] [1] + x [3] [1]; c = src.x * x [0] [2] + src.y * x [1] [2] + src.z * x [2] [2] + x [3] [2]; w = src.x * x [0] [3] + src.y * x [1] [3] + src.z * x [2] [3] + x [3] [3]; dst.x = a / w; dst.y = ч / б; dst.z = c / w; }

Если вы не используете эту функцию с матрицей проекции, результат будет неверным.Конечно, по причинам оптимизации вы не хотите использовать эту функцию при использовании более распространенных матриц аффинного преобразования (w ‘не нужно вычислять, а преобразованные координаты не нужно нормализовать). Таким образом, вам нужно будет быть осторожным, чтобы в конечном итоге создать две функции и вызвать одну или другую в зависимости от типа используемой матрицы. Однако на практике это почти никогда не делается. Программисты часто не заморачиваются и просто используют что-то вроде этого (по крайней мере, избегает ненужного деления, когда w равно 1):

шаблон void multVecMatrix (const Vec3 & src, Vec3 & dst) const { S a, b, c, w; // поскольку src.Предполагается, что w всегда равно 1, его не нужно определять явно a = src.x * x [0] [0] + src.y * x [1] [0] + src.z * x [2] [0] + x [3] [0]; b = src.x * x [0] [1] + src.y * x [1] [1] + src.z * x [2] [1] + x [3] [1]; c = src.x * x [0] [2] + src.y * x [1] [2] + src.z * x [2] [2] + x [3] [2]; w = src.x * x [0] [3] + src.y * x [1] [3] + src.z * x [2] [3] + x [3] [3]; if (w! = 1) { dst.x = a / w; dst.y = ч / б; dst.z = c / w; } еще { dst.х = а; dst.y = b; dst.z = c; } }

Этот код можно использовать как со стандартным аффинным преобразованием, так и с матрицами проекции. Хотя основная причина, по которой мы так много говорили об однородных координатах, заключается в том, что этап нормализации играет ключевую роль в работе матриц проекции, как мы увидим в следующей главе.

Code Yarns — Как вычислить внутреннюю матрицу камеры для камеры

📅 2015-сен-08 ⬩ ✍️ Ashwin Nanjappa ⬩ 🏷️ матрица камеры, встроенная матрица камеры, PrimeSense ⬩ 📚 Архив

Внутренняя матрица камеры используется в камерах глубины для получения трехмерного положения любого заданного пикселя в системе координат камеры.Модель камеры-обскуры , используемая для внутренней матрицы камеры, прекрасно объясняется здесь.

Внутренняя матрица камеры имеет вид:

  f_x s x
0 ебать ебать
0 0 1  

Здесь f_x и f_y фокусные расстояния камеры в направлениях X и Y. s — это наклон оси и обычно составляет 0 . x и y — это размеры X и Y изображения, создаваемого камерой, измеренные от центра изображения.(Таким образом, они составляют половину длины и ширины изображения.)

Обычно мы знаем размеры изображения, создаваемого камерой. Что обычно не указывается, так это фокусные расстояния. Вместо этого производители камер предоставляют угол поля зрения (FOV) в горизонтальном и вертикальном направлениях.

Используя углы FOV, фокусные расстояния могут быть вычислены с помощью тригонометрии. Например, учитывая угол обзора a_x в горизонтальном направлении, фокусное расстояние f_x можно вычислить с помощью:

  f_x = x / tan (a_x / 2)  

Мы делим FOV на 2, потому что этот угол охватывает всю горизонтальную или вертикальную проекцию.

В качестве примера рассмотрим камеру глубины Primesense Carmine 1.09 . Создает изображение VGA (640×480). В его спецификациях указано, что угол обзора по горизонтали составляет 57,5 ​​градусов, а по вертикали — 45 градусов.

Используя приведенную выше информацию, мы можем вычислить внутреннюю матрицу камеры как:

  583,2829786373293 0,0 320,0
0,0 579,4112549695428 240,0
0,0 0,0 1,0  

Как почистить матрицу камеры.Как почистить матрицу от пыли.

Очистка матрицы — жизненная необходимость. Ниже приведены примеры грязной матрицы не для слабонервных, страдающих сердечными заболеваниями, дальше не читайте.

Очистка матриц. Статья из Радожива.

Одним из недостатков современных цифровых зеркальных фотоаппаратов по сравнению с пленочными является то, что датчик камеры со временем загрязняется . В пленочных фотоаппаратах для каждого кадра выделяется новый кусок пленки, поэтому проблем с загрязнением пленки просто нет.

Как проверить матрицу камеры на загрязнение?
Очень просто. Для этого нужно сделать снимок на закрытой диафрагме простого фона … Самый простой способ сделать это — перевести камеру в режим приоритета диафрагмы (режим A или Av на шкале режимов). Установите минимально допустимое значение диафрагмы, это означает, что число F должно стать максимальным, чаще всего F16, F22, F32, F36. Отключите авто ISO и установите минимально допустимое значение ISO: чаще всего это ISO 50, ISO 100, ISO 200.После этого просто сделайте снимок.

Обратите внимание, фокусное расстояние объектива не влияет на проверку загрязненности матрицы. Сплошной фон нужно фотографировать только для того, чтобы на матрице было легче заметить грязь. Когда диафрагма закрыта, это будет длинный отрывок. Лучше всего установить камеру на штатив или на неподвижный объект. Длина выдержки не влияет на валидацию. Если нет штатива, можно просто снять голубое небо.

Грязь на матрице

На фото выше я сделал настройки ISO 100, F16, 50 мм.Для того, чтобы более отчетливо увидеть весь страх и ужас грязной матрицы, вы можете установить максимальный контраст изображения в редакторе программы. См. ниже.

Грязь на матрице

Стрелками я показал грязь, которая была у меня на Nikon D200, мой фотоаппарат Nikon D200 не чистил больше года.

Внимание: Не бойтесь грязной матрицы. На открытых диафрагмах (до F / 8.0) грязь практически не повлияет на качество снимков. На F1 можно снимать всю свою жизнь.4-F4.0 и совсем не беспокойтесь о чистоте сенсора.

Повышение контрастности, чтобы увидеть грязь

Нужно ли чистить матрицу?

Каждый решает сам. Мне нужна чистая матрица, так как я зарабатываю на жизнь фотографией. Мне часто приходится снимать сцены с закрытой диафрагмой (групповой портрет, пейзаж, фото для обзоров), поэтому я слежу за чистотой матрицы и стараюсь каждые 6 месяцев брать свои камеры для чистки матрицы. Очистка матрицы стоит от 40 до 100 у.е. и занимает 1-2 дня.Это довольно дорого, да и результат уборки меня не всегда устраивает. Поэтому я решил заняться этим делом сам. За более-менее разумную цену в 60 у.е. я наткнулся на Систему очистки сенсора Green Clear (неполный размер кадра) для зеркальных фотоаппаратов. Система позволяет очистить около 80 раз из бутылки и 3 раза с помощью специальных щеток для швабры.

Интегрированные системы матричной очистки

Сейчас очень популярной стала установка систем очистки матриц в CZK (цифровые зеркальные фотоаппараты).Моя практика показывает, что такие системы не могут полностью защитить матрицу от грязи. В основном системы очистки основаны на том, что матрица вибрирует и стряхивает пыль. Но грязь — это не только пыль, это могут быть полосы от конденсата или что-то еще. Системы очистки просто не справятся с этим. На моем Nikon D90 с системой очистки мне пришлось отнести его в сервис после года использования и активной функции очистки. Часто попадаю в руки фотоаппараты с чисткой и всегда вижу грязь на матрице.Итак, системы очистки на 2012 год не могут обеспечить то качество очистки, которое так сильно рекламируется производителями.

Для владельцев CZK Nikon будет полезной статья о программном методе борьбы с пылью и грязью на матрице.

Система очистки сенсора Green Clear (неполный размер кадра) для DSLR

Как чистил матрицу:

В комплект Green Clear Sensor входят баллончик с каким-то газом, три всасывающих насадки для пыли и три набора швабр для чистки.Вам необходимо прочитать инструкцию к Green Clear Sensor или посмотреть обучающее видео. Еще у меня в комплекте была небольшая русскоязычная инструкция. Больше всего мне было сложно установить клапан на баллон — сначала нужно задушить, а потом затянуть.

  1. Собрал вакуумный насос. Просто прикрепив клапан к баллону, к клапану — к удлинительной трубке, к трубке — к одному из наконечников для очистки.
  2. Настройте камеру для ее очистки.
  3. С помощью помпы всасывала грязь.
  4. С помощью швабры почистил датчик.

На самом деле к матрице фотоаппарата подходить немного страшновато, но когда это делаешь часто, весь страх улетучивается.

До и после очистки

Внимание: Советую прочитать инструкцию к своему фотоаппарату. Для того, чтобы очистить матрицу камеры, нужно приподнять зеркало перед матрицей. Для этого есть специальная функция, обычно называемая «поднятие зеркала» или «поднятие зеркала для очистки».На Nikon, когда эта функция активирована, при нажатии кнопки спуска затвора камера поднимает зеркало и остается в этом положении до выключения камеры. Если заряд аккумулятора меньше 60%, функция подъема зеркала будет отключена. Не используйте длинную выдержку для очистки сенсора. Мой друг чистил матрицу на выдержке 30с и увлекся, фотоаппарат опустил шторы и зеркало — ничего хорошего из этого не вышло. Также в специализированном режиме камера не делает снимок — на матрицу не подается напряжение, что также снижает риск что-либо повредить.

Выводы:

Иногда нужно проверить матрицу камеры на загрязнение и отнести камеру в сервис, либо почистить матрицу самостоятельно. Самоочистка обходится в 3-4 раза дешевле послепродажного обслуживания. Встроенные системы очистки матрицы от грязи могут лишь отложить на время серьезную очистку матрицы.

Благодарю за внимание. Аркадий Шаповал.

сложная проекционная матрица — Tech from the Front Line

В последнее время я работал над проектами компьютерного зрения, включая Tensorflow для глубокого обучения, OpenCV для компьютерного зрения и OpenGL для компьютерной графики.Меня особенно интересуют гибридные подходы, в которых я смешиваю материалы глубокого обучения, материалы opencv и классический конвейер OpenGL. Основная идея состоит в том, чтобы не рассматривать проблемы как проблемы черного ящика, использовать нейронную сеть и надеяться на лучшее. Основная идея скорее состоит в том, чтобы выполнять максимальный объем работы с проверенными технологиями и позволять глубокому обучению работать только с четко определенной подмножеством проблемы.

На этот раз я работал над проблемой дополненной реальности, где у меня есть изображение, и я хочу наложить на него что-то.В OpenCV по изображению вы можете оценить параметры камеры, которые называются «внутренними параметрами камеры». В модели камеры-обскуры OpenCV этими параметрами являются: fx (горизонтальное фокусное расстояние), fy (вертикальное фокусное расстояние), cx (координата X центра камеры), cy (координата Y центра камеры).

Это матрица камеры OpenCV:

Вы хотите наложить что-то на исходное изображение. Теперь, когда вы оценили параметр камеры OpenCV, вам нужно превратить его в матрицу проекции OpengL, чтобы вы могли визуализировать материал поверх исходного изображения с помощью графического конвейера OpenGL.Эта проблема вычисления матрицы проекции OpenGL из матрицы камеры OpenCV НЕ проста.

Прежде всего, матрица камеры OpenCV проецирует вершины прямо в координаты экрана. (ПРИМЕЧАНИЕ: не забудьте затем разделить на компонент z). Матрица проекции OpenGL проецирует вершины в пространство отсечения. Преобразование из пространства клипа в NDC (что означает деление на компонент w) обрабатывается OpenGL, а преобразование из NDC в пространство экрана также обрабатывается OpenGL. Итак, первая проблема заключается в том, что мы не рассматриваем одни и те же преобразования в точности.

Вторая проблема заключается в том, что в OpenGL вы обычно предполагаете, что центр вашей камеры находится в начале координат (это соглашение). В OpenCV это не так, параметры вашей камеры cx и cy позволяют располагать центр камеры где угодно, это такая же степень свободы, как и любая другая. 90% формул матриц проекции OpenGL, которые вы найдете в Интернете, не учитывают это.

В итоге проверил много источников:

https://blog.noctua-software.com/opencv-opengl-projection-matrix.html
http://kgeorge.github.io/2014/03/08/calculating-opengl-perspective-matrix-from-opencv-intrinsic-matrix
http://ksimek.github.io/2013/06/03/ calibrated_cameras_in_opengl /

https://jsantell.com/3d-projection

Но тот, который спас мне день, был этот: https://strawlab.org/2011/11/05/augmented-reality-with-OpenGL

Формула там точная (можно заменить K на матрицу камеры OpenCV).

Вот пример исходного кода, демонстрирующий, как можно спроецировать точку с помощью OpenCV и OpenGL и получить те же результаты (тем самым проверяя ваши матрицы):

импортное CV2
импортировать numpy как np
импорт математики
cx = 88 # главная точка x координата
cy = 109 # главная точка координата y
w = 178 # ширина изображения
h = 218 # высота изображения
near = 10 # около плоскости
far = 20 # дальний самолет
fovy = 45.0 / 360.0 * 2.0 * np.pi # 45 ° в радианах
f = 0,5 * h / math.tan (fovy / 2) #cf http://paulbourke.net/miscellaneous/lens/ (ПРИМЕЧАНИЕ: фокусное расстояние в пикселях)
# вычисляем матрицу камеры OpenCV
camera_mtx = np.array ([
[f, 0, cx],
[0., f, cy],
[0., 0., 1.]
], dtype = np.float64)
# мы вычисляем соответствующую матрицу проекции opengl
#cf https://strawlab.org/2011/11/05/augmented-reality-with-OpenGL
# ПРИМЕЧАНИЕ: K00 = K11 = f, K10 = 0.0, K02 = cx, K12 = cy, K22 = 1.0
opengl_mtx = np.array ([
[2 * ширина / ширина, 0,0, (ширина — 2 * ширина) / ширина, 0.0],
[0,0, –2 * кадр / ч, (ч — 2 * цикл) / ч, 0,0],
[0.0, 0.0, (–далее — близко) / (далеко — близко), –2.0 * далеко * близко / (далеко – близко)],
[0,0, 0,0, –1,0, 0,0]
])
# точка находится в пространстве камеры opencv (по оси Oz)
баллов = np.array ([1.0, 2.0, 15.0]) # Примечание: координаты должны быть числами с плавающей запятой
#### Проекция OpenCV
screen_point, _ = cv2.projectPoints (np.array ([point]), np.zeros (3), np.zeros (3), camera_mtx, np.zeros (5))
печать (screen_point)
# Примечание: мы получаем тот же результат с этим: (это то, что cv2.В основном projectPoints: умножает точки на матрицу камеры, а затем делит результат на координату z)
печать (camera_mtx.dot (точка) / точка [2])
#### Проекция OpenGL
# переворачиваем точку z в координатах, потому что в opengl камера ориентирована по оси -Oz
баллов [2] = –баллов [2]
point2 = np.hstack ([point, 1.0]) # добавляем координату вершины w (обычно выполняется в вершинном шейдере перед умножением на матрицу проекции)
# мы получаем точку в пространстве клипа
clip_point = opengl_mtx.dot (точка2)
# ПРИМЕЧАНИЕ: следующее «моделирует» то, что происходит в OpenGL после вершинного шейдера.
# Это необходимо, чтобы мы могли убедиться, что наша матрица проекции даст правильный результат при использовании в OpenGL
# получаем точку в НДЦ
ndc_point = clip_point / clip_point [3]
# получаем координаты экрана
viewport_point = (ndc_point + 1.0) /2.0 * np.array ([w, h, 1.0, 1.0])
Соглашение #opencv Oy противоположно OpenGL, поэтому мы меняем координату y
viewport_point [1] = h — viewport_point [1]
печать (viewport_point)
# Теперь вы можете видеть, что viewport_point и screen_point имеют одинаковые координаты x / y!
# Это означает, что теперь вы можете из матрицы камеры OpenCv использовать OpenGl для рендеринга чего-либо поверх изображения,
# благодаря матрице проекции opengl, вычисленной из матрицы камеры opencv
# ПРИМЕЧАНИЕ: когда ближняя плоскость мала (несколько единиц) и когда маленькое фокусное расстояние (например: 10-12),
# оба результата имеют тенденцию расходиться.Я не уверен, почему формула начинает разваливаться при экстремальных значениях.

Полный исходный код можно найти здесь: https://github.com/francoisruty/fruty_opencv-opengl-projection-matrix

Когда у вас есть матрица проекции OpenGL, вы можете визуализировать и наложить на изображение все, что вам нужно. Сначала я ожидал, что на этот шаг у меня уйдет 1-2 часа, а в итоге у меня ушло около 6 или 7 часов, поэтому я подумал, что поделюсь решением.

Нравится:

Нравится Загрузка…

Связанные

Опубликовано Fruty

Мысли и мнения технического директора стартапа, увлеченного аэрокосмической и компьютерной графикой Просмотреть все сообщения Fruty

Опубликовано

Многоканальная геометрия в компьютерном зрении Глава 9 Решения — эпиполярная геометрия и фундаментальная матрица

Вот краткий указатель всех проблем в этой главе.T $. Следовательно ограничение на $ F $ становится $$ \ begin {pmatrix} 0 & 0 & 1 \ end {pmatrix} F \ begin {pmatrix} 0 \\ 0 \\ 1 \ end {pmatrix} = 0 $$ откуда следует, что $ F_ {33} = 0 $.

II. Зеркальное отображение. Предположим, что камера видит объект и его отражение в плоском зеркале. Покажите, что эта ситуация эквивалентна двум представлениям объекта и что основная матрица кососимметрична. Сравните фундаментальную матрицу для этой конфигурации с матрицей: (а) чистого переноса и (б) чистого плоского движения.Покажите, что основная матрица является аутоэпиполярной (как (а)).

Пусть точка на объекте будет $ \ mathtt {X} $. Тогда точка на отражении будет быть $ \ mathtt {R_fX} $, где $ \ mathtt {R_f} $ представляет трехмерное отражение. Под камера $ \ mathtt {P} $ изображения двух точек будут $ \ mathtt {PX} $ и $ \ mathtt {PR_fX} $. Эта ситуация эквивалентна двум камерам $ P $ и $ \ mathtt {PR_f} $ оба просматривают $ \ mathtt {X} $.

Отражение $ \ mathtt {R_f} $ относительно произвольной плоскости можно разложить как $ \ mathtt {R_f = H_e \ begin {pmatrix} \ Lambda & \ bf {0} \\ \ bf {0} ^ T & 1 \ end {pmatrix} H_e ^ {- 1}} $, где $ \ mathtt {H_e} $ — евклидово преобразование $ \ mathtt {\ begin {pmatrix} R & \ bf {t} \\ \ bf {0} & 1 \ end {pmatrix}} $ и $ \ mathtt {\ Lambda} = diag (-1, 1, 1) $.Tt] _ {\ times}} $ — матрица формы $$ \ begin {pmatrix} 0 & 0 & 0 \\ 0 & 0 & -x \\ 0 & x & 0 \ end {pmatrix} $$

Это также означает, что $ F $ является аутоэпиполярным.

Как и в случае перевода, когда эпиполь был точкой схода направления трансляции, в этом случае эпиполь — это исчезающий точка направления отражения, т.е. нормаль к плоскости отражения или направление линии симметрии, соединяющей точку и ее отражение ($ \ mathtt {X} $ и $ \ mathtt {X ’} $ на рисунке ниже).T & 1 \ end {pmatrix} $ и $ \ mathtt {\ Lambda ’} = diag (-1, 1, 1, 1) $.

III. Покажите, что если линия схода плоскости содержит эпиполь, то плоскость параллельна базовой линии.

Эпиполь — это точка схода направления базовой линии. Параллельные плоскости в 3-м пространстве пересекаются $ \ Pi_ \ infty $ по общей линии и изображение этой линии линия схода плоскости. Итак, если точка схода базовой линии лежит на этой сходящейся линии, то базовая линия должна лежать в плоскости, параллельной данный самолет.

IV. Покажите, что полярная точка $ \ textbf {x} _a $ пересекает конику Штейнера $ F_s $ в эпиполях (рисунок 9.10a). Подсказка, начните с $ F \ textbf {e} = F_s \ textbf {e} + F_a \ textbf {e} = 0 $. Поскольку $ \ textbf {e} $ лежит на конике $ F_s $, то $ \ textbf {l} _1 = F_s \ textbf {e} $ — касательная линия в точке $ \ textbf {e} $, а $ \ textbf { l} _2 = F_a \ textbf {e} = [x_ \ textbf {a}] _ {\ times} \ textbf {e} = x_ \ textbf {a} \ times \ textbf {e} $ — это строка, проходящая через $ \ textbf {x} _a $ и $ \ textbf {e} $.

$$ \ mathtt {F \ textbf {e} = F_s \ textbf {e} + F_a \ textbf {e} = 0} $$ $$ \ mathtt {\ подразумевает F_s \ textbf {e} = -F_a \ textbf {e}} $$

Это означает, что $ \ mathtt {F_s \ textbf {e}} $ и $ \ mathtt {F_a \ textbf {e}} $ одинаковы строки, далее подразумевающие, что строка, проходящая через $ \ mathtt {\ textbf {x} _a} $ и $ \ mathtt {\ textbf {e}} $ касается $ \ mathtt {F_s} $ в $ \ mathtt {\ textbf {e}} $.Применяя аналогичную логику к $ \ mathtt {\ textbf {e} ’} $, становится ясно, что строки через $ \ mathtt {\ textbf {x} _a} $ по касательной к $ \ mathtt {F_s} $ пересекаются $ \ mathtt {F_s} $ в $ \ mathtt {\ textbf {e}} $ и $ \ mathtt {\ textbf {e} ’} $. Следовательно $ \ mathtt {\ textbf {e}} $ и $ \ mathtt {\ textbf {e} ’} $ лежат на полюсе $ \ mathtt {\ textbf {x} _a} $.

VI. Плоское движение. В [Maybank-93] показано, что если направление оси вращения ортогонально или параллельно направлению трансляции, то симметричная часть существенной матрицы имеет ранг 2.{-1}} $$

Это уравнение не может быть далее приведено к более простой форме из-за асимметричной компонентов и, следовательно, мы ничего не можем сказать о ранге $ \ mathtt {F_s} $.

VIII. Покажите, что трехмерные точки, определенные из одной из неоднозначных реконструкций, полученных из $ E $, связаны с соответствующими $ 3D $ точками, определенными из другой реконструкции, либо (i) инверсией через центр второй камеры; или (ii) гармоническая гомология 3-пространства (см. раздел A7.2 (p629)), где плоскость гомологии перпендикулярна базовой линии и проходит через центр второй камеры, а вершина является центром первой камеры.

Я думаю, что этот вопрос неправильно помещен в эту главу, поскольку мы не толком о реконструкциях еще не узнал. Я могу вернуться к этому после узнайте больше о реконструкции в следующих главах.

IX. Следуя развитию, аналогичному разделу 9.2.2, выведите форму основной матрицы для двух линейных камер с нажимными щетками. Детали этой матрицы приведены в [Gupta-97], где показано, что аффинная реконструкция возможна из пары изображений.

Поскольку в настоящий момент меня не интересуют камеры с подвижной щеткой, я пропущу эту.

Список литературы

Пожалуйста, включите JavaScript, чтобы просматривать комментарии от Disqus. комментарии предоставлены .

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *