Какими параметрами определяют качество видеоизображения: Microsoft PowerPoint 2010 — тест 7

Содержание

Microsoft PowerPoint 2010 — тест 7

Главная / Офисные технологии / Microsoft PowerPoint 2010 / Тест 7 Упражнение 1:
Номер 2
Укажите аудиоформат, с которым презентация работать не будет:

Ответ:

&nbsp(1) AIFF&nbsp

&nbsp(2) AU&nbsp

&nbsp(3) MP3&nbsp

&nbsp(4) AA&nbsp



Номер 3
Укажите графический формат, с которым презентация работать не будет:

Ответ:

&nbsp(1) PNG&nbsp

&nbsp(2) JPG&nbsp

&nbsp(3) PSD&nbsp



Упражнение 2:
Номер 1
Какими параметрами определяют качество видеоизображения:

Ответ:

&nbsp(1) частотой кадров&nbsp

&nbsp(2) глубиной цвета&nbsp

&nbsp(3) экранным разрешение&nbsp

&nbsp(4) яркостью изображения&nbsp

&nbsp(5) четкостью изображения&nbsp



Номер 2
Какие параметры определяют качество звука (отметьте неверный ответ):

Ответ:

&nbsp(1) частота дискретизации (kHz) Профессиональные записи делаются при частоте дискретизации 44,1 и 48 кГц. Частота 22.05 кГц используется для мультимедиа и демонстрационных записей (в том числе и для формата Real Audio, используемого в Интернете). Формат компакт-диска — 16 бит, 44 кГц, 2 канала.&nbsp

&nbsp(2) разрядность (bit). 8-разрядные звуковые карты дают качество, близкое к телефонному, 16-разрядные могут обеспечить профессиональное качество звука.&nbsp

&nbsp(3) громкость (Db)&nbsp



Номер 3
Какие параметры определяют качество графического изображения (отметьте неверный ответ)?

Ответ:

&nbsp(1) разрешение&nbsp

&nbsp(2) глубина цвета&nbsp

&nbsp

(3) градации серого&nbsp



Упражнение 3:
Номер 1
Как добавить видео в презентацию:

Ответ:

&nbsp(1) в обычном режиме просмотра щелкните на слайд, в который нужно добавить видеофрагмент или анимированный GIF-файл. На вкладке Вставка в группе Клипы мультимедиа щелкните на стрелку в разделе Фильм&nbsp

&nbsp(2) в специальном режиме просмотра щелкните на слайд, в который нужно добавить видеофрагмент или анимированный GIF-файл. На вкладке Вставка в группе Клипы мультимедиа щелкните на стрелку в разделе Фильм&nbsp

&nbsp(3) выделите слайд и выполните команду Вставка-Видео&nbsp



Номер 2
Как называется данная вкладка для добавления видео в презентацию?
  

Ответ:

&nbsp(1) Вид&nbsp

&nbsp(2) Анимация&nbsp

&nbsp(3) Вставка&nbsp



Номер 3
Можно ли на вкладке Показ слайдов вставить видео в презентацию?

Ответ:

&nbsp

(1) да&nbsp

&nbsp(2) нет&nbsp

&nbsp(3) только в версии PowerPoint 2007&nbsp



Упражнение 4:
Номер 1
Какие существуют способы воспроизведения видео в PowerPoint: 

Ответ:

&nbsp(1) автоматический (Автоматически)&nbsp

&nbsp(2) по щелчку мыши (По щелчку)&nbsp

&nbsp(3) по двойному щелчку мыши&nbsp

&nbsp(4)

по заданному времени&nbsp



Номер 2
Как называется вкладка для настройки параметров воспроизведения видео в PowerPoint?

Ответ:

&nbsp(1) Анимация&nbsp

&nbsp(2) Воспроизведение&nbsp

&nbsp(3) Демонстрация слайдов&nbsp



Номер 3
Как называется данная вкладка?
  

Ответ:

&nbsp

(1) Рецензирование&nbsp

&nbsp(2) Дизайн&nbsp

&nbsp(3) Показ слайдов&nbsp



Упражнение 5:
Номер 1
Что нужно для применения эффектов анимации к тексту или объекту?

Ответ:

&nbsp(1) щелкните на текст или объект, для которого нужно создать анимацию. На вкладке Анимация в группе Анимация выберите нужный эффект анимации в списке Анимация&nbsp

&nbsp(2) выделить объект и выполнить команду Правка — Анимировать&nbsp

&nbsp

(3) выполнить команду Эффекты — Анимация&nbsp



Номер 2
Как называется вкладка, показанная ниже?
  

Ответ:

&nbsp(1) Переходы&nbsp

&nbsp(2) Демонстрация&nbsp

&nbsp(3) Дизайн&nbsp

&nbsp(4) Показ слайдов&nbsp



Номер 3
На какой вкладке расположена команда Звук перехода?

Ответ:

&nbsp(1) Переходы&nbsp

&nbsp(2) Демонстрация&nbsp

&nbsp(3) Дизайн&nbsp

&nbsp(4) Показ слайдов&nbsp



Упражнение 6:
Номер 1
Какой расширение имеет файл анимированного рисунка:

Ответ:

&nbsp(1) GIF&nbsp

&nbsp(2) JPG&nbsp

&nbsp(3) BMP&nbsp



Номер 2
Одинаковые ли расширения файла у видео и анимации?

Ответ:

&nbsp(1) да&nbsp

&nbsp(2) нет&nbsp

&nbsp(3) иногда могут совпадать&nbsp



Номер 3
Flash анимация имеет расширение:

Ответ:

&nbsp(1) SWF&nbsp

&nbsp(2) GIF&nbsp

&nbsp(3) AVI&nbsp



Упражнение 7:
Номер 1
После  вставки фильма в слайд можно изменить:

Ответ:

&nbsp(1) продолжительность фильма&nbsp

&nbsp(2) громкость звука&nbsp

&nbsp(3) источник фильма&nbsp

&nbsp(4) степень разрешения фильма&nbsp



Номер 2
После вставки диаграммы в слайд можно ли изменить ее вид.

Ответ:

&nbsp(1) да&nbsp

&nbsp(2) нет&nbsp

&nbsp(3) только ряд данных&nbsp



Номер 3
После вставки таблицы в слайд можно ли изменить число столбцов и строк.

Ответ:

&nbsp(1) можно&nbsp

&nbsp(2) нельзя&nbsp

&nbsp(3) только командой Автоформат&nbsp



Упражнение 8:
Номер 1
Эффект перехода устанавливается:

Ответ:

&nbsp(1) на слайде&nbsp

&nbsp(2) между слайдами&nbsp

&nbsp(3) перед началом слайда&nbsp



Номер 2
На какой из вкладок можно установить Эффект перехода?

Ответ:

&nbsp(1) Показ слайдов&nbsp

&nbsp(2) Анимация&nbsp

&nbsp(3) Вставка&nbsp



Номер 3
Применение эффекта, используемого при смене текущего слайда, ко всем слайдам презентации можно задать командой:

Ответ:

&nbsp(1) Задать эффект&nbsp

&nbsp(2) Применить ко всем&nbsp

&nbsp(3) Для всех слайдов&nbsp



Упражнение 9:
Номер 1
Что отображает коэффициент сжатия видеографики?

Ответ:

&nbsp(1) коэффициент сжатия — это цифровое выражение соотношения между объемом сжатого и исходного видеоматериала. Обычно, чем выше коэффициент сжатия, тем хуже качество видео &nbsp

&nbsp(2) коэффициент сжатия — показатель, который определяет количество цветов, одновременно отображаемых на экране.&nbsp

&nbsp(3) коэффициент сжатия — это количество точек, из которых состоит изображение на экране вашего монитора&nbsp



Номер 2
Сжатие видеографики

Ответ:

&nbsp(1) улучшает ее качество&nbsp

&nbsp(2) ухудшает ее качество&nbsp

&nbsp(3) не меняет ее качество&nbsp



Номер 3
В каком из форматов видео не подвержено сжатию?

Ответ:

&nbsp(1) AVI&nbsp

&nbsp(2) MP4&nbsp

&nbsp(3) ASF&nbsp



Упражнение 10:
Номер 1
Можно ли вставить в презентацию Flash ролик?

Ответ:

&nbsp(1) да&nbsp

&nbsp(2) нет&nbsp

&nbsp(3) не во всех версиях PowerPoint&nbsp



Номер 2
Найдите неверное утверждение:

Ответ:

&nbsp(1) чтобы проигрывать Flash ролики (файлы с расширением .swf) в PowerPoint вам предстоит добавить элемент управления ActiveX и создать ссылку на Flash файл. Так же для запуска Flash роликов на вашем компьютере должен быть установлен Adobe Flash Player, а элемент ActiveX должен быть зарегистрирован.&nbsp

&nbsp(2) в презентацию PowerPoint можно внедрить видеофайл или вставить ссылку на него&nbsp

&nbsp(3) Microsoft PowerPoint 2010 не позволяет внедрять видео из файлов непосредственно в презентацию&nbsp



Номер 3
Найдите правильное утверждение:

Ответ:

&nbsp(1) добавление Flash ролика (файла с расширением .swf) на слайд презентации PowerPoint отличается от вставки других файлов (изображений, видеофайлов и т.д.).&nbsp

&nbsp(2) добавление Flash ролика (файла с расширением .swf) на слайд презентации PowerPoint аналогично вставке других файлов (изображений, видеофайлов и т.д.).&nbsp

&nbsp(3) добавление Flash файлов средствами PowerPoint является очень простой задачей&nbsp



Размер кадра видеоизображения и определение скорости потока от камеры видеонаблюдения

При построении сети для систем IP-видеонаблюдения одним из важных показателей сети является величина максимального потока, создаваемого всеми видеокамерами системы.

Величина потока каждой камеры зависит от ее разрешающей способности, от используемых кодеков сжатия, выбранной частоты кадров, интенсивности движения в поле зрения камеры. Данные параметры зависят от назначения системы видеонаблюдения, в соответствии с которым производится выбор камер.

Для лучшего понимания рассмотрим чуть подробнее кодеки сжатия.

Кодеки сжатия

Кодеки можно поделить на два типа:

  • Покадровые — выполняющие сжатие каждого кадра (MJPEG, JPEG2000) ;
  • Межкадровые — выполняющие сжатие последовательности изображений — кадров (H.264, MPEG4, Motion Wavelet, MxPEG)

В IP камерах в настоящий момент преимущественно используются два типа кодека H.264 и MJPEG.

MJPEG — это формат покадрового типа для цифровой фотосъемки, где каждый кадр сжимается индивидуально (внутрикадровое сжатие) и обеспечивает хорошее качество изображения. Для формата сжатия MJPEG не требуется высокой производительности процессора, поэтому он с успехом используется для видеонаблюдения. Но такой формат имеет значимый минус — поток с камеры будет существенным, использование такого формата для записи может привести к значительной нагрузке на сеть, а также глубина архива от IP камер будет не большой и для его расширения придется использовать огромные дисковые хранилища. Тем не менее, использование кодека MJPEG актуально в тех случаях, где есть необходимость на рабочих станциях просматривать полные кадры без сжатия в лучшем качестве. К примеру, это могут быть такие объекты как общественных места, метрополитен, торговые комплексы и места с массовым скоплением людей. В общем, там, где стоит задача просматривать видео в лучшем качестве и высокой детализации объектов.

Недостатками покадровых кодеков являются более низкий коэффициент сжатия по сравнению с кодеками, выполняющими сжатие последовательности изображений и блочная структура данных у MJPEG (дробление изображения на квадраты 8х8 пикселей)

В кодеке H.264 (межкадрового типа) в кадре выделяются только движущиеся объекты, и информация о них и кодируется. Полное изображение передается только через заданные промежутки в качестве опорного кадра. H.264 позволяет формировать высококачественный видеосигнал со значительно меньшим цифровым потоком, чем MJPEG, но при этом требования к производительности процессора весьма высоки. Из-за ресурсоемкого процесса обработки кодека H.264 на отображение, его рекомендуется использовать для записи архива. При этом нагрузка на процессор минимальна, а глубина архива может быть увеличена в разы. Тем не менее для отображения данный кодек можно применять на объектах где не стоит задачи по слежению и нет необходимости рассматривать детальную картинку от камер. Из-за низкого цифрового потока с IP камер кодек H.264 не нагружает сеть между рабочими станциями мониторинга и сервером, что тоже немаловажно для объектов с существенным количеством камер.

Недостаток заключается в том, что за счет использования предсказательной логики, собственно и позволяющей так уменьшить средний размер кадра, не все кадры могут быть пригодными, например, для идентификации

СОВЕТ:
Каждый тип сжатия и каждый кодек служит своим целям. Выбирая камеру нужно определиться с теми задачами, которые камера будет обеспечивать. Исходя из тактики охраны, формируются требования на передачу данных.10 или = 1024 байта

В итоге получаем, что наше изображение в разрешении 704х576 пикселей в несжатом виде весит 1 216 512 / 1024 = 1 188 (тысяча сто восемьдесят восемь) кбайт

СОВЕТ:
При определении размера кадра не забывайте учитывать глубину цвета

Определение размера сжатого кадра

Для определения размера сжатого кадра удобно воспользоваться программами-калькуляторами, которые обычно можно взять на сайтах производителей камер. Для примера воспользуемся программой IP Camera CCTV Calculator Скриншот данной программы Вы видите в заголовке статьи

Для разрешения 1280х720 запишем полученные значения в таблицу:

Кодек Разрешение Исходный размер, Кбайт Размер после сжатия (max качество), Кбайт Степень сжатия
MJPEG 1280х720 2700 154,9 17,43060039
H.264 1280х720 2700 27,9 96,77419355

Здесь видим, что степень сжатия H.264 на много превышает таковую в MJPEG.

Определение скорости потока от камеры видеонаблюдения

Исходные данные которые понадобятся чтобы выполнить расчет это:

  1. Размер 1-го кадра изображения в разрешении — 1280х720
  2. Частота кадров в потоке
  3. Кодек сжатия (коэффициент сжатия)

Требуемый объем информации для передачи по каналу определяется путем перемножения перечисленных выше параметров, после чего КБайт/c необходимо перевести в Кбит/с (умножив на 8), а затем и в МБит/c (разделив на 1024). Расчеты легко проделать в таблице Exel

Размер 1 кадра изображения в разрешении — 1280х720 2700 Кбайт
Частота кадров в потоке 12 к/с
Кодек сжатия (коэффициент сжатия) 96,774 H.264
Скорость потока (2700*12/96,774) 334,8007 Кбайт/с
Первод в Кбит/с *8 2678,405 Кбит/с
Первод в Мбит/с :1024 2,61563 Мбит/с

По данной методике мы узнали скорость одного потока от камеры 2,61 Мбит/с. Для того чтобы узнать весь поток информации от камеры необходимо аналогичным образом определить и сложить скорости всех потоков от камеры, например, потоки на «запись», на «тревожную запись» на «наблюдение»

СОВЕТ:
Самостоятельно Вы можете попробовать рассчитать скорость потока при использовании кодека MJPEG чтобы наглядно увидеть разницу в объеме передаваемой камерой инфорамции.

В следующей статье мы подробнее остановимся на построении сети для системы IP видеонаблюдения и данный материал нам будет необходим на практике для определения потоков от камер системы видеонаблюдения и правильного подбора структуры сети и оборудования.

Оценка качества видео. Субъективная оценка качества видео

Введение

Что такое качество? В словаре Даля содержится следующее определение: «качество — свойство или принадлежность, все, что составляет сущность лица или вещи». Что же делать, если нам нужно оценить визуальное качество, например, сжатого кодеком видео? Можно понимать качество видео как среднюю оценку мнений людей, смотрящих это видео. Именно этот показатель в конечном счете хотят улучшить создатели систем обработки видео, поэтому хотелось бы уметь его численно оценить. Существует два подхода к решению этой задачи: субъективная и объективная оценка качества видео. В первой части этой статьи мы расскажем об этих подходах, а во второй приведем результаты проведенного нами субъективного сравнения современных видеокодеков.

Объективное тестирование

Можно оценить качество видео при помощи какой-либо формулы или алгоритма, например, PSNR, VQM или SSIM (см. Сравнение видеокодеков при помощи метрики PSNR). Главное достоинство этого подхода в возможности автоматизировать процесс тестирования, что позволяет измерить качество обработки видеосистемы при большом количестве различных настроек и тестовых видео или измерять качество в реальном времени. Также в результате измерений получаются точные и воспроизводимые данные. Минус этого подхода в том, что автоматические метрики могут неверно отражать субъективно воспринимаемое качество. Это может привести, например, к неверному выводу о превосходстве одного кодека над другим.Субъективное тестирование

Альтернативный способ получить оценку качества видео — провести субъективное тестирование. Идея этого метода в том, чтобы получить оценку качества непосредственно от зрителей, проводящих оценку видео. Аналогичный подход в оценке качества звука используется уже долгое время. Например, на форуме hydrogenaudio.org регулярно проходят субъективные тестирования аудиокодеков. Что же нужно, чтобы провести субъективное тестирование?

  • Выбрать видеопоследовательности для тестирования. Обычно используется видео около 8-10 секунд, чтобы предотвратить рассеивание внимания экспертов и сократить общее время экспериментов.
  • Выбрать настройки систем обработки видео, которые вы хотите сравнить.
  • Выбрать метод тестирования.
  • Пригласить достаточное число экспертов (рекомендуется не менее 15).
  • Основываясь на их мнении, получить окончательные оценки.

Еще в 1974 году была опубликована первая версия рекомендаций ITU-R BT.500 «Methodology for the subjective assessment of the quality of television pictures». Эти рекомендации содержат исчерпывающее описание того, как следует решать все вышеперечисленные вопросы. С тех пор проводилось много субъективных тестирований, из недавних стоит отметить Subjective Quality Assessment of The Emerging AVC/H.264 Coding Standard, Subjective Quality of Internet Video Codecs. Объемные субъективные тестирования проводятся VQEG (Video Quality Experts Group).

Несмотря на то, что субъективные тестирования многократно проводились различными организациями, до недавнего времени в свободном доступе не было стабильных программ для проведения тестирования, рассчитанных на работу с персональными компьютерами. Это стало причиной разработки MSU Perceptual Video Quality tool, в которой реализовано несколько методов субъективного сравнения и анализа результатов.Методы субъективного тестирования

Метод субъективного тестирования – это сочетание способов демонстрации последовательностей, сбора мнений экспертов и обработки результатов.
Рассмотрим на примере сравнения видеокодеков процедуру тестирования методом SAMVIQ, недавно разработанным в EBU (European Broadcasting Union), реализация MSU Perceptual Video Quality tool. Этот метод использовался в Субъективном Сравнении Современных Видеокодеков.

Схема метода SAMVIQ

Этапы тестирования:

1. Эксперт вводит свое имя (любая уникальная последовательность символов).

2. Тест на цветовосприятие (используются стандартные таблицы Ишихары).

3. Для каждой тестовой последовательности:

  • Демонстрируется эталонное (исходное) видео.
  • До тех пор, пока есть не просмотренные сжатые варианты этого видео, эксперт выбирает очередной вариант видео, смотрит его и выставляет оценку. Оценка для фильма принадлежит отрезку от 0 до 100, чем выше, тем лучше. Оценка уже просмотренных вариантов последовательности может быть изменена в любой момент, также возможно пересмотреть любой из вариантов.
  • Если все варианты видео просмотрены, то эксперт может перейти к следующей тестовой последовательности.

Разные варианты сжатой последовательности скрыты за буквенными обозначениями, поэтому эксперт не знает, какой кодек он оценивает в данный момент. Эталонное видео доступно явно, также оно скрыто под одним из буквенных обозначений и оценивается наравне со сжатыми видеопоследовательностями.

Для чего нужны такие сложности? Есть несколько задач, которые должны решать методики субъективного тестирования. Первая из них – создание у всех экспертов общей шкалы оценок, то есть чтобы оценка “хорошо” значила для разных экспертов приблизительно одно и то же. Это достигается при помощи приема под названием “anchoring”: во время теста демонстрируется как видео с самым высоким качеством (“high anchor”, должно ассоциироваться у всех экспертов с максимальной оценкой), так и с самым низким (“low anchor”, должно ассоциироваться с минимальной оценкой).

Еще одна задача – минимизация эффекта памяти, влияния очередности показа видео на оценки экспертов. В некоторых тестовых методах эта задача решается при помощи демонстрации референсного (исходного) видео вместе с каждой обработанной видеопоследовательностью. В методе SAMVIQ, который мы использовали при сравнении, первая проблема решается при помощи явно доступного и скрытого эталонного видео, а вторая – при помощи более гибкой, чем в других методах, процедуры оценки (эксперт может пересматривать видео и менять свои оценки).

При любом тестовом методе на результаты субъективного тестирования может повлиять множество сторонних факторов. Необходимо, чтобы все эксперты были проинструктированы о способе прохождения тестирования, в помещении было обеспеченно достаточное освещение, тестирование не должно утомить экспертов. Несколько изменить результаты может все, что угодно, от пола экспертов до их профессий и времени проведения тестирования. Интересно, что по сравнению со всеми остальными факторами характеристики монитора (разрешение, LCD/CRT и т.д.) не оказывают значительного влияния на результаты (см. M.Pinson, S.Wolf, “The Impact of Monitor Resolution and Type on Subjective Video Quality Testing” NTIA TM-04-412). Обработка результатов

Основные результаты получаются после простого усреднения оценок по экспертам. Полученная оценка называется MOS (Mean Opinion Score). Также для оценки разброса мнений обычно приводится доверительный интервал (интервал, в котором с заданной вероятностью находится реальное среднее мнение). Существуют методики, позволяющие исключить экспертов, дающих нестабильные и сильно отличающиеся от средних результаты.Субъективное сравнение современных видеокодеков

В конце 2005 года нашей лабораторией было проведено субъективное тестирование видеокодеков. Задачами тестирования были субъективное сравнение новых версий популярных кодеков, сравнение результатов с данными объективных метрик и отработка технологии субъективного тестирования. В этой статье приведена лишь часть полученных результатов.

Участвовавшие кодеки:

Кодек

Изготовитель

Версия

DivX

DivXNetworks

6.0 b1571-CenterOfTheSun

XviD

Кодек с открытым исходным кодом

1.1.-125 (“xvid-1.1.0-beta2”)

x264

Кодек с открытым исходным кодом

Core 48 svn-352M by Sharktooth

WMV

Microsoft Corporation

9.0

Параметры кодеков:

Кодек

Параметр

Значения

DivX

Bitrate

690 kbps, 1024 kbps

XviD

Target bitrate

690 kbps, 1024 kbps

x264

Average Bitrate

690 kbps, 1024kbps

WMV

Bit rate

700000 bps, 1048576 bps

Остальные параметры кодеков оставались без изменений.

Тестовые видео:

Название

Длина [кадры]

Длина [секунды]

Разрешение

Источник

Battle

257 кадров

10.71

704×288

MPEG2 (DVD)

Rancho

240 кадров

10.01

704×288

MPEG2 (DVD)

Matrix sc.1

250 кадров

10.00

720×416

MPEG2 (DVD)

Matrix sc.2

250 кадров

10.00

720×416

MPEG2 (DVD)

Использовались последовательности из фильмов ”Терминатор 2” и “Матрица”: две со средним и две с очень быстрым движением. В качестве метода субъективного тестирования использовался SAMVIQ, описанный выше. Субъективное тестирование проходило в течении трех дней. Всего в тестировании приняло участие 50 экспертов. Использовались три типа мониторов: 6 x 15” CRT Dell, 1 x 17” CRT Samsung и 2 x 17” LCD Samsung.

Следующие графики демонстрируют результаты тестирования на одной из последовательностей. По оси ординат среднее субъективное мнение (MOS, чем выше, тем лучше) и 95% доверительный интервал, то есть для данного объема выборки реальное значение MOS находится в указанном диапазоне с вероятностью 0.95, Ref – исходное видео, по оси абсцисс – кодек и битрейт, с которым сжималось видео.

MOS для последовательности Battle

“Battle” – последовательность с очень сильным движением. Из графика видно, что кодек x264 с битрейтом 690 kbps был оценен так же, как и WMV с битрейтом 1024 kbps. Интересно, что исходное видео (полученное с DVD) не получило максимальную отметку 100, хоть и обладало самым лучшим качеством – эксперты видели в нем артефакты.

MOS для последовательности Rancho

В последовательности “Rancho” движение гораздо слабее, многие кодеки справились с ней практически одинаково – экспертам было труднее отличить их, увеличился разброс оценок. Тем не менее, превосходство x264 все равно заметно.

На следующем графике можно увидеть значения MOS, усредненные по всем последовательностям.

Очевидно, что по среднему мнению экспертов кодек x264 значительно превосходит все остальные протестированные кодеки. Низкий результат кодека XviD является следствием того, что в декодере этой версии деблокинг не включен по умолчанию. Он не был включен в связи с принятой политикой невмешательства в тонкие (для обычного пользователя) настройки кодека.Выводы

Субъективное сравнение – единственный выход, если вам нужно оценить реальное качество видео. Существует множество деталей при проведении сравнения, на которые необходимо обращать внимание, но при соблюдении определенных правил корректное применение методик тестирования может дать надежные и ценные результаты.

Полный текст сравнения с анализом субъективных результатов и замером объективных метрик находится по адресу http://www.compression.ru/video/codec_comparison/subjective_codecs_comparison.html.

Продолжение: Оценка адекватности объективных метрик качества видео

 [Все статьи в разделе «Цифровое Видео»]

FAQ по оцифровке видео с минимальными затратами

Предисловие
Общие вопросы:
  1. Зачем нужно видео на компьютере?
  2. На каком принципе основана реализация видео на компьютере?
  3. Как бороться с огромными размерами?
  4. Какие основные виды сжатия существуют?
  5. К каким проблемам приводит сжатие видео?
  6. Как работают и на каких принципах основаны аналоговые видеостандарты?
Вопросы по захвату:
  1. Что такое видеозахват?
  2. Какие минимальные требования к системе для видеозахвата?
  3. В какой формат файла производится видеозахват?
  4. Как бороться с 2 Гбайтным лимитом AVI?
  5. Что такое dropped frames (отброшенные кадры)?
  6. К каким проблемам приводит уменьшение частоты кадров?
  7. Какие виды сжатия, и для каких целей, надо применять при оцифровке?
  8. Что такое color format (метод кодирования цвета), luminance (яркость), chrominance (цветность)?
  9. Какие виды кодирования цвета существуют?
  10. Почему возникает десинхронизация звука и видео?
  11. Какие методы борьбы с десинхронизацией звука существуют?
  12. Что такое interlaced video (чересстрочное видео), field (полукадр), field order (порядок полукадров), scan line effect (эффект «расчески»)?
  13. Какие способы борьбы с эффектом «расчески» существуют?
  14. Как влияет эффект «расчески» на сжатие видео?
  15. В чем различие между захватом телеэфира (антенна), композитного сигнала (VHS) и сигнала S-Video (SVHS, большинство аналоговых и цифровых видеокамер)?
  16. Есть ли «готовые» настройки для оцифровки видео, поступающего с различных источников?
  17. Какой софт лучше всего использовать для оцифровки видео?
Вопросы по обработке захваченного видео:
  1. Какие стадии присутствуют в компьютерной обработке видео?
  2. Что такое нелинейный видеомонтаж?
  3. Что такое «фильтры» видео, и когда нужно их применять?
  4. Чем отличаются форматы MPEG, AVI и ASF?
  5. Когда следует сжимать видео в MPEG?
  6. Когда следует сжимать видео в ASF?
  7. Какие кодеки нельзя использовать в «выходном продукте»?
  8. Какой кодек (или формат файла) на сегодняшний день дает наилучшее качество видео при минимальном потоке?
  9. Каким кодеком следует сжимать звуковую дорожку AVI-файла (проблемы с использованием кодека MP3 и одно из возможных решений)?
  10. Как наиболее дешевым способом вывести обработанное видео обратно на телевизор/видеомагнитофон?
  11. Каким следует делать разрешение выходного видео?
  12. Как следует обрабатывать чересстрочное видео?

Предисловие

Все написанное в этом FAQ нацелено на использование в малобюджетной видеообработке. Многие советы могут быть абсолютно неприменимы для случаев полупрофессиональной и профессиональной видеообработки. Поэтому автор заранее просит не посылать ему обличительные письма о том, что надо давно было купить miroVIDEO DC1000 и не заниматься ерундой. Увы, столь дорогая техника пока недоступна большинству пользователей ПК в России, а использовать современные компьютерные методы для улучшения домашнего видеоархива хочется каждому. Именно для этих целей автор приобрел себе дешевый TV Tuner и остался полностью доволен полученным результатом (в особенности соотношениями цена/качество и цена/возможности). В процессе изучения основ цифрового видео автору пришлось столкнуться с проблемой нехватки документации по вопросу малобюджетной видеообработки, и он решил собрать с трудом добытые из разных источников данные и полученный опыт в один документ. Автор искренне надеется, что этот FAQ окажется полезным для начинающих и спасет их от многих ошибок.

Общие вопросы

Зачем нужно видео на компьютере?

Действительно, а что нам дает хранение видеоинформации на компьютере, а не на обычной видеокассете? В основном, цифровое хранение и обработка видео привлекают по двум причинам: во-первых, цифровое видео не «заезжается» от многократных просмотров; во-вторых, элементарно получить копию видеоматериала, абсолютно идентичную оригиналу. Уже этих двух причин достаточно для того, чтобы сохранять свое домашнее видео в цифровом виде.

На каком принципе основана реализация видео на компьютере?

На том же, что и все остальное видео и кино. Кадры последовательно сменяют друг друга 25 раз в секунду (для Pal/Secam), что наш мозг воспринимает как непрерывное движение. Из такого принципа делаем вывод: длинные видеопоследовательности имеют огромные размеры. Так, пусть мы сохраняем видео с размером кадра 352×288, 24 бит на пиксель. Для сохранения хотя бы минуты видео потребуется примерно 435 Мбайт. В этом и есть основная проблема цифрового видео — неимоверная прожорливость по части размера файла.

Как бороться с огромными размерами?

Есть два основных способа борьбы: уменьшение основных параметров видеозахвата и сжатие. Основными параметрами видеозахвата являются: размер кадра, кодировка цвета и частота кадров.

Достаточно часто вводят термин «битрейт». Средний битрейт — это размер видеопоследовательности в битах, отнесенный к его длительности в секундах. Единицей измерения битрейта служит 1 бит/с — 1 бит в секунду (1bps — 1 bit(s)-per-second). Поскольку 1 бит/с — величина очень маленькая в приложении к цифровому видео, также вводятся Килобит/с (Кбит/с) и Мегабит/с (Мбит/с). Для видео из предыдущего вопроса битрейт составляет 58 Мбит/с. Битрейт сжатого видео на VideoCD, имеющего такой же размер кадра и частоту кадров, равен 1,1 Мбит/с.

Какие основные виды сжатия существуют?

Сжатия разделяют на два типа: без потери качества (часто кратко называются «без потерь») и с потерей качества («с потерями»). Разница между этими типами понятна из их названия. Большинство методов сжатия без потери качества не учитывают визуальную похожесть соседних кадров видеопотока. Методы сжатия с потерей качества, наоборот, в большинстве случаев используют эту похожесть. Из-за этого максимальная степень сжатия среднестатистического видеофрагмента, достигаемая алгоритмами без потерь, не превышает 3 к 1, в то время как алгоритмы, работающие с потерей качества, могут сжимать вплоть до 100 к 1.

Довольно часто методы, учитывающие похожесть соседних кадров видеопотока, называют «рекурсивными». В них сохраняются полностью лишь отдельные кадры, называемые ключевыми (иногда, интра) кадрами. Все остальные кадры содержат лишь отличия от предыдущих (иногда они также содержат ссылки на информацию, содержащуюся в последующем кадре).

Методы, сжимающие каждый кадр отдельно от других, называют «раздельными». В видеопоследовательностях, сжатых такими методами, все кадры являются ключевыми.

При сжатии без потери качества чаще всего используются алгоритмы, аналогичные применяемым в файловых архиваторах (ZIP, RAR, LZH). Наиболее сильно сжимают алгоритмы, использующие дискретное преобразование Фурье с сохранением такого количества коэффициентов, которого достаточно для полного восстановления исходной информации.

В методах сжатия с потерей качества также чаще всего применяются алгоритмы, основанные на дискретном преобразовании Фурье, однако количество сохраняемых коэффициентов практически всегда значительно меньше алгоритмов, работающих без потери качества. При сжатии с потерями обычно жестко задают либо степень снижения качества для каждого кадра, либо средний или мгновенный битрейт выходного файла.

К каким проблемам приводит сжатие видео?

Оно приводит к т. н. артефактам. Артефакты — это видимые нарушения качества видеопоследовательности, возникающие в процессе сжатия с потерями. Наиболее часто встречающийся артефакт сжатия — разбиение картинки на квадратные блоки. У «рекурсивных» алгоритмов сжатия также часто наблюдаются «мусор» рядом с контрастными границами и движущимися объектами, а также «волнующиеся» и «расплывшиеся» цвета. Количество и интенсивность артефактов зависит от алгоритма сжатия, отношения выходного битрейта к исходному и характера сжимаемого изображения.

Существуют специальные алгоритмы фильтрации типичных артефактов сжатого видео. Обычно любой проигрыватель сжатого видео включает в себя постобработку декомпрессированного видео такими фильтрами.

Как работают и на каких принципах основаны аналоговые видеостандарты?

Этот вопрос требует фундаментальных знаний в области физики и радиотехники, и поэтому полное и развернутое объяснение в рамки этого FAQ не входит. В значительном упрощении схема работы аналогового кодирования видеосигнала такова: сигнал передается в виде синхронизационной и информационной компонент с применением частичного квантования. Сам сигнал является аналоговым, но его разделяют (квантуют) на линии и кадры. В стандарте PAL (и близком к нему SECAM) предполагается наличие 25 кадров в секунду, каждый из которых содержит 576 строк. Стандарт NTSC предполагает наличие 30 кадров в секунду, каждый из которых содержит 480 строк. Информацию о начале/окончании строк и кадров несет в себе компонента синхронизации. Информационная компонента несет яркостную составляющую (Y), использующуюся в черно-белом телевещании, и две цветовых компоненты (U/V). Во всех системах используется амплитудная модуляция яркостных и цветовых компонент, причем у PAL/SECAM частоты несущих цветовых компонент ниже в два раза, чем у яркостной, а у NTSC — в четыре раза.

Вопросы по захвату

Что такое видеозахват?

Видеозахватом называют процесс преобразования аналогового видео в цифровой вид с последующим его сохранением на цифровом носителе информации. Самый типичный пример видеозахвата — оцифровка телеэфира или VHS кассеты на специально оборудованном ПК.

Какие минимальные требования к системе для видеозахвата?

Во-первых, необходимо устройство видеозахвата, способное поставлять с достаточной скоростью кадры видеопоследовательности в одном из стандартных форматах кодировки цветности. Именно таким устройством является TV Tuner или видеокарта, снабженная видеовходом. Также существуют более дорогие и «продвинутые» устройства, способные сразу сжимать захватываемое видео, однако рассмотрение их выходит за рамки этого FAQ.

Во-вторых, потребуется достаточно быстрый жесткий диск большого объема, способный успевать записывать видео с большим битрейтом. Так, для захвата видео, которое впоследствии предполагается записать на VideoCD (352×288 YUV12), жесткий диск должен быть способен записывать 4 Мбайта/с (не Мбита!). А для захвата видео с наилучшим качеством аналогового телевещания (например, с отдельного DVD проигрывателя по интерфейсу S-Video, или просто с телевизионного эфира) потребуется диск, со скоростью записи более 19 Мбайт/сек.

В-третьих, потребуется действительно быстрый ЦПУ. Особенно если для уменьшения битрейта сжатие видео будет производиться непосредственно во время захвата. Минимально необходимым ЦПУ принято считать Pentium-II 300, тем не менее, «комфортной» работы с захваченным видео сложно добиться на любом процессоре с частотой меньше 550 МГц. Если же для сжатия использовать MPEG4 алгоритмы, то наилучшим выбором станет Athlon 800-900 (и выше) или Pentium 4, показывающие прекрасную производительность в задачах такого рода.

В-четвертых, потребуется как минимум 128 Мбайт ОЗУ, иначе любые нестабильности в скорости сжатия будут весьма пагубно влиять на качество захваченного фрагмента.

В какой формат файла производится видеозахват?

Формат файла зависит от используемого софта. На сегодняшний день наиболее распространены три формата: AVI, MPEG и ASF.

Наиболее часто при захвате используется AVI (Audio-Video Interleaved — формат с перемежающимися блоками аудио- и видеоинформации). Он был разработан Microsoft для хранения и воспроизведения видео в рамках API Video for Windows. По своему устройству этот формат относится к «чанковым»: как и в WAV или MIDI, вся информация упаковывается в заголовки, называемые chunks — чанки. Это позволяет записывать в AVI файл как несжатый, так и подвергнутый любому виду сжатия видеопоток. Основными недостатками AVI являются его неприспособленность к стримингу (streaming) — широковещательной передачи видео в сетях — и ограничение в 2 Гбайта на размер файла. И если неприспособленность к стримингу не оказывает заметного влияния на видеозахват, то ограничение размера может стать серьезным препятствием при захвате без сжатия видео «на лету» или при захвате длительных видеофрагментов.

Формат MPEG (название образовано от Motion Picture Experts Group — группы специалистов по сжатию видеопоследовательностей), в отличие от AVI, подразумевает использование одного из двух стандартных алгоритмов сжатия: MPEG1 и MPEG2. MPEG1 используется для сжатия видео с небольшим размером кадра (менее 288 по вертикали) и битрейтом порядка 1-2 Мбит/с, а MPEG2 — для видео с большим размером кадра (более 288 по вертикали) и битрейтом порядка 5-10 Мбит/с. В качестве основного применения MPEG1 можно назвать формат VideoCD. MPEG2 применяется в цифровом телевещании и на DVD. Ввиду огромных требований к ЦПУ при сжатии в MPEG (особенно в MPEG2), видеозахват непосредственно в этот формат практически не производится.

Формат ASF (Advanced Streaming Format — улучшенный формат для стриминга) был разработан Microsoft, как улучшенная версия AVI, предназначенная для стриминга в сетях c малой пропускной способностью (wide-area networks with small bandwidth). Основное применение этого формата (на сегодняшний момент) — интернет-телевидение и телеконференции. Захват видео в этот формат производится утилитой Windows Media Encoder, доступной для скачивания на сайте Microsoft. Эта утилита также позволяет рекомпрессировать AVI в ASF и производить стриминг захватываемого видео в реальном времени.

Как бороться с 2 Гбайтным лимитом AVI?

Временным решением проблемы может стать уменьшение битрейта видео посредством его сжатия «на лету» во время захвата, или уменьшения основных параметров видеозахвата. Однако в некоторых ситуациях сжатие «на лету» невозможно, также как и ухудшение основных параметров. Поэтому в большинстве программ для захвата видео в AVI файл включается возможность «сегментированного захвата». При таком методе захвата видео записывается в один файл-сегмент до достижения им определенного размера, а после этого создается новый файл-сегмент и процесс повторяется. Стандарта на сегментированный захват не существует, и каждая программа захвата предоставляет собственную реализацию этого метода.

Что такое dropped frames (отброшенные кадры)?

Если в процессе захвата драйверы устройства не смогли по какой-то причине вовремя скопировать очередной кадр из буфера оцифровщика в оперативную память, этот кадр «отбрасывается», так как оцифровщик записывает поверх него в буфер очередной кадр. Это приводит к тому, что в оцифрованном видео появляется «пустой» кадр — кадр, идентичный предшествующему «отброшенному». Если в процессе захвата было много «отброшенных» кадров, то все движения в полученном видеофрагменте будут резкими, «дерганными». Поэтому при видеозахвате стараются добиться отсутствия «отброшенных» кадров.

Основными причинами возникновения «отброшенных» кадров являются: нехватка производительности ЦПУ для сжатия «на лету», нехватка производительности дисковой подсистемы для записи видео с таким битрейтом и плохое качество аналоговых сигналов источника видео. Определить, какая из перечисленных проблем вызвала возникновение «отброшенных» кадров можно таким образом:

  1. Большинство программ видеозахвата выводят индикатор занятости ЦПУ (если не выводят, то придется запустить системный монитор). Если в процессе захвата ЦПУ постоянно занят на 100%, то переходим ко второму пункту. Иначе заключаем, что «отброшенные» кадры появились из-за плохого качества аналогового сигнала источника видео.
  2. В некоторых программах захвата есть возможность «тестового» захвата — в таком режиме производится обычный захват и сжатие видео «на лету» выбранным кодеком, однако результат не записывается на диск. Если в этом режиме работы ЦПУ постоянно занят на 100%, то «отброшенные» кадры возникают из-за нехватки производительности ЦПУ для сжатия «на лету». В противном случае не хватает скорости дисковой подсистемы. В качестве эмуляции тестового режима можно использовать виртуальный диск в памяти, созданный драйвером RAMDRIVE.SYS. Если возможности использовать RAMDRIVE нет, придется измерить скорость работы жесткого диска (например, с помощью ZiffDavis WinBench 99), и примерно оценить битрейт захватываемого потока с учетом сжатия «на лету». Если скорости диска хватает для поддержания такого битрейта, то виновата нехватка производительности ЦПУ.

Причиной возникновения «отброшенных» кадров в многозадачных системах также могут стать запущенные параллельно видеозахвату программы. Поэтому видеозахват рекомендуют производить в эксклюзивном (однозадачном) режиме.

В режимах синхронизации потока видео по звуковому потоку также могут возникать «отброшенные» кадры, но их природа отлична от рассмотренных выше, и о них подробнее будет рассказано в вопросе о десинхронизации звука и видео.

К каким проблемам приводит уменьшение частоты кадров?

Во-первых, визуально движения становятся более резкими, «дерганными».

Во-вторых, может возникнуть эффект «дрожания». Как известно, кадр в буфере оцифровщика всегда обновляется с частотой 25 кадров в секунду (30 для NTSC). Уменьшением частоты кадров захваченного видео занимается драйвер устройства. Принцип его достаточно простой: с идентичной заданной нами частотой, устройство видеозахвата генерирует сигналы (аппаратные прерывания), по которым драйвер копирует кадр из буфера оцифровщика и передает его захватывающему софту. Если мы задали не кратную 25 кадрам в секунду частоту, то неизбежно возникнет аналог стробоскопического эффект в физике по оси времени захваченного видео. Проще говоря, захваченное видео будет выглядеть постоянно немного ускоряющимся и замедляющимся. Наиболее заметен этот эффект будет при оцифровке с частотой кадров около 18. Поэтому уменьшать частоту кадров при видеозахвате рекомендуется только в целое число раз. В пересчете на цифры получим соответственно 12,5 кадров в секунду для уменьшения частоты в два раза, и 8,3 для уменьшения в три раза. Уменьшать частоту в большее число раз не имеет смысла ввиду того, что это уже будет «слайд шоу», а не видео.

В-третьих, уменьшение частоты кадров плохо влияет на «рекурсивные» алгоритмы сжатия ввиду увеличения отличий между соседними кадрами. Достаточно часто на практике, при сжатии с применением алгоритмов MPEG4, уменьшение частоты кадров приводит к значительному снижению качества сжатого видео.

Учитывая вышеназванные причины, уменьшать частоту кадров при видеозахвате рекомендуется в последнюю очередь.

Какие виды сжатия и для каких целей надо применять при оцифровке?

При видеозахвате всегда следует учитывать, будут ли производиться последующая обработка захваченного материала фильтрами и нелинейный видеомонтаж. Если будут, то при захвате рекомендуется либо вообще не использовать сжатие «на лету», либо использовать не очень сильное сжатие, основанное на «раздельном» алгоритме. Наиболее популярным видом такого сжатия является Motion JPEG (MJPEG). При сжатии этим методом каждый кадр компрессируется известным алгоритмом JPEG, позволяющим достигнуть степеней сжатия 7:1 без заметных искажений картинки. Такие рекомендации вызваны тем, что сильное сжатие и «рекурсивные» алгоритмы вносят в видеофрагмент очень большое количество «скрытых» артефактов, которые сразу станут заметными при проведении фильтрации или рекомпрессии, производимой после нелинейного видеомонтажа.

Если захватываемый видеофрагмент не предполагается обрабатывать фильтрами или производить нелинейный видеомонтаж, то допускается сильное сжатие «на лету» «рекурсивными» алгоритмами. Тем не менее, все равно лучше сначала производить захват в MJPEG, поскольку это даст возможность более гибко подобрать параметры финального сжатия и получить более качественный выходной продукт.

Что такое color format (метод кодирования цвета), luminance (яркость), chrominance (цветность)?

Color format (метод кодирования цвета) — это стандарт представления цветовой информации об одном пикселе изображения в цифровом виде. Наиболее известными стандартами являются: палитровый метод (указывается индекс цвета в массиве стандартной палитры), RGB представление (указывается интенсивность аддитивных компонент цвета), CMYK (указывается интенсивность субтрактивных компонент цвета), HUE (указываются более понятные человеку тон, насыщенность и чистота цвета).

Достаточно часто также используют метод, при котором информация о пикселе делится на две чести — яркость (luminance, Y) и цветность (chrominance, U/V). Во-первых, такой метод кодирования цвета позволяет получить черно-белую картинку простым отбрасыванием цветности. Во-вторых, известно, что человеческий глаз воспринимает изменения цвета хуже, чем изменения яркости. Поэтому цветность можно сохранять с худшим разрешением, чем яркость, сохраняя видимое качество картинки неизменным. Такой прием используется в аналоговом телевещании и композитном видеосигнале, а также в большинстве методов сжатия (например, MJPEG, MPEG, Intel Indeo). В зарубежной литературе этот прием получил название Chroma Subsampling.

Следует иметь в виду, что цветность достаточно часто называют цветоразностью. В принципе, это немного неправильно, так как цветоразностями называют компоненты цветности (всего их две — U и V). Такое название они получили из-за того, что если они равны нолю, то пиксель будет бесцветным — серым.

Какие виды кодирования цвета существуют?

Проще всего оформить ответ в виде таблицы:

НазваниеБит на пиксельОписание
RGB3232Для каждого пикселя сохраняются значения красной, зеленой и синей компоненты, а также канал прозрачности. На каждый сохраняемый параметр отводится по одному байту. Ввиду отсутствия в захватываемом аналоговом видеосигнале канала прозрачности использование этого вида кодирования цвета при захвате не имеет смысла. Аналогичное качество даст RGB24.
RGB2424Стандартный компьютерный формат TrueColor — для каждого пикселя сохраняются значения всех трех аддитивных компонент цвета. На каждую компоненту отводится по одному байту. Рекомендуется использовать для сохранения отдельных кадров видеопоследовательностей, а также для захвата видео с разрешением по горизонтали менее 512.
RGB16/ RGB1516/15Стандартный компьютерный формат HiColor — для каждого пиксела значения всех трех аддитивных компонент цвета. На каждую компоненту отводится по 5 бит (в RGB16 на зеленую компоненту отводится 6 бит).
YUY2
UYVY
YUYV
CYUV
YUV422
16Первый из форматов, использующий Chroma Subsampling. В нем для каждых двух пикселей по горизонтали сохраняются разные значения яркости (Y) и только одно общее значение компонент цветности (U/V). На все три компоненты отводится по одному байту. Итого, на два соседних пикселя приходится два байта яркости и два байта компонент цветности, что дает 16 бит на один пиксель. Благодаря особенностям человеческого глаза, изображение, закодированное таким способом, практически неотличимо от RGB24. Этот формат рекомендуется применять при оцифровке полноформатного телеэфира стандарта PAL/SECAM (768х576), поскольку в нем частоты несущих цветоразностей в два раза меньше частоты несущей яркости. RGB24 для этого случая будет сохранять «излишнюю» информацию о цвете, зря расходуя битрейт. Также YUY2 является входным форматом для большинства кодеков MJPEG, MPEG2, и устаревшего кодека CinePak.
YUY2 также часто обозначают такой последовательностью цифр: 4:2:2. Это означает, что для каждых четырех подряд идущих пикселей сохраняются четыре значения яркости (Y), и по два значения для каждой компоненты цветности (U/V).
YUV12
I420
IYUV
YUV420
12В этом формате значения Y сохраняются для всех пикселей, а U/V объединяются у пикселей, образующих квадраты 2х2. Итого, на четыре пикселя сохраняются четыре байта яркости и два байта цветности, что дает 12 бит на пиксель. Этот формат является входным для сжатия MPEG1. Оцифровку в него можно производить с разрешением по вертикали, меньшим 288, так как из-за объединения пикселей из соседних линий чересстрочное видео подвергнется серьезным искажениям.
Цифровое обозначение формата имеет вид 4:2:0. Расшифровки, подобной приведенной для YUY2, у этого обозначения не существует.
BTYUV
Y41P
YUV411
12Для четырех подряд идущих пикселей по горизонтали сохраняются четыре значения Y и общие значения U/V. Благодаря объединению пикселей только одной строки этот формат можно применять при оцифровке чересстрочного видео. Этот формат рекомендуется применять при оцифровке полноформатного телеэфира стандарта NTSC (640×480), поскольку в нем частоты несущих цветоразностей в четыре раза меньше частоты несущей яркости. Точно также, его имеет смысл применять при оцифровке видео с композитных (VHS видеомагнитофоны, игровые приставки) и S-VIDEO (SVHS камеры, SVHS видеомагнитофоны) источников, так как у них частоты несущих цветоразностей примерно в пять раз меньше частоты несущей яркости.
Цифровое обозначение формата имеет вид 4:1:1.
YUV9
YVU9
9Это формат является наихудшим с точки зрения качества. В нем значения U/V сохраняются для квадрата пикселей 4×4. Яркость сохраняется для каждого пикселя в квадрате. Оцифровывать в этот формат можно видео с размером кадра по вертикали не более 288 — иначе возникнут сильные искажения чересстрочного видео. В качестве входного этот формат используют кодеки серии Intel Indeo.
Y8
YUV400
Grayscale
B&W
8Этот формат не является методом кодирования цвета — в нем сохраняется только яркостная информация о пикселе. Имеет смысл использовать при оцифровке черно-белых видеоматериалов, так как U и V не будут содержать шумов, вызывающих «цветной снег» на черно-белом изображении.
Почему возникает десинхронизация звука и видео?

Основная причина возникновения эффекта убегания/отставания звука от видео — захват их с разных устройств. Во-первых, как бы ни были точны современные кварцевые генераторы импульсов, но расхождения между конкретными экземплярами по частоте все-таки есть. Они практически незаметны на малых периодах времени, но за двадцать минут захвата из-за расхождений генераторов частот на карте видеозахвата и звуковой карте может набежать секунда разницы. Во-вторых, если во время захвата производится сжатие «на лету», и в какой-то момент кодек был вынужден затребовать все вычислительные мощности процессора для сжатия особо сложной сцены, кроме отброшенных кадров могут возникнуть и отброшенные звуковые данные. Поскольку вместо всех отброшенных кадров в видеопоток будут вставлены «заглушки», а в аудиопоток аналогичные «заглушки» вставить невозможно, звук «убежит» вперед.

Какие методы борьбы с десинхронизацией звука существуют?

Следует разделить эти методы на применяемые во время захвата и после него.

Основной способ борьбы с десинхронизацией звука и видео во время захвата — контроль частоты кадров видеопотока в соответствии с длительностью аудиопотока. Если аудио убегает вперед, то стоит ему убежать на время, большее промежутка между соседними кадрами, как в видеопоток добавляется «лишний» кадр. Если звук отстает, то стоит ему отстать на время, большее промежутка между соседними кадрами, как очередной кадр отбрасывается без вставления заглушки. Эти простые действия гарантируют синхронность потоков в любой ситуации.

Однако описанный метод не лишен недостатков — при нем не сохраняется плавность движений исходного видео, а также может теряться часть видеоинформации. Поэтому лучшим вариантом было бы воздействие на звуковой поток, что невозможно делать во время захвата — отбрасывание кусков или дополнение тишиной звуковой информации неизбежно приведет к слышимым искажениям.

Если захват производился без контроля синхронности по аудиопотоку, то длины захваченных видео- и аудио- потоков не будут совпадать. Для восстановления синхронности потоков можно воспользоваться двумя разными методами:

  • Изменить частоту кадров видеопотока так, чтобы его длительность совпала с длительностью аудиопотока. Этот метод прекрасно подходит для случаев, когда оцифрованное видео планируется просматривать только на компьютере. При нем сохраняется плавность движений, и используются все кадры аналогового источника. Но использовать такие файлы для вывода информации на аналоговый видеовыход или для компрессии в стандарты MPEG будет невозможно из-за несоответствия частоты кадров видеопотока стандартным (25 для PAL/SECAM и 30 для NTSC).
  • Изменить в звуковом редакторе длительность аудиопотока так, чтобы она совпала с длительностью видеопотока. Для этого потребуется записать звуковой поток в отдельный файл, в звуковом редакторе растянуть/сжать его до длительности видеопотока, и снова слить потоки в один файл.

Когда десинхронизация потоков вызвана отбрасыванием части аудиоинформации, восстановить синхронность гораздо сложнее. Для этого придется разбивать файл на куски, разрезая в местах отбрасывания звука, и для каждого куска вручную подбирать время, на которое необходимо задержать/растянуть/сжать звуковой поток.

Что такое interlaced video (чересстрочное видео), field (полукадр), field order (порядок полукадров), scan line effect (эффект «расчески»)?

В аналоговом видео принято разделять полный кадр на два полукадра (fields), равных ему по ширине и вдвое меньших по высоте. В одном полукадре содержатся нечетные линии кадра (Field A, odd field), в другом — нечетные (Field B, even field). Такое разделение очень удобно для отображения видео на электронно-лучевых трубках телевизоров, использующих чересстрочную (interlaced) развертку. При чересстрочной развертке на экране сначала прочерчиваются все четные линии, а затем — все нечетные. Такой метод позволяет добиться отсутствия видимого мерцания картинки, несмотря на сравнительно медленную скорость ее изменения.

Тот факт, что отображение на экране четных и нечетных полукадров разнесено во времени, позволил повысить видимую частоту кадров — при съемке видеокамера производит захват кадров не 25 раз в секунду, а 50. Из каждого захваченного кадра попеременно отбрасываются четные либо нечетные строки, и полученный полукадр модулируется в аналоговый сигнал. Получается, что четные и нечетные полукадры такого сигнала относятся к разным моментам времени, и при выводе на ЭЛТ с чересстрочной разверткой это позволяет достигнуть большей плавности движений.

Важным понятием является порядок захвата полукадров (field order). В стандартах не оговорено, какой полукадр относится к более раннему моменту времени — четный или нечетный. При редактировании чересстрочного видео с применением изменяющихся во времени эффектов это может привести к неприятным последствиям в виде пульсаций освещенности, дрожании движений и пр. Поэтому в программах обработки видео обычно просят указать полукадр, соответствующий более раннему моменту времени.

Негативными последствиями чересстрочного видео является проблема его вывода на экран с прогрессивной разверткой, при которой отображается весь кадр целиком. Из двух полукадров приходится предварительно собирать один полный кадр, и лишь после этого производить отображение. Но, так как четные и нечетные полукадры такого кадра относятся к разным моментам времени, на границах движущихся предметов неизбежно возникнут не состыковки четных и нечетных линий, видимые в виде «зазубренностей». Этот эффект получил название эффекта «расчески» (scan line effect), ввиду того, что границы предметов при их движении становятся похожи на расческу.

Следует помнить, что все рассматриваемые в этом FAQ источники видео являются чересстрочными (телеэфир, композитный видеосигнал, S-Video сигнал).

Какие способы борьбы с эффектом «расчески» существуют?

Универсального метода борьбы с этим эффектом не существует. Самым простым способом является захват с разрешением по вертикали не превышающим 288 строк для PAL/SECAM или 240 строк для NTSC. При таком захвате будет использоваться информация только из одного полукадра (четного или нечетного, в зависимости от устройства видеозахвата), что исключит возможность возникновения эффекта расчески. Очевидным недостатком этого метода является потеря половины информации о видеосигнале.

Как возможный выход можно производить смешивание соответствующих линий полукадров, и дублирование результата. В этом случае на границах движущихся предметов вместо «зазубрин» возникнет подобие эффекта «motion blur», гораздо лучше выглядящего на дисплее с прогрессивной разверткой. Но для быстро движущихся предметов вместо «motion blur» возникнет эффект «двойного изображения».

Теоретически возможно нормально просматривать чересстрочное видео на прогрессивном дисплее, если программно эмулировать чересстрочный принцип построения картинки с учетом затухания свечения люминофора. Для этого потребуются дисплеи с прогрессивной разверткой порядка 150 Гц. Такие дисплеи уже существуют, однако софта для подобного просмотра пока нет. Остается надеяться, что в ближайшем будущем он появится.

Также, следует отметить, что не рекомендуется производить коррекцию эффекта расчески в случае, если впоследствии предполагается вывод видео на чересстрочные дисплеи.

Как влияет эффект «расчески» на сжатие видео?

Это зависит от используемого алгоритма сжатия. Если кодер знаком с понятием чересстрочного видео, то он перед сжатием разбивает кадр на два полукадра и сжимает их раздельно (так поступают MPEG2 и MJPEG). В противном случае кодер будет сжимать зазубренные края движущихся предметов как множество мелких деталей изображения, что приведет к неразумному расходу битрейта, и неизбежной потере качества. Поэтому, перед таким сжатием необходимо произвести фильтрацию эффекта расчески.

В чем различие между захватом телеэфира (антенна), композитного сигнала (VHS) и сигнала S-Video (SVHS, большинство аналоговых и цифровых видеокамер)?

Основное различие состоит в качестве исходных сигналов. Теоретически, наиболее качественным сигналом является телеэфир. Однако, его хорошее качество возможно только в случае кабельного вещания или в случае размещения принимающей антенны в прямой видимости от передающей башни. На втором месте по качеству идет S-Video сигнал, а наихудшим по качеству является композитный сигнал.

Есть ли «готовые» настройки для оцифровки видео, поступающего с различных источников?

Да, если под «готовыми» настройками подразумевается оцифровка видео с полным сохранением его качества. Вот эти настройки:

СистемаТелеэфирS-VideoКомпозитный сигнал
PAL/SECAM720×576 YUV422400×576 YUV411360×576 YUV411
NTSC720×480 YUV411400×480 YUV411360×480 YUV411
Какой софт лучше всего использовать для оцифровки видео?

На этот вопрос нельзя дать точного ответа. Все зависит от личных предпочтений. Вполне нормально работают программы, входящие в поставку коммерческих продуктов нелинейного видеомонтажа. Из бесплатного софта упоминания заслуживает программа VirtualDUB. Она позволяет преодолевать ограничение в 2 Гбайта, сжимать и обрабатывать фильтрами видео «на лету» и многое другое. Скачать ее можно с сайта программы

Вопросы по обработке захваченного видео

Какие стадии присутствуют в компьютерной обработке видео?

Обработку видео на компьютере обычно разделяют на три стадии: захват, монтаж и финальное сжатие. Разберем их последовательно.

В первой стадии — захвате — основной целью является оцифровка всех видеофрагментов, необходимых для составления конечного продукта, с максимально возможным качеством. Это исключает из применения при захвате рекурсивные алгоритмы сжатия. На это есть несколько причин: во-первых, эти алгоритмы вносят в изображение невидимые искажения, которые проявляются при обработке фрагментов фильтрами; во-вторых, при использовании таких алгоритмов монтаж без рекомпрессии возможен с точностью до ключевого (интра) кадра; в-третьих, деградация качества видео от сжатия «рекурсивным» методом весьма высока, и даже при однократной рекомпрессии снижение качества бросается в глаза.

Вторая стадия — монтаж — состоит из двух основных процедур. Во-первых, именно на этой стадии производится обработка видео различными фильтрами, а также проверяется и восстанавливается синхронность аудио и видео потоков. Во-вторых, на этой стадии производится нелинейный видеомонтаж оцифрованного материала.

Третья стадия — финальное сжатие — достаточно часто совмещается со второй в качестве ее последнего этапа. На этой стадии смонтированная видеопоследовательность подвергается окончательному сжатию с большим коэффициентом. Смонтированный и сжатый таким образом видеопоток считается окончательным результатом, пригодным для просмотра и помещения в видеоархив.

Что такое нелинейный видеомонтаж?

Нелинейным видеомантаж (НВМ) — это метод редактирования и совмещения нескольких видеоклипов в один финальный продукт, при котором в любой момент времени возможно использование любой части исходного видеоматериала. Самыми известными применениями НВМ являются плавные переходы с различными эффектами между разными видеоклипами, смешение методом «растворения» двух видеоклипов и метод «синего экрана» (замещение всех пикселей одного видеоклипа, имеющих один цвет, соответствующими пикселями другого видеоклипа).

НВМ стал стандартом в области обработки цифрового видео благодаря двум коммерческим программным пакетам: Adobe Premier и Ulead MediaStudio. По своим функциям оба пакета практически равнозначны, и выбор между ними в основном зависит от личных предпочтений.

Что такое «фильтры» видео, и когда нужно их применять?

Фильтры видео — это общее название для программ нанесения различных графических эффектов на кадры видеопотока. Их можно разделить на две основных группы: фильтры постобработки захваченного видео и фильтры нанесения спецэффектов. Для успешного монтажа необходимо знать следующие фильтры (все они относятся к первой группе):

  • Brightness (Яркость), Contrast (контрастность), Levels (уровни), Hue (оттенок), Saturation (насыщенность цвета). Эта группа фильтров позволяет скорректировать освещенность и цветность изображения.
  • Deinterlace (корректор эффекта «расчески»). Нужен для удаления эффекта расчески при подготовке видео, которое предполагается просматривать на прогрессивном дисплее.
  • Blur (размытие), Sharpen (увеличение четкости). Позволяют компенсировать высокочастотный шум или недостаточную четкость.
  • Resize (изменение размера), Crop (обрезание). Эти фильтры нужны для изменения размера кадра захваченного видео.
Чем отличаются форматы MPEG, AVI и ASF?

Эти форматы можно разделить на две группы: MPEG и AVI/ASF. Основное отличие между этими группами в том, что у всех MPEG жестко стандартизирован алгоритм декомпрессии, в то время как AVI/ASF являются всего лишь «оболочками» для сжатых данных, алгоритм декомпрессии которых может быть абсолютно любым. Для корректной декомпрессии AVI/ASF в их заголовках указывается четырехбуквенный код декомпрессора, который предварительно должен быть установлен в системе. Такая организация AVI/ASF приводит, с одной стороны, к необычайно гибкости этих форматов, но, с другой стороны, создает проблемы с переносимостью видео на другие компьютеры.

Достаточно интересно обстоят дела с отличиями между AVI и ASF. По сути дела, оно заключено в заголовках файла и блоков данных, расположении индекса, и наличии контрольных сумм для каждого блока данных. В свое время в сети была доступна для скачивания программа, конвертирующая любой AVI в ASF без рекомпрессии данных, что говорит о принципиальной похожести этих форматов. Однако стараниями Microsoft в большинстве новейших кодеков установлен программный блок, позволяющий этим кодекам работать только в составе Windows Media Tools. Кроме того, в судебном порядке Microsoft преследует любые попытки создать софт, позволяющий конвертировать видео из ASF в любой другой формат. Такое положение дел весьма прискорбно. У формата ASF есть неоспоримые преимущества в виде отсутствия ограничения на размер файла и хорошей поддержкой стриминга. Казалось бы, это открывает ему хорошие перспективы для использования в качестве промежуточного для оцифровки, перед нелинейным монтажом и компрессией в MPEG. Но, из-за отсутствия софта для редактирования и сжатия ASF в MPEG, область применения ASF ограничена стримингом (в основном в виде интернет-телевидения).

Формат MPEG является основным стандартом современного цифрового видео. Для декомпрессии MPEG потоков существуют множество аппаратных решений, применяемых как в компьютерах, так и в бытовой видеотехнике.

Отдельного упоминания заслуживает алгоритм сжатия MPEG4. Несмотря на то, что этот алгоритм также входит в группу MPEG стандартов, одобренных ISO, наибольшую популярность он получил в несколько модифицированных реализациях Microsoft MPEG4 V2, V3 и V7 для ASF и DivX 3.x, 4.x для AVI. Стандартный ISO MPEG4 (реализован в Microsoft MPEG4 V1) используется лишь при аппаратной компрессии видео некоторыми мобильными устройствами для передачи качественного видео по каналу с низкой пропускной способностью.

Когда следует сжимать видео в MPEG?

Видео следует сжимать в MPEG для достижения максимальной переносимости. Ввиду жестко стандартизированного алгоритма декомпрессии MPEG видео можно будет просматривать на любом компьютере, в том числе и с использованием специальной платы аппаратной декомпрессии MPEG. Кроме того, если сжать видео в MPEG1 формат и записать его на CD-R в соответствии со стандартом VideoCD, то результат можно будет просматривать на обычном телевизоре с использованием практически любого DVD- или VideoCD-плеера.

Когда следует сжимать видео в ASF?

В ASF видео следует сжимать для организации стриминга в сетях с низкой пропускной способностью. Одной из ключевых особенностей ASF является возможность помещения в один файл нескольких копий аудио и видео потоков с различным битрейтом, что позволяет клиенту запрашивать у сервера вариант видео с битрейтом, наиболее близким к пропускной способности канала клиент/сервер.

Какие кодеки нельзя использовать в «выходном продукте»?

Этот вопрос относится только к AVI-файлам. Ввиду достаточно большого возраста формата, для него существует множество различных кодеков (и их версий). Поэтому перечислить полный список кодеков, не рекомендованных к использованию при финальном сжатии невозможно. Однако возможно привести основные правила, которых следует придерживаться при выборе кодека. Во-первых, это должен быть аппаратно независимый кодек. Под аппаратной независимостью подразумевается наличие бесплатно доступного декомпрессора, работающего с достаточной для просмотра видео скоростью на ПК средней мощности. Именно по этой причине не рекомендуется использовать MJPEG в качестве кодека для финального сжатия. Во-вторых, не следует использовать старые кодеки. Под старыми кодеками имеются в виду кодеки, возраст которых превышает три года. Также не следует использовать кодеки старых версий, если уже вышли более новые версии. В-третьих, надо избегать использовать нестандартные кодеки, не включенные в стандартную поставку Windows. В случае использования таких кодеков желательно вместе с видео прилагать и кодек для декомпрессии.

Какой кодек (или формат файла) на сегодняшний день дает наилучшее качество видео при минимальном потоке?

Этот кодек называется DivX 4.01, и он доступен для бесплатного скачивания и использования на сайте проекта. Многие опасаются его использовать, так как в интернете распространена информация о том, что DivX является взломанной версией Microsoft MPEG-4. Это соответствует действительности для DivX 3.х, но абсолютно неверно для DivX 4.x. Последний был разработан на основе полностью бесплатно доступных кодов ISO MPEG4, посредством оптимизации алгоритма для работы в больших разрешениях с низким битрейтом. Еще одной привлекательной стороной этого кодека является постоянное обновление его версий, с сохранением полной обратной совместимости. Так, декомпрессор DivX 4.х способен проигрывать потоки, сжатые DivX 3.x.

Каким кодеком следует сжимать звуковую дорожку AVI-файла (проблемы с использованием кодека MP3 и одно из возможных решений)?

Одна из наиболее часто совершаемых ошибок при финальной компрессии видео — сохранение аудиопотока в несжатом виде. В случае сжатия видео с малым коэффициентом это практически не влияет на размер файла, но для сильно сжатого видео битрейт аудиопотока может превысить битрейт видеопотока. Поэтому аудиопоток необходимо сжимать хотя бы в формат ADPCM, предоставляющий приличное качество при уменьшении размера в 3-4 раза.

Наилучшим вариантом является сжатие аудио в формат MP3. Однако при использовании этого формата могут возникнуть несколько проблем. Во-первых, потребуется версия аудиокодека, поддерживающая сжатие. Это может быть как легальный платный кодек Frauhhofer IIS MPEG Layer-3 Codec (professional), так и его одноименный взломанный вариант, наиболее известный под названием «Radium MP3». Кроме того, стандартные средства Video for Windows и Active Movie не умеют использовать для сжатия эти кодеки. Единственной программой, которую автор этого FAQ смог заставить сжимать аудио в MP3 этими кодеками, оказалась VirtualDUB. Причем, захватывать звук сразу в МР3 он также не может, однако при последующей обработке видео возможно провести сжатие аудиопотока, не рекомпрессируя при этом видеопоток.

Как наиболее дешевым способом вывести обработанное видео обратно на телевизор/видеомагнитофон?

Достаточно доступными решениями (менее 100 долларов) являются покупка дополнительной видеокарты с TV Out, либо платы аппаратного декодирования MPEG. Первый вариант достаточно привлекателен из-за отсутствия необходимости предварительного сжатия видео в формат MPEG перед выводом, однако качество исполнения TV Out на видеокартах зачастую оставляет желать лучшего. Второй вариант потребует больших временных затрат для рекомпрессирования видео в MPEG, однако аппаратное сглаживание и фильтрация артефактов MPEG могут значительно улучшить видимое качество. Кроме того, при наличии DVD привода появляется приятная дополнительная возможность качественного просмотра DVD фильмов. Поэтому второй вариант более предпочтителен.

Каким следует делать разрешение выходного видео?

Основное ограничение на разрешение выходного видео накладывает аппаратный оверлей современных видеокарт. Для просмотра видео с использованием аппаратного оверлея необходимо, чтобы его размеры по горизонтали и вертикали были кратны 16. Кроме того, стандартами де-факто стали отношения сторон кадра 4:3 и 16:9. В случае, если производится оцифровка видео, имеющего отношение сторон кадра 16:9, но дополненное до 3:4 с помощью черных полос, эти полосы необходимо перед сжатием удалить, вернув видео изначальное отношение сторон 16:9. Это необходимо сделать перед финальным сжатием видео, так как качественное сжатие резкой контрастной границы между черной полосой и кадром потребует большую часть битрейта видео. Среди стандартных компьютерных разрешений для видео чаще всего используют 320×240, 512×384 и 640×480. Из стандартных телевизионных разрешений используют 176×144, 352×288 и 704×576.

Как следует обрабатывать чересстрочное видео?

Обработка чересстрочного видео представляет собой отдельную проблему, так как единственными кодеками, разделяющими поля при сжатии, являются MJPEG и MPEG2. Поэтому при компьютерной обработке видео с последующей записью результата на аналоговый носитель необходимо использовать MJPEG для захвата и обработки, а финальный продукт сжимать в MPEG2. В случае применения любого другого кодека перед сжатием необходимо произвести фильтрацию эффекта «расчески», чтобы избежать повышенного расхода битрейта. Для обработки чересстрочного видео фильтрами также необходимо предварительно разделять поля. Для этих целей можно использовать фильтр Deinterlace из поставки VirtualDUB в режиме Unfold Fields Side-by-Side. Впоследствии поля можно снова совместить с помощью этого же фильтра в режиме Fold Side-by-Side Fields Together.

 

Таблица качества видео по возрастанию

Просматривая фильмы в сети, можно увидеть множество различных аббревиатур в названиях. Многие просто не предают им значения, а зря. По этим аббревиатурам можно многое сказать о качестве картинки в фильме. Рассмотрим расшифровку этих надписей в порядке возрастания.

Низкое качество

CAMRip

CAMRip или Экранка – как ясно из названия, это видео снято обычной камерой с экрана в кинотеатре. Зачастую, изображение видеоряда в этом случае оставляет желать лучшего. При просмотре можно услышать смех и комментарии в зале, увидеть головы людей, который заходят в кинозал. Связно это с тем, что такое видео снимается в первые дни проката маленькой видеокамерой, установленной рядом с одним из зрителей. Чтобы было понятнее – сходите в кинотеатр и снимите видео на смартфон, и вы получите CamRIP.

TS

Следующим идет TS (TeleSync). Это такая же экранка, но принцип съемки немного другой. В этом случае картинка немного лучше, так как используется профессиональная цифровая камера, которая стоит в пустом зале. При этом звук пишут напрямую с транслирующего оборудования. Чаще всего используется звук стерео.

VHS-Rip

Видео VHS-Rip, как понятно из названия – записано с видеокассеты. Зачастую при просмотре видны артефакты, полосы, точки. Все зависит от сохранности кассеты, с которой делали рип.

WP

Качество WP встречается достаточно редко. Workprint – по сути, ворованная версия фильма, которая была украдена на киностудии. Это черновой вариант, который может отличаться от того, который будет показан на экранах. Тут присутствует таймер, который используется для монтажа видео и другие надписи.

Утечка материала может произойти не только на киностудии, бывает, что в сеть попадают копии фильмов, которые были предназначены критикам и другим людям, связанным с киноиндустрией.

SCR

Screener или SCR – рип с видеокассеты, предназначенной для просмотра критиками. Качество, чаще всего приличное, однако на видео присутствуют водяные знаки, титры и предупреждения о незаконности распространения материала.

DVDScr

Еще один вариант DVDScr – тоже самое, что и SCR, но распространяется на двд. Картинка может быть хорошей, но испорченной водяными знаками.

TC

Следующий формат – это TC или telecine, делается с киноленты. При этом используется профессиональное оборудование – фильм-сканер или пишется напрямую с проектора. Характеризуется хорошим звуком и качеством, хотя последнее во многом зависит от оборудования.

Среднее и хорошее качество

LDRip

LaserDisc-Rip или LDRip – сейчас практически не встречается. Это копия, сделанная с лазерного диска.

TV-Rip

Материал, записанный с телевизора называется TV-Rip. Картинка напрямую зависит от качества исходного материала, часто присутствуют логотипы телеканалов. Изображение уступает DVD Rip, хотя должно быть идентично.

Sat Rip, DVB Rip, DTV Rip

Сходные с TV Rip форматы:

  • Sat Rip – записан со спутника
  • DVB Rip – запись с цифрового ТВ
  • DTV Rip – цифровое IPTV

Качество, как и в предыдущем случае во многом зависит от исходного материала, с которого велась запись.

PDTV

Формат PDTV – переводится, как чистое цифровое телевидение (Pure Digital Television). Это нечто среднее между HDTV и обычным кабельным ТВ.

Для записи PDTVRip используют специальное оборудование или обычный тв-тюнер. Чаще всего присутствуют логотипы каналов, хотя и не всегда. Качество может посоперничать с DVD-Rip.

DVDRip

DVDRip – может похвастаться наилучшим качеством из вышеперечисленного. Это рип обычного DVD диска. Справедливости ради стоит заметить, что качество также будет зависеть от профессионализма рипующего. Звук может быть, как стерео, так и 5-6 канальным. Чаще всего размер стандартный – 2,18 ГБ, 1,46ГБ или 745 Мб.

DVD

DVD – полная цифровая копия диска. В настоящее время теряет свою популярность, и сдает позиции HD-DVD и Blu-Ray. В случае такого рипа делается копия структуры: AUDIO_TS для аудиодорожек и VIDEO_TS для видео. Существует несколько типов ДВД:

  • Однослойные:
    • DVD5 – 4.7 ГБ
    • DVD10 – двухсторонний DVD5
  • Двухслойные
    • DVD9 – 8,5 ГБ
    • DVD18 – двухсторонний DVD9

DVD Custom

Рип в формате DVD Custom – диск созданный самостоятельно. Такие диски создаются профессионалами и любителями, при этом никогда не издаются. Также сюда можно отнести DVD, которые были пересобраны: т.е. были удалены титры, бонусы или другие материалы с диска.

Отличное качество

HDRip

Качество HDRip – получается с любого исходника высокой четкости начиная от 720p. Сюда не входит рип с HDTV или с любого другого неизвестного источника. Картинка лучше, чем у DVDRip.

HDTVRip

Рип сделанный со спутниковой HDTV трансляции в формате HD называется HDTVRip

WEB-DLRip

Качество Web-DLRip получают путем сжатия WEB-DL для экономии места. Иногда видео пережато в FullHD и HD, но зачастую используют SD.

HD DVDRip

Как и предыдущий формат, HD DVDRip пережат из HDDVD, но качество SD встречается достаточно редко. Обычно используют HD 1080p и 720p.

BDRip

Такой формат получают, пережимая оригинал с BluRay или BDRemux. Обычно сжимают в HD, реже в SD. При этом качество немного хуже оригинала.

Наилучшее качество

HDTV

HDTV – худший из форматов высокой четкости. Как понятно из названия – это телевидение, транслируемое с высокой четкостью. Чаще всего страдает цветопередача и встречаются артефакты, обусловленные качеством передачи сигнала. Тем не менее HDTV может обеспечить лучшую, чем у DVD картинку.

WEB-DL

Формат WebDL транслируется через интернет, а также имеет лучшее качество, чем HDTV. При это отсутствуют значки и логотипы каналов. Есть один минус – такие трансляции чаще всего платные.

HD DVDRemux

Пересобирая в TS или MKV видео HDDVD без сжатия, получают  HD DVDRemux. Зачастую получаем видео отличного качество, но с вырезанными дополнительными материалами, субтитрами и др.

HD DVD

Редко используемый формат. Не выдержал конкуренцию с Blu-Ray. HD DVD подразумевает полную копию диска, с отличной картинкой 1920х1080.

BDRemux

Если пересобрать контейнер Blu-Ray в формат ts или mkv, то получится BDRemux. Идеальная картинка, без потери качества, но без дополнительных материалов с диска.

Blu-Ray Disc, BD

Диски Blu-Ray имеют повышенную плотность дорожек, что позволяет записывать на них видео высокой четкости FullHD 1080p. Формат подразумевает снятие полной копию такого диска.

Дополнительные обозначения

Кроме вышеперечисленных, есть еще несколько обозначений, которые не относятся к качеству изображения.

WS или WideScreen — дословно переводиться, как широкоэкранное видео.

LB или LetterBox — видео формата 4:3, в котором расположено широкоэкранное изображение.

FS или FullScreen — полноэкранное видео в формате 4:3.

Proper — изображение имеет лучшую картинку, чем предыдущее.

SiteRip — как понятно из названия, сюда можно отнести видео, скачанное с сайтов, зачастую платных.

Издание фильмов

Theatrical Cut, TC — версия для кинотеатров и трансляций.

Extended Cut, EC — видео с дополнительными сценами, которые были вырезаны для театральной версии (сцены насилия, 18+, и т.п.).

Director’s Cut, DC — эта версия позволяет увидеть всю задумку режиссера, поэтому и называется режиссерской версией. Тут могут быть изменены сцены из театральной версии, а также добавлены эпизоды, которые были убраны продюсерами, чтобы поднять рейтинги фильма.

Special Edition, SE — обычно похоже на подарочную версию. Специальное издание, которое может содержать бонусы, альтернативные концовки, материалы. Кроме этого сам диск может продаваться в специальной упаковке и с некоторыми аксессуарами

Читайте также:

Как выбрать веб-камеру | Веб-камеры | Блог

Основное назначение веб-камеры – передача изображения лица человека, находящегося перед ней, во время видеозвонка или видеоконференции.

Фантастические фильмы середины-конца прошлого века, изображающие технически развитое будущее, редко отказывались от возможности продемонстрировать зрителям работу компактного видеофона – удивительного коммуникационного устройства, которое мало того что не привязано проводами к стене, так еще и способно передавать изображение лица собеседника. «Фантастика!» — восхищенно-недоверчиво удивлялись зрители.

Фантастика стала реальностью так быстро, что мы этого даже не успели заметить. Возросшие пропускные способности Интернета, мобильные сети четвертого поколения и камеры в каждом телефоне превратили сказку вчерашнего дня в обыденность сегодняшнего. В общем-то, даже ненужную: большинство людей продолжают разговаривать по телефону с использованием только звуковой связи, вполне сознательно отказываясь от возможности видеть собеседника. Оказывается, никакой надобности в этом нет, да и просто неудобно.

Фронтальными камерами сейчас комплектуются практически все смартфоны, ноутбуки и планшеты. И хотя большинство владельцев этих гаджетов используют фронтальную камеру довольно редко, при необходимости показать свое лицо собеседнику сможет, пожалуй, каждый владелец смартфона.

Так зачем же может быть нужна еще и отдельная веб-камера?

— Мониторы стационарных компьютеров не комплектуются веб-камерами, а необходимость в её использовании во время работы за компьютером может возникнуть – например, при удаленной работе.

— Встроенные веб-камеры, особенно на старых и/или недорогих ноутбуках и планшетах, не отличаются качеством картинки и быстродействием: слайд-шоу из мутных изображений скорее разозлит собеседника, чем будет ему чем-то полезно.

— Авторам видеоблогов нужны качество и быстродействие, не обеспечиваемые практически никакими встроенными веб-камерами.

— А еще набор веб-камер и недорогой компьютер в руках умельца могут превратиться в систему видеонаблюдения с рекордно низкой ценой.

Устройство и виды веб-камер

Устроена веб-камера довольно просто: под оптической системой (состоящей на недорогих камерах из одной линзы) расположена светочувствительная матрица, преобразующая попадающее на нее изображение в последовательность электрических сигналов. Далее оцифрованное изображение попадает в схему цифровой обработки изображения, где приводится к нужному формату и сжимается – обычно методом MJPEG, в силу простоты его реализации. После этого оцифрованное изображение передается в компьютер.

В этом принципиальное отличие веб-камер от IP-камер: веб-камеры не производят подготовки и, тем более, записи видео – они лишь передают в компьютер последовательность кадров.

Несмотря на однотипное устройство, веб-камеры принято делить на два вида: бытовые и профессиональные. Основное их отличие – в разрешении матрицы и быстродействии электроники.

Возможностей бытовых веб-камер достаточно для общения по Skype или участия в вебинаре. Но для записи видеоблога или ведения видеоконференции скорости и разрешения бытовой камеры уже может не хватить.

Профессиональные видеокамеры, кроме высокого качества видеоизображения, часто предоставляют также некоторые дополнительные возможности:

— наличие качественного микрофона с шумоподавлением и стереозаписью;

— удаление или замещение фона при видеотрансляции;

— пульт ДУ с возможностью дистанционного изменения направления и зума камеры.

Характеристики веб-камер

Разрешение определяет деталировку и четкость картинки – чем разрешение выше, тем четче будет изображение и тем лучше на нем будут различимы мелкие детали.

При выборе веб-камеры этот параметр учитывается одним из первых, поэтому производители (особенно малоизвестные) часто идут на всякие ухищрения, пытаясь любой ценой указать на коробке большое разрешение, часто не имеющее ничего общего с реальностью.

Например, бывает так, что для камеры указано максимальное разрешение 2560×2048 пикселей (и обычно именно оно написано на коробке), при этом разрешение фото указано в 1280х1024 пикселя, разрешение видео 640х480, а единственный поддерживаемый режим – 640х480 @ 30 Гц. При этом число мегапикселей матрицы равно 0,3. Как со всем этим разобраться?

Во-первых, следует определить, какое физическое разрешение обеспечивается матрицей. Для этого нужно выяснить число мегапикселей камеры и воспользоваться таблицей:

Если приведенное для камеры разрешение намного больше, чем указанное в таблице максимальное разрешение для данного числа мегапикселей, то оно создано искусственно, путем программного увеличения (интерполяции) изображения со значительно меньшим разрешением. Какой-то четкости и деталировки от такого изображения ждать не стоит – максимальное качество изображения будет достигаться на том разрешении, которое обеспечивается матрицей.

Во-вторых, не меньшее влияние на качество изображения оказывает оптика камеры. Если для дешевой камеры с единственной линзой в качестве объектива указано количество мегапикселей 3 и больше, все равно не стоит ожидать от неё выдающегося качества изображения, даже если на ней действительно стоит трехмегапиксельная матрица.

В-третьих, следует выяснить, какова частота кадров при максимальном разрешении. Максимальная частота кадров, указанная производителем, обычно достигается при минимальном разрешении. А при максимальном разрешении видео запросто может превратиться в слайд-шоу.

Список поддерживаемых режимов может помочь выяснить частоту кадров при различных разрешениях. Если в этом списке интересующего вас разрешения нет вообще, скорее всего, частота в этом разрешении намного меньше 30 fps: изображение будет «подвисать» и дергаться.

Проще говоря, качественное четкое изображение высокого разрешения без рывков и размытий способны обеспечить только недешевые профессиональные веб-камеры с хорошей оптикой. Поэтому следует определиться, действительно ли нужно высокое разрешение и стоит ли оно тех затрат, которые придется понести для его получения.

Фокусировка отвечает за то, чтобы нужный объект (обычно – лицо находящегося перед камерой человека) был в фокусе, т.е. отображался четко и без «замыливаний». На веб-камерах используется 3 вида фокусировки:

Фиксированный фокус: самая простой вариант, при котором объектив сфокусирован так, что обеспечивается максимальная глубина резкости – все объекты, находящиеся на некотором расстоянии от объектива и дальше, выглядят четкими.

Преимуществами такого вида фокусировки являются простота конструкции, низкая цена и удобство использования – никаких действий по подстройке резкости совершать не надо.

Основной минус: такая фокусировка достигается только при малом отверстии диафрагмы, света через объектив проходит мало, что ведет к плохой светочувствительности такой камеры. Уже при обычном комнатном освещении у таких камер может появляться зернистость изображения и искажения цветов.

Ручная фокусировка предполагает ручное изменение фокусного расстояния линзы (обычно – вращением фокусировочного кольца объектива). Фокусное расстояние меняется с одновременным контролем изображения до тех пор, пока изображение объекта съемки не станет достаточно четким.

Плюсы такого варианта – малая сложность конструкции и низкая цена.

Минус – при изменении расстояния от объекта до камеры, резкость теряется. Впрочем, большинство веб-камер с ручной фокусировкой имеют довольно большую глубину резкости, и двигаться в пределах нескольких десятков сантиметров можно, не опасаясь превратиться в размытые пятно на экране собеседника. Но большая глубина резкости, опять же, связана с низкой светосилой.

Автофокусировка – наиболее «продвинутый» вариант фокусировки. Такая камера может иметь большую светосилу, что позволяет эксплуатировать её в условиях слабой освещенности и получать отличное изображение. Фокусировку камера производит сама – анализируя изображение на матрице и подстраивая фокусное расстояния с помощью исполнительного механизма.

В некоторых камерах с автофокусировкой есть функция слежения за лицом – при обработке изображения камера распознает на нем лицо (если оно там есть) и пытается изменить фокусное расстояние так, чтобы изображение этого лица было наиболее четким.

Подсветка может потребоваться на камерах с фиксированным фокусом, поскольку света монитора для получения приемлемого изображения на них может быть недостаточно. Но надеяться на то, что подсветка скомпенсирует низкую светосилу, не стоит – в условиях такого освещения изображение будет получаться слишком контрастным, с засветками на освещенных предметах и глубокими тенями за их пределами. Кроме того, работать перед камерой, светящей светодиодами в лицо, может быть некомфортно.

Встроенный микрофонупрощает настройку системы для общения, но следует быть осторожным при выборе недорогих камер, не имеющих функции шумоподавления. В этом случае микрофон ловит все посторонние шумы и общение с его помощью может оказаться некомфортным.

Тип подключения большинства веб-камер – проводной. Беспроводнойвариант подключения по Bluetooth применяется только на дорогих веб-камерах, предназначенных для видеоконференций. Проводной вариант подключения использует интерфейс USB. При выборе поддерживаемой версии USB имейте в виду, что пропускной способности USB 2.0 будет недостаточно для передачи 30 кадров в секунду с разрешением выше 1280х1024. Если вам требуется качественный видеосигнал с большим разрешением, выбирайте устройства, работающие по USB3.0 или USB 3.1.

Варианты выбора веб-камер

Чтобы оснастить свой стационарный компьютер камерой для связи с друзьями по Skype, возможностей недорогих камер будет достаточно.

Если на экране у собеседника вы хотите выглядеть презентабельно при любом освещении, выбирайте среди камер с автофокусом.

Если вы используете веб-камеру для записи видео в высоком разрешении, выбирайте среди камер с большим числом мегапикселей и большим разрешением видео.

Если вы не хотите возиться еще и с установкой дополнительного микрофона, выбирайте среди веб-камер со встроенным микрофоном. Только постарайтесь перед покупкой проверить качество звука, обеспечиваемое этим микрофоном – у недорогих моделей звук может быть слишком тихим.

Если вы используете веб-камеру в профессиональной деятельности и вам нужна идеальная «картинка» в высоком разрешении – выбирайте среди профессиональных камер.

Разрешение МРТ и качество изображения

Разрешение — это способность человеческого глаза отличать одну структуру от другой. В МРТ разрешение определяется количеством пикселей в заданном поле зрения. Чем выше разрешение изображения, тем точнее можно диагностировать небольшие патологии. Разрешение прямо пропорционально количеству пикселей (чем больше количество пикселей, тем выше разрешение). Размер пикселя можно рассчитать, разделив поле зрения на размер матрицы (например,g. FOV 320, матрица 320×320, размер пикселя = 320/320 = 1 мм). В МРТ используются два параметра разрешения для получения двухмерного изображения: базовое разрешение и фазовое разрешение.

Базовое разрешение
Базовое разрешение — это количество пикселей в направлении считывания. Базовое разрешение также определяет размер матрицы изображения. Базовое разрешение обратно пропорционально размеру пикселя и (чем ниже разрешение, тем больше размер пикселя).

SNR и базовое разрешение

Отношение сигнал / шум (SNR) обратно пропорционально базовому разрешению. Другими словами, SNR прямо пропорционален размеру пикселя. Увеличение базового разрешения приведет к уменьшению размера пикселя, следовательно, SNR изображения будет уменьшено.

Если мы сравним формат матрицы 256 x 256 и 128 x 128, размер пикселя матрицы 128 (2×2 мм) в четыре раза больше, чем матрица 256 (1×1 мм), но есть только шаги половинного кодирования фазы (строки в пространстве k) .Следовательно, SNR рассчитывается как 4 / √2 = 2,82

Увеличение базового разрешения повысит качество изображения. Увеличение разрешения больше допустимого диапазона приведет к зернистости изображения из-за низкого отношения сигнал / шум, а его уменьшение больше допустимого диапазона приведет к размытому изображению из-за высокого отношения сигнал / шум. Увеличение базового разрешения приведет к увеличению времени сканирования.

Как изменить зернистое изображение?

Уменьшите базовое разрешение на один или два шага.Уменьшение базового разрешения сократит время сканирования.


Увеличьте толщину срезов. Увеличит размер вокселя и SNR для изображения станет более плавным


Увеличить среднее значение (NSA). Увеличение NSA увеличит время сканирования.


Уменьшить пропускную способность.Уменьшение полосы пропускания увеличивает TR и TE, следовательно, увеличивает время сканирования.


Увеличить FOV. Увеличение FOV увеличивает размер пикселя и SNR, поэтому изображение становится более гладким.

Как управлять размытым изображением с низким разрешением?

Увеличьте базовое разрешение на один или два шага.Увеличение базового разрешения увеличивает время сканирования.

Уменьшить FOV. Уменьшение FOV уменьшает размер пикселя и SNR, поэтому изображение становится более резким.

SNR и базовое разрешение

Фазовое разрешение — это количество пикселей в фазовом направлении. Фазовое разрешение обычно выражается в процентах от основного разрешения.Уменьшение фазового разрешения приведет к увеличению размера пикселя в одном направлении и получению пикселя прямоугольной формы.

Уменьшение фазового разрешения приведет к снижению качества изображения и времени сканирования. Уменьшение фазового разрешения увеличит размер пикселя, поэтому отношение сигнал / шум значительно возрастет.

В дополнение к базовому разрешению качеством изображения можно управлять, изменяя фазовое разрешение.Аналогичное качество изображения можно получить от матриц 384х384 и 512х256.

Как мне узнать, сколько видеопамяти или памяти у моей видеокарты?

Обновлено: 30 декабря 2019 г., компания Computer Hope

Выделенные графические процессоры (графические процессоры) имеют RAM (оперативную память), используемую только видеокартой. Способ определения объема видеопамяти на карте зависит от используемой вами операционной системы.

Запись

Если у вас есть встроенная (встроенная) графика, например, предоставленная Intel, ваш компьютер не имеет выделенной видеопамяти. VRAM поставляется только с дискретным графическим процессором (отдельной видеокартой).

Windows 10

  1. Нажмите клавишу Windows, введите Параметры дисплея и нажмите Введите .
  2. В левой части экрана в разделе Система щелкните параметр Показать .

  1. Внизу страницы в разделе Несколько дисплеев щелкните Расширенные настройки дисплея .

  1. На следующем экране нажмите Свойства адаптера дисплея для дисплея 1 или адаптера, который вы хотите просмотреть.
  2. В появившемся окне на вкладке Адаптер VRAM вашей видеокарты отображается рядом с Выделенная видеопамять .

Окна 8

  1. Откройте панель управления.
  2. Выберите Дисплей .
  3. Выберите Разрешение экрана .
  4. Выберите Расширенные настройки .
  5. Щелкните вкладку Адаптер , если она еще не выбрана. Отображается объем общей доступной видеопамяти и выделенной видеопамяти , доступной в вашей системе.

Windows Vista и Windows 7

  1. Нажмите клавишу Windows, введите Панель управления , а затем нажмите Введите .
  2. В разделе Оформление и персонализация щелкните Настроить разрешение экрана .
  3. В середине правой части экрана щелкните Расширенные настройки .
  4. Должно появиться новое окно со свойствами вашего видеоадаптера, подобное изображенному ниже.
  5. Память вашей видеокарты отображается на вкладке Адаптер рядом с записью Dedicated Video Memory (показано ниже).

Windows XP

  1. Щелкните рабочий стол правой кнопкой мыши и выберите Свойства .
  2. Щелкните вкладку Настройки .
  3. Нажмите кнопку Advanced .
  4. Щелкните вкладку Адаптер .
  5. Память вашего графического процессора отображается рядом с записью Размер памяти в разделе Информация об адаптере .

macOS X

  1. В меню Apple в верхнем левом углу экрана выберите Об этом Mac .
  2. В информационной строке Graphics вы видите подробную информацию о вашем графическом оборудовании, включая объем видеопамяти.

Linux

В системе Linux вы можете увидеть особенности вашего графического оборудования с помощью утилиты командной строки lspci . Выполните следующие действия, чтобы узнать, сколько у вас видеопамяти.

  1. Сначала запустите lspci без параметров для вывода информации обо всех ваших устройствах PCI. Линия, которую вы ищете, имеет маркировку VGA-совместимый контроллер .

  2. Обратите внимание на число в начале этой строки.Этот номер является идентификатором домена для этого устройства PCI, и мы используем его на следующем шаге, чтобы получить более подробную информацию. В этом примере идентификационный номер нашего VGA-контроллера — 00: 02.0 .
  3. Снова запустите lspci с параметрами -v -s domain-id . -v указывает, что нам нужна подробная (подробная) информация, а -s указывает, что нам нужна информация только о номере устройства , идентификатор домена . В нашем примере идентификатор домена 00:02.0 , поэтому мы запускаем команду lspci -v -s 00: 02.0 , чтобы получить более подробную информацию.

    Результат команды выглядит как на снимке экрана ниже. Строка, которую вы ищете, — это предварительно загружаемая память , видеопамять.

    В этом примере имеется 256 МБ видеопамяти.

Windows и Android, используя утилиту CPU-Z

CPU-Z — бесплатная утилита для Windows и Android, которая предоставляет подробную информацию о системе, включая объем видеопамяти.Выполните следующие действия, чтобы определить, какой объем видеопамяти у вашего видеоадаптера.

  1. Загрузите и установите CPU-Z
  2. Откройте CPU-Z.
  3. Щелкните вкладку Графика .
  4. Найдите раздел Память . Объем видеопамяти отображается рядом с полем Размер , как показано на изображении ниже.

Как уменьшить размер видеофайлов и какое программное обеспечение использовать

Узнайте, почему размеры видеофайлов становятся такими большими, и узнайте, какое программное обеспечение можно использовать для их уменьшения.Давайте обсудим сжатие, скорость передачи данных и многое другое.

Если вам когда-либо приходилось загружать видео в Интернете, вы знаете, что размеры видеофайлов могут сильно различаться. И во многих случаях не сразу понятно, почему это так. Давайте начнем с изучения того, почему размеры видеофайлов такие большие, а затем мы рассмотрим шаги по уменьшению размера файла (даже с помощью бесплатных приложений!).


Почему размеры видеофайлов такие большие?

Итак, допустим, вы только что экспортировали новое видео для YouTube и обнаружили, что экспортированное видео имеет размер 20 ГБ! (Не совсем быстрая загрузка.) Очевидно, что большинство людей не собираются загружать видео размером 20 ГБ, так что же здесь происходит?

Основным фактором, влияющим на размер видеофайла, является скорость передачи данных, с которой оно закодировано. Битрейт — это объем данных, которые видео использует в секунду при воспроизведении. Битрейт устанавливается во время процесса экспорта, и, в большинстве случаев, более высокий битрейт приводит к более высокому качеству видео, но стоимость — больший размер файла.

Кодек H.264 идеально подходит для редактирования видео.

Выбранный вами видеокодек также важен.Кодек — это тип сжатия, применяемый к вашему видео во время экспорта. Некоторые кодеки идеально подходят для редактирования или финализации вашего видео, например Apple ProRes, а другие идеально подходят для загрузки в Интернет, например H.264.

Когда вы планируете загрузить видео в Интернете, вы, вероятно, не хотите, чтобы на загрузку у вас ушел целый день. Так что вы, скорее всего, выберете кодек, например H.264, в сочетании со средней или меньшей скоростью передачи данных.


Почему сжатие видео отличается от сжатия изображения?

Если вы когда-либо сжимали изображение JPEG в Photoshop, то знаете, что этот процесс довольно прост.Вы просто перемещаете ползунок Quality на меньшее значение при сохранении изображения. Итак, чем же отличается видео? Короткий ответ: с видео происходит гораздо больше. Это имеет смысл, если подумать обо всем, что связано с видеофайлом: частота кадров, битрейт, кодеки, разрешение, аудио и файловые контейнеры.

Некоторые программы экспорта видео значительно упрощают этот процесс, что отлично подходит для людей, не знакомых с подробностями сжатия видео. Но, как правило, когда дело доходит до видео, существует слишком много факторов для создания универсального слайдера.


Какое решение для небольших видео?

Как упоминалось ранее, лучшим решением для видео меньшего размера является выбор кодека, который идеально подходит для потоковой передачи в Интернете, в сочетании со средней или низкой скоростью передачи данных. Обычно обозначается как Мбит / с для мегабит в секунду.

Если все это немного сбивает с толку, на YouTube есть справочная страница с рекомендуемыми настройками загрузки. Там вы можете найти конкретные характеристики, которые они рекомендуют, например использование H.264 для видеокодека.У них также есть рекомендации по скорости передачи данных. YouTube предлагает битрейт от 35 до 45 Мбит / с для большинства видео 4K и от 8 до 12 Мбит / с для HD-видео 1080p.

Вот рекомендуемые настройки скорости передачи данных YouTube.

На самом деле вы можете получить больше от ваших видеофайлов с более низкой скоростью передачи, если вы также измените другие настройки. Примером может служить видео 720p со скоростью 8 Мбит / с по сравнению с видео 1080p HD со скоростью 8 Мбит / с. Оба видео имеют одинаковую скорость передачи данных, но 720p не обязательно должно обеспечивать такое разрешение.В результате он, скорее всего, будет выглядеть менее сжатым в целом.

Частота кадров также играет большую роль, потому что скорость передачи данных — это, по сути, используемые «данные в секунду». Это нужно учитывать, когда у вас есть видео со скоростью 30 кадров в секунду по сравнению с видео, которое может иметь 60 кадров в секунду. Видео со скоростью 30 кадров в секунду не должно сильно увеличивать битрейт, потому что кадров в секунду меньше!


Инструменты для уменьшения размера видеофайла

Давайте рассмотрим, как сжать видеофайл с помощью двух самых популярных кодировщиков — Adobe Media Encoder и HandBrake.Adobe Media Encoder включен в подписку Adobe Creative Cloud. Кроме того, HandBrake — это бесплатный видеокодер с открытым исходным кодом.


Как уменьшить размер видеофайла с помощью Adobe Media Encoder

Сначала запустите приложение Media Encoder , затем щелкните значок + , чтобы добавить желаемое видео в очередь.

Запустите приложение Media Encoder , затем щелкните значок + .

Затем на вкладке Формат выберите H.264 .

На вкладке Формат выберите H.264 .

На вкладке Preset выберите Match Source — High bit-rate или Match Source — Medium bitrate , в зависимости от того, сколько сжатия вам нужно.

На вкладке Preset выберите нужный тип сжатия.

Эти предустановки хороши тем, что они автоматически соответствуют всем настройкам исходного видео, таким как разрешение и частота кадров.

Если вы хотите настроить параметры экспорта для чего-то особенного, просто щелкните на имени предустановки, которое выделено синим цветом. Затем Media Encoder откроет настройки Export , в которых вы можете настроить многие другие параметры.

Настройте другие параметры в настройках Экспорт .

Затем просто установите имя и расположение выходного файла , затем щелкните зеленый play кнопку значок, чтобы запустить кодировщик.

Задайте имя и расположение выходного файла , затем щелкните значок play .

Как уменьшить размер видеофайла с помощью HandBrake

Как уже упоминалось, HandBrake — это бесплатный видеокодер с открытым исходным кодом, доступный для ПК, Mac и Linux. Кодировщик HandBrake H.264, называемый x264, невероятно эффективен, когда дело доходит до сжатия, и в результате размеры файлов могут быть шокирующе маленькими.

Сначала запустите HandBrake , затем перетащите видеофайл, который вы хотите сжать, в приложение.

Запустите Handbrake , затем перетащите видеофайл, который вы хотите сжать.

Оттуда перейдите к Presets в правой части приложения. В разделе General выберите предустановку Fast 1080p 30 . Этот пресет — отличная отправная точка.

В разделе Общие выберите предустановку Fast 1080p 30 .

Затем перейдите на вкладку Video и внесите необходимые изменения.Я рекомендую установить частоту кадров Same as Source и проверить Constant Framerate .

Внесите любые изменения на вкладке Видео .

Вы можете еще больше оптимизировать видео, установив скорость Encoder Preset на более низкую скорость. Это означает, что кодирование видео займет больше времени, но экспортированное видео будет сжиматься еще более эффективно, что приведет к еще меньшему размеру файла.

Чтобы еще больше оптимизировать видео, установите для параметра Encoder Preset более низкую скорость.

Ниже Качество , HandBrake рекомендует значение от 20 до 23 для HD-видео, а более низкие значения соответствуют высокому качеству.

В разделе Качество установите значение где-то между 20 и 23 .

Хотя это не обязательно, я рекомендую изменить битрейт Audio с 160 на 320, в настройках вкладки Audio .

На вкладке Audio измените битрейт аудио с 160 на 320 .

Наконец, просто укажите место назначения и имя файла, затем нажмите кнопку Start Encode . Это оно!

Задайте место назначения и имя файла, затем щелкните Начать кодирование .

Теперь, когда вы узнали, как уменьшить размер видео с помощью сжатия, ознакомьтесь с нашим руководством Shutterstock с советами по уменьшению видимого сжатия при загрузке видео.


Вот что еще вам нужно знать о размерах файлов изображений и видео:

Как увеличить выделенную видеопамять (VRAM) в Windows 10

Видите ошибки, связанные с выделенной видеопамятью на вашем ПК с Windows? Пытаетесь запустить программы с интенсивным использованием графики, такие как видеоредакторы и новые видеоигры? Вам может потребоваться больше видеопамяти (VRAM).

Но что это вообще такое и как увеличить объем видеопамяти? Прочтите все, что вам нужно знать о видеопамяти.

Что такое выделенная видеопамять?

Видеопамять (или VRAM, произносится как «VEE-ram») — это особый тип ОЗУ, который работает с графическим процессором вашего компьютера или графическим процессором.

Графический процессор — это микросхема видеокарты (или видеокарты) вашего компьютера, которая отвечает за отображение изображений на экране.Хотя технически некорректно, термины GPU и видеокарта часто используются как синонимы.

Ваша видеопамять содержит информацию, необходимую графическому процессору, в том числе игровые текстуры и световые эффекты.Это позволяет графическому процессору быстро получать доступ к информации и выводить видео на ваш монитор.

Использование видеопамяти для этой задачи намного быстрее, чем использование оперативной памяти вашей системы, потому что видеопамять находится рядом с графическим процессором на видеокарте.VRAM создана для этой высокоинтенсивной цели и, следовательно, «выделена».

Как проверить свою VRAM

Вы можете легко просмотреть объем видеопамяти в Windows 10, выполнив следующие действия:

  1. Откройте меню Settings , нажав Windows Key + I .
  2. Выберите запись System , затем щелкните Display на левой боковой панели.
  3. Прокрутите вниз и щелкните текст Advanced display settings .
  4. В появившемся меню выберите монитор, настройки которого вы хотите просмотреть (при необходимости). Затем щелкните текст Свойства адаптера дисплея внизу.
  5. В новом окне вы увидите текущую видеопамять, указанную рядом с Выделенная видеопамять .

В разделе Тип адаптера вы увидите имя вашей видеокарты Nvidia или AMD , в зависимости от того, какое у вас устройство. Если вы видите AMD Accelerated Processing Unit или Intel HD Graphics (что более вероятно), вы используете встроенную графику.

Как увеличить VRAM

Лучший способ увеличить объем видеопамяти — приобрести видеокарту.Если вы используете интегрированную графику и страдаете от плохой производительности, переход на выделенную карту (даже на высокобюджетную видеокарту) творит чудеса с вашим видеовыходом.

Однако, если это не вариант для вас (например, на ноутбуках), вы можете увеличить выделенную VRAM двумя способами.

Увеличение VRAM в BIOS

Первый — это настройка распределения VRAM в BIOS вашего компьютера.Войдите в свой BIOS и найдите в меню пункт Advanced Features , Advanced Chipset Features или аналогичный. Внутри найдите дополнительную категорию, которая называется Graphics Settings , Video Settings или Размер общей памяти VGA .

В них должна быть возможность настроить объем памяти, выделяемой графическому процессору.По умолчанию обычно 128 МБ ; попробуйте увеличить это значение до 256 МБ или 512 МБ , если у вас достаточно свободного места.

Однако не каждый процессор или BIOS имеет такую ​​возможность.Если вы не можете его изменить, существует обходной путь, который может вам помочь.

Подделка увеличения VRAM

Поскольку большинство интегрированных графических решений автоматически адаптируются к использованию необходимого объема системной оперативной памяти, сведения, представленные в окне Adapter Properties , не имеют особого значения.Фактически, для встроенной графики значение Dedicated Video Memory полностью вымышлено. Система сообщает это фиктивное значение просто для того, чтобы игры что-то видели, когда проверяют, сколько у вас VRAM.

Таким образом, вы можете изменить значение реестра, чтобы изменить объем VRAM, который ваша система сообщает играм.На самом деле это не увеличивает вашу VRAM; он просто изменяет это фиктивное значение. Если игра отказывается запускаться из-за «недостатка VRAM», повышение этого значения может исправить это.

Откройте окно редактора реестра, набрав regedit в меню «Пуск».Помните, что вы можете испортить свою систему в реестре, так что будьте осторожны, пока находитесь здесь.

Отправляйтесь в следующую локацию:

  HKEY_LOCAL_MACHINE \ Программное обеспечение \ Intel 

Щелкните правой кнопкой мыши папку Intel на левой боковой панели и выберите New> Key .Назовите этот ключ GMM . После того, как вы сделали это, выберите новую папку GMM слева и щелкните правой кнопкой мыши внутри правой стороны.

Выберите New> DWORD (32-bit) Value .Назовите этот DedicatedSegmentSize и присвойте ему значение, не забудьте выбрать опцию Decimal . В мегабайтах минимальное значение составляет 0 (отключение записи), а максимальное — 512 . Установите это значение, перезагрузите компьютер и посмотрите, поможет ли это запустить игру.

Эти методы не гарантируют работу, но их все же стоит попробовать, если у вас возникнут проблемы.Если у вас мало системной ОЗУ и возникают проблемы с запуском игр со встроенной графикой, попробуйте добавить дополнительную оперативную память для использования встроенной графики. Как и большинство задач, это обычно практически невозможно обновить на ноутбуке и просто на настольном компьютере.

Для каких задач требуется видеопамять?

Прежде чем говорить о конкретных цифрах, следует упомянуть, какие аспекты игр и других приложений с интенсивной графикой используют больше всего видеопамяти.

Большим фактором потребления VRAM является разрешение вашего монитора.Видеопамять хранит буфер кадра, в котором хранится изображение до и во время отображения его на экране графическим процессором. Лучшие дисплеи (например, игры 4K) используют больше VRAM, потому что изображения с более высоким разрешением требуют для отображения больше пикселей.

Помимо вашего дисплея, текстуры в игре могут существенно повлиять на то, сколько вам нужно VRAM.Большинство современных игр для ПК позволяют точно настроить графические параметры для повышения производительности или качества изображения.

Возможно, вы сможете сыграть в игру, сделанную несколько лет назад, с настройками Low или Medium с более дешевой картой (или даже со встроенной графикой).Но High или Ultra качества или пользовательские моды, которые делают текстуры в игре даже лучше, чем обычно, потребуют много оперативной памяти.

Функции украшения, такие как сглаживание (сглаживание неровных краев), также используют больше VRAM из-за дополнительных пикселей.Если вы играете сразу на двух мониторах, это еще более интенсивно.

Для определенных игр также может потребоваться разное количество видеопамяти.Такая игра, как Overwatch, не слишком требовательна к графике, но игра с множеством продвинутых световых эффектов и детализированных текстур, такая как Shadow of the Tomb Raider, требует больше ресурсов.

И наоборот, дешевой карты с 2 ГБ видеопамяти (или встроенной графикой) достаточно для игры в старые шутеры для ПК.В то время игры не имели в своем распоряжении почти 2 ГБ видеопамяти.

Скорость эмуляции PS2, похоже, действительно зависит от графического процессора.Если у вас есть встроенная графика, возможно, вы захотите купить дешевую видеокарту.

— setz (@splixel) 3 мая 2017 г.

Даже если вы не интересуетесь играми, для некоторых популярных программ также требуется изрядное количество видеопамяти.Программное обеспечение для 3D-дизайна, такое как AutoCAD, особенно интенсивное редактирование в Photoshop и редактирование высококачественного видео, пострадает, если у вас недостаточно видеопамяти.

Сколько VRAM мне нужно?

Понятно, что не существует идеального количества VRAM для всех.Тем не менее, мы можем предоставить несколько основных рекомендаций о том, сколько VRAM вы должны стремиться к видеокарте.

1-2 ГБ видеопамяти: Эти карты обычно стоят менее 100 долларов.Они предлагают лучшую производительность, чем встроенная графика, но не могут обрабатывать большинство современных игр с настройками выше среднего. Покупайте карту с таким объемом VRAM, только если вы хотите играть в старые игры, которые не работают со встроенной графикой. Не рекомендуется для редактирования видео или работы с 3D.

3–6 ГБ видеопамяти: Эти карты среднего уровня подходят для умеренных игр или несколько интенсивного редактирования видео.Вы не сможете использовать безумные пакеты текстур, но можете рассчитывать, что сможете играть в современные игры с разрешением 1080p без особых проблем. Получите карту на 4 ГБ, если у вас мало денег, но 6 ГБ — более надежный вариант, если вы можете сэкономить.

8 ГБ видеопамяти и выше: Видеокарты высокого класса с таким объемом оперативной памяти предназначены для серьезных геймеров.Если вы хотите играть в новейшие игры с разрешением 4K, вам понадобится карта с большим количеством VRAM.

Тем не менее, вы должны отнестись к приведенным выше обобщениям с недоверием .Производители видеокарт добавляют к карте соответствующее количество видеопамяти в зависимости от мощности графического процессора.

Таким образом, дешевая видеокарта за 75 долларов будет иметь небольшой объем видеопамяти, а видеокарта за 500 долларов — намного больше.Если слабый графический процессор недостаточно мощный для рендеринга видео, для хранения которого требуется 8 ГБ видеопамяти, то иметь такое количество видеопамяти на карте — пустая трата.

VRAM не волнует крайностей.Вам не нужна первоклассная карта за 800 долларов с 12 ГБ видеопамяти, чтобы играть в инди-платформеры в 2D. На самом деле вам нужно только беспокоиться о том, сколько VRAM нужно получить, когда карта, которую вы хотите купить, доступна в нескольких вариантах VRAM.

Общие проблемы с видеопамятью

Помните, что, как и обычная RAM, больше VRAM не всегда означает лучшую производительность.Если ваша карта имеет 4 ГБ видеопамяти, а вы играете в игру, в которой используется только 2 ГБ, обновление до карты на 8 ГБ не сделает ничего заметного.

И наоборот, нехватка VRAM — огромная проблема.Если VRAM переполняется, системе придется полагаться на стандартную RAM, и производительность пострадает. Вы будете страдать от более низкой частоты кадров, всплывающих окон текстур и других побочных эффектов. В крайних случаях игра может замедлиться до ползания и стать неиграбельной (все, что ниже 30 кадров в секунду).

Помните, что видеопамять — это только один из факторов производительности.Если у вас нет достаточно мощного процессора, рендеринг HD-видео займет вечность. Отсутствие системной оперативной памяти не позволяет запускать сразу несколько программ, а использование механического жесткого диска также серьезно ограничивает производительность вашей системы. А некоторые более дешевые видеокарты могли использовать медленную DDR3 VRAM, которая уступает DDR5.

Лучший способ узнать, какая видеокарта и объем видеопамяти подходят вам, — это поговорить со знающим человеком.Спросите друга, который знает о новейших видеокартах, или опубликуйте сообщение на форуме, таком как Reddit или Tom’s Hardware, с вопросом, подойдет ли конкретная карта для ваших нужд.

Чем отличается интегрированная графика?

До сих пор наше обсуждение предполагало, что у вас есть выделенная видеокарта на вашем ПК.У большинства людей, которые собирают свой собственный компьютер или покупают готовый игровой ПК, есть настольный компьютер с видеокартой. Некоторые более мощные ноутбуки даже включают видеокарту.

Но на бюджетных настольных компьютерах или стандартных ноутбуках видеокарты отсутствуют — вместо них используется встроенная графика.

Интегрированное графическое решение означает, что графический процессор находится на том же кристалле, что и ЦП, и использует обычную системную оперативную память вместо использования собственной выделенной видеопамяти.Это экономичное решение, которое позволяет ноутбукам выводить базовую графику без необходимости использования места и энергозатратной видеокарты. Но интегрированная графика плохая для игр и задач с большим количеством графики.

Насколько мощна ваша интегрированная графика, зависит от вашего процессора.Новые процессоры Intel с Intel Iris Plus Graphics более мощные, чем их более дешевые и старые аналоги, но все же бледнеют по сравнению с выделенной графикой.

Если вашему компьютеру не более нескольких лет, у вас не должно возникнуть проблем с просмотром видео, играми с низкой интенсивностью и работой в базовых приложениях для редактирования фотографий и видео со встроенной графикой.Однако играть в новейшие графически впечатляющие игры со встроенной графикой практически невозможно.

Теперь вы понимаете, видео RAM

Теперь вы знаете, что такое видеопамять, сколько вам нужно и как ее увеличить.В конце концов, помните, что видеопамять — это небольшой аспект общей производительности вашего компьютера. Слабый графический процессор не будет работать даже с большим количеством видеопамяти.

Так что, если вы хотите повысить игровую и графическую производительность, вам, вероятно, сначала потребуется обновить видеокарту, процессор и / или оперативную память — видеопамять разберется сама.

После того, как вы исправите проблемы с видеопамятью, попробуйте другие способы оптимизации Windows 10 для игр.

Pornhub удалил все непроверенные видео, загруженные пользователями

Миллионы видео были удалены из Pornhub после изменения, запрещающего непроверенным пользователям загружать видео.

Об авторе Бен Штегнер (Опубликовано 1600 статей)

Бен — заместитель редактора и менеджер по адаптации в MakeUseOf.Он оставил свою работу в сфере ИТ, чтобы писать полный рабочий день в 2016 году, и никогда не оглядывался назад. В качестве профессионального писателя он освещал технические руководства, рекомендации по видеоиграм и многое другое уже более шести лет.

Ещё от Ben Stegner
Подпишитесь на нашу рассылку новостей

Подпишитесь на нашу рассылку, чтобы получать технические советы, обзоры, бесплатные электронные книги и эксклюзивные предложения!

Еще один шаг…!

Подтвердите свой адрес электронной почты в только что отправленном вам электронном письме.

Качество изображения КТ


Качество изображения в основном определяется тремя факторами:

  • Разрешение
  • Шум
  • Контраст

Разрешение

Разрешение — это мера того, насколько далеко должны быть друг от друга два объекта, чтобы их можно было увидеть как отдельные детали на изображении. Чтобы два объекта можно было рассматривать как отдельные, детекторы должны уметь определять зазор между ними.

Разрешение измеряется в парах линий на сантиметр (lp / cm), то есть количестве пар линий, которые могут быть отображены как отдельные структуры в пределах одного сантиметра.

В КТ-сканировании есть два типа разрешения:

  • Трансаксиальное разрешение (7 линий / см)
    • В осевом направлении поперек пациента
  • Чувствительность по оси Z (0,5 — 10 мм)
    • По длине пациента в направлении z

Трансаксиальное разрешение

Минимальное трансаксиальное разрешение определяется фактическим размером детектора, однако его часто называют «эффективной шириной детектора» в изоцентре сканера (центр отверстия сканера).«Эффективная ширина детектора» и фактический размер детектора немного отличаются из-за расходимости луча. Чем меньше «эффективная ширина детектора», тем выше разрешение.

На трансаксиальное разрешение влияют факторы сканера (оборудования) или параметры сканирования и реконструкции.

Факторы сканера
1. Фокусное пятно
  • Размер
    • Меньшие фокусные пятна дают более высокое разрешение, но максимальный ток ограничен во избежание повреждения анода.
    • Обычно на КТ-сканерах доступны два размера фокусного пятна, например:
      • Fine = 0,7 мм
      • Широкий = 1,2 мм
  • Свойства
    • Летающее фокусное пятно: положение фокусного пятна быстро изменяется в трансаксиальной плоскости и / или по оси Z. Каждое положение фокусного пятна увеличивает количество снимаемых проекций и улучшает пространственное разрешение. Например, если положение фокального пятна перемещается в плоскости X-Y, разрешение в плоскости увеличивается.
    • Расстояние фокус-детектор (FDD)
    • Расстояние фокус-изоцентр (FID)
2. Размер детектора

Детекторы меньшего размера дают более высокое разрешение, но большее количество детекторов в пределах области также означает больше разделов (мертвое пространство) и снижает общую эффективность обнаружения.

3. Конструктивные характеристики детектора

Смещение детектора на четверть луча: центр матрицы детекторов смещен от центра вращения на одну четверть ширины отдельного детектора.Когда гентри поворачивается на 180 °, центр матрицы детекторов теперь смещается на половину ширины детектора, что дает чередующийся отбор проб пациента.

Параметры сканирования
1. Количество выступов
  • Чем больше количество проекций, тем выше разрешение (до точки).
2. Реконструкция фильтра
  • Более высокое разрешение или «острые» ядра (например,г. реконструкция кости) имеют лучшее пространственное разрешение, чем мягкие ядра (например, реконструкция мягких тканей).
  • Однако ядра с более высоким разрешением не усредняют сигналы с высокой пространственной частотой и, следовательно, производят больше шума.
3. Размер пикселя
  • Размер пикселя (d) в мм определяется уравнением:

d = FOV / n

где:

FOV = поле зрения (мм)
n = размер матрицы изображения

  • Наивысшая пространственная частота, которую можно получить (fmax), называется пределом Найквиста и определяется по формуле:

fмакс = 1 / 2d

  • Из этого уравнения видно, что чем больше размер пикселя, тем ниже максимальная пространственная частота.
  • Для улучшения пространственной частоты мы можем:
    • Уменьшите поле зрения (меньшее поле зрения = меньший размер пикселя, как показано в первом уравнении). Мы можем сделать это ретроспективно путем целенаправленной реконструкции исходных данных в небольшом поле зрения.
    • Увеличьте размер матрицы (больше n = маленький размер пикселя, как показано в первом уравнении)

Z-чувствительность

Z-чувствительность относится к эффективной ширине отображаемого среза.

Факторы, влияющие на z-чувствительность

1. Толщина среза детектора
  • Чем шире (по оси Z) ряд детектора, тем ниже разрешение
2. Перекрывающиеся образцы
  • Получение данных с использованием перекрывающихся срезов может улучшить Z-чувствительность. Это достигается за счет использования малого шага спирали, т.е. шага <1.
3. Фокусное пятно
  • Тонкое фокусное пятно улучшает z-чувствительность
Важность толщины среза
1.Шум
  • Чем тоньше срез, тем лучше разрешение, НО тем хуже шум
2. Эффект частичного объема
  • Более толстые срезы увеличивают эффект частичного объема
3. Изотропное сканирование
  • Тонкие срезы допускают изотропное сканирование, то есть пиксели по оси и оси z имеют одинаковый размер (кубы). Преимущества этого:
    • Эффект уменьшения частичного объема
    • Улучшенное многоплоскостное переформатирование
    • Улучшенный объемный рендеринг e.г. отображение трехмерных представлений данных (например, изображений сердца, сосудов, КТ-колонографии и т. д.)

Сейчас в мягкой обложке и на Kindle.
Написано радиологами для радиологов с множеством простых и понятных диаграмм, поясняющих сложные концепции. Отличный ресурс для пересмотра физики радиологии.

Примечание. Доступно не во всех регионах.


Примечание. Доступно не во всех регионах.


Шум

Даже если мы визуализируем идеально однородный объект (например, объект, заполненный водой), в единицах Хаунсфилда все равно есть разброс среднего значения. Это из-за шума. Шум ухудшает качество изображения, ухудшая низкое контрастное разрешение и внося неопределенность в единицы Хаунсфилда изображений.

Мы можем измерить шум в любой однородной области изображения, например. с водяным фантомом. Стандартное отклонение единиц Хаунсфилда в выбранной интересующей области дает среднее значение шума.

Есть три источника шума:

  1. Квантовый шум
  2. Электронный шум
  3. Шум, вносимый процессом реконструкции, например, обратная проекция.
Стохастический шум

Это основной источник шума на изображении. Регистрация фотонов детекторами — случайный процесс. Количество обнаруженных фотонов будет случайным образом варьироваться от среднего значения, и это изменение является шумом.Шум на окончательном изображении определяется как:

Шум (стандартное отклонение) ∝ 1 / √ (количество фотонов)

Из этого уравнения мы можем сказать, что увеличение количества фотонов уменьшает количество шума и, следовательно, все, что увеличивает количество фотонов (увеличивает поток фотонов), уменьшает шум. Если мы удвоим количество фотонов, мы уменьшим шум на √2 (т.е. увеличение количества фотонов в 4 раза уменьшит шум вдвое).

Удвоить количество фотонов можно:

  • Удвоение тока трубки (мА)
  • Удвоение времени вращения (с)
  • Увеличение толщины ломтика вдвое (мм)

Увеличение напряжения трубки (кВ) также увеличивает поток фотонов, но он не является прямо пропорциональным (выходная мощность составляет примерно кВ 2 ).


Контраст

Факторов, влияющих на контраст:

  • Шум: более высокий уровень шума скрывает любой контраст между объектами
  • Ток трубки: более высокий ток трубки снижает шум на изображении
  • Собственные свойства ткани: разница в линейном коэффициенте ослабления соседних отображаемых объектов будет определять контраст между этими объектами
  • Киловольт в луче: Чем выше энергия луча, тем меньше контраст между объектами
  • Использование контрастного вещества

Σ Резюме

Разрешение

Трансаксиальное разрешение

  • Факторы сканера
    • Размер фокусного пятна
    • Летающее фокусное пятно
    • Расстояние до детектора фокусировки
    • Изоцентровое расстояние фокусировки
    • Размер детектора
    • Смещение детектора квартала
  • Параметры сканирования
    • Количество выступов
    • Реконструкция фильтра
    • Размер пикселя (d, мм), определяемый как d = FOV / n (FOV = поле зрения, n = размер матрицы изображения)
    • Наивысшая пространственная частота (fmax) = 1 / 2d
  • Не влияет:
    • Ток в трубке
    • Трубка киловольт

Z-чувствительность

  • Равная эффективная толщина среза
  • Затронуты:
    • Толщина среза детектора
    • Перекрывающиеся образцы
    • Размер фокусного пятна
  • Важность
    • Чем меньше срез, тем больше шум
    • Чем меньше размер среза, тем меньше артефакт частичного объема
    • Изотропное сканирование обеспечивает лучшую 3D-реконструкцию и MPR
Шум

Квантовый шум

  • Доминирующий источник шума
  • Шум ∝ 1 / √no.фотонов
  • Удвоение количества фотонов уменьшит шум в √2 раз
  • Удвоение количества фотонов за счет:
    • Ток двойной трубки (мА)
    • Время удвоения вращения (с)
    • Толщина двойного ломтика (мм)
  • Увеличение напряжения трубки (кВ) также увеличивает поток фотонов, но он не прямо пропорционален

Прочие:

  • Электронный шум в системе обнаружения
  • Шум, вносимый реконструкцией e.г. обратная проекция
Контраст

Пострадало:

  • Шум: выше шум = хуже дифференциация контрастности
  • Ток в лампе: меньший ток в лампе = больше шума (см. Выше)
  • Собственные свойства ткани: разница в линейном коэффициенте аттенюации соседних изображаемых объектов определяет контраст
  • Киловольт в луче: более высокая энергия луча обычно снижает контраст
  • Использование контрастного вещества: увеличивает контраст между объектами e.г. кровеносные сосуды и окружающие ткани
Следующая страница: Артефакты КТ
Обнаружение жизни

с помощью OpenCV — PyImageSearch

Щелкните здесь, чтобы загрузить исходный код этого сообщения

В этом руководстве вы узнаете, как выполнять определение живучести с OpenCV. Вы создадите детектор живости, способный обнаруживать поддельные лица и выполнять анти-спуфинг в системах распознавания лиц.

За последний год я написал несколько руководств по распознаванию лиц, в том числе:

Тем не менее, общий вопрос, который мне задают по электронной почте и в комментариях к сообщениям о распознавании лиц:

Как отличить реальные лица от поддельных и лиц?

Подумайте, что произойдет, если нечестивый пользователь попытается намеренно обойти вашу систему распознавания лиц .

Такой пользователь может попытаться показать фотографию другого человека. Может быть, у них даже есть фото или видео на своем смартфоне, которые они могли бы поднести к камере , отвечающей за распознавание лиц (например, на изображении вверху этого поста).

В этих ситуациях вполне возможно, что лицо, поднесенное к камере, будет правильно распознано… но в конечном итоге это приведет к тому, что неавторизованный пользователь обойдет вашу систему распознавания лиц!

Как бы вы могли отличить эти «поддельные» от «настоящих / настоящих» лиц? Как вы могли бы применить алгоритмы защиты от спуфинга в своих приложениях для распознавания лиц?

Ответ заключается в применении обнаружения живучести с OpenCV, о чем я и расскажу сегодня.

Чтобы узнать, как включить обнаружение живости с OpenCV в ваши собственные системы распознавания лиц, просто продолжайте читать!

Обнаружение жизни с OpenCV

2020-06-11 Обновление: Эта запись в блоге теперь совместима с TensorFlow 2+!

В первой части этого руководства мы обсудим определение живости, в том числе, что это такое и зачем оно нам нужно для улучшения наших систем распознавания лиц.

Оттуда мы рассмотрим набор данных, который будем использовать для определения живучести, в том числе:

  • Как создать набор данных для обнаружения жизнеспособности
  • Наш пример сравнения реальных изображений лиц с поддельными

Мы также рассмотрим структуру нашего проекта для проекта детектора живучести.

Чтобы создать детектор живости, мы будем обучать глубокую нейронную сеть, способную различать настоящие и поддельные лица.

Следовательно, нам потребуется:

  1. Создайте сам набор данных изображения.
  2. Внедрите CNN, способную выполнять детектор жизнеспособности (мы будем называть эту сеть «LivenessNet» ).
  3. Обучите сеть детекторов живучести.
  4. Создайте скрипт Python + OpenCV, способный взять нашу обученную модель детектора жизнеспособности и применить ее к видео в реальном времени.

Давай, приступим!

Что такое определение живучести и зачем оно нам?

Рисунок 1: Обнаружение жизнеспособности с OpenCV. Слева — мое живое (настоящее) видео, а справа
— я держу свой iPhone (фальшивый / подделанный).

Системы распознавания лиц становятся все более распространенными, чем когда-либо. Системы распознавания лиц используются повсеместно: от распознавания лиц на вашем iPhone / смартфоне до распознавания лиц для массового наблюдения в Китае.

Однако системы распознавания лиц легко обмануть с помощью «спуфинга» и «ненастоящих» лиц.

Системы распознавания лиц

можно обойти, просто поднеся фотографию человека (напечатанную, на смартфоне и т. Д.) К камере распознавания лиц.

Чтобы сделать системы распознавания лиц более безопасными, нам необходимо иметь возможность обнаруживать такие поддельные / нереальные лица — Обнаружение живости — это термин, используемый для обозначения таких алгоритмов.

Существует несколько подходов к определению живучести, в том числе:

  • Анализ текстуры, , включая вычисление локальных двоичных паттернов (LBP) по областям лица и использование SVM для классификации лиц как реальных или поддельных.
  • Частотный анализ, например, исследование области Фурье лица.
  • Анализ переменной фокусировки, , такой как исследование изменения значений пикселей между двумя последовательными кадрами.
  • алгоритмов на основе эвристики, включая движения глаз, движения губ, и обнаружения моргания. Этот набор алгоритмов пытается отслеживать движение глаз и моргания, чтобы гарантировать, что пользователь не держит фотографию другого человека (поскольку фотография не моргает и не шевелит губами).
  • Алгоритмы оптического потока, , в частности, исследуют различия и свойства оптического потока, генерируемого из трехмерных объектов и двухмерных плоскостей.
  • Трехмерная форма лица, похожая на то, что используется в системе распознавания лиц iPhone от Apple, что позволяет системе распознавания лиц различать реальные лица и распечатки / фотографии / изображения другого человека.
  • Комбинации вышеперечисленного, , позволяющие инженеру системы распознавания лиц выбирать модели обнаружения живости, подходящие для их конкретного приложения.

Полный обзор алгоритмов определения живучести можно найти в статье Чакраборти и Даса, 2014 г., Обзор определения живости лиц .

Для целей сегодняшнего учебника мы будем рассматривать с обнаружением живучести как с проблемой двоичной классификации .

Учитывая входное изображение, мы обучим сверточную нейронную сеть, способную различать реальных лиц от поддельных / поддельных лиц .

Но прежде чем мы перейдем к обучению нашей модели определения живучести, давайте сначала рассмотрим наш набор данных.

Наши видеообнаружения живости

Рисунок 2: Пример сопоставления реальных лиц с поддельными / поддельными.Видео на слева — это настоящая запись моего лица. Видео на справа — это то же самое видео, которое воспроизводилось, пока мой ноутбук записывал его.

Чтобы упростить наш пример, детектор живости, который мы создаем в этом сообщении блога, будет сосредоточен на различении реальных лиц по сравнению с поддельными лицами на экране.

Этот алгоритм может быть легко расширен на другие типы поддельных лиц , включая распечатки, отпечатки с высоким разрешением и т. Д.

Для создания набора данных обнаружения живучести, I:

  1. Взял мой iPhone и перевел его в режим портрет / селфи.
  2. Записал 25-секундное видео, на котором я гуляю по офису.
  3. Воспроизведено то же самое 25-секундное видео, на этот раз повернув iPhone к моему рабочему столу , где я записал воспроизведение видео.
  4. Это привело к , два примера видео , одно для «реальных» лиц, а другое для «поддельных / поддельных» лиц.
  5. Наконец, я применил распознавания лиц к обоим наборам видео, чтобы извлечь отдельные области интереса для лиц для обоих классов.

Я предоставил вам мои настоящие и поддельные видеофайлы в разделе «Загрузки» сообщения.

Вы можете использовать эти видео в качестве отправной точки для вашего набора данных, но я бы рекомендовал собрать больше данных , чтобы сделать ваш детектор живучести более надежным и точным.

При тестировании я определил, что модель слегка смещена в сторону моего лица, что имеет смысл, потому что это все, на чем модель была обучена.И, кроме того, поскольку я белый / европеец, я не ожидал, что этот же набор данных будет работать с другими оттенками кожи.

В идеале вы должны обучить модель с лицами множественных человек и включают лица множественных национальностей. Обязательно обратитесь к разделу «Ограничения и дальнейшая работа» « ниже, чтобы получить дополнительные предложения по улучшению ваших моделей обнаружения живучести.

В оставшейся части руководства вы узнаете, как взять набор данных, который я записал, и превратить его в настоящий детектор жизнеспособности с помощью OpenCV и глубокого обучения.

Настройка среды разработки

Чтобы настроить вашу систему для этого руководства, я сначала рекомендую следовать одному из этих руководств:

Любое руководство поможет вам настроить вашу систему со всем необходимым программным обеспечением для этого сообщения в блоге в удобной виртуальной среде Python.

Обратите внимание, что PyImageSearch не рекомендует и не поддерживает Windows для проектов CV / DL.

Структура проекта

Возьмите код, набор данных и модель жизнеспособности, используя раздел «Загрузки» этого сообщения, а затем распакуйте архив.

Перейдя в каталог проекта, вы увидите следующую структуру:

 $ tree --dirsfirst --filelimit 10
.
├── набор данных
│ ├── фальшивка [150 записей]
│ └── настоящее [161 запись]
├── face_detector
│ ├── deploy.prototxt
│ └── res10_300x300_ssd_iter_140000.caffemodel
├── pyimagesearch
│ ├── __init__.py
│ └── livenessnet.py
├── видео
│ ├── fake.mp4
│ └── real.mov
├── gather_examples.py
├── train.py
├── liveness_demo.py
├── лепешка
├── живучесть. Модель
└── сюжет.PNG

6 каталогов, 12 файлов
 

Внутри нашего проекта четыре основных каталога:

  • набор данных / : Наш каталог наборов данных состоит из двух классов изображений:
    • Поддельные изображения меня с камеры, нацеленной на мой экран при воспроизведении видео с моим лицом.
    • Настоящие изображения меня, снятые из селфи-видео на мой телефон.
  • face_detector / : Состоит из предварительно обученного детектора лица Caffe для определения областей интереса лица.
  • pyimagesearch / : Этот модуль содержит наш класс LivenessNet.
  • видео / : Я предоставил два исходных видео для обучения нашего классификатора LivenessNet.

Сегодня мы подробно рассмотрим три скрипта Python. К концу публикации вы сможете запускать их на своих данных и также вводить видеопотоки. В порядке появления в этом руководстве три скрипта:

  1. gather_examples.py : этот скрипт захватывает ROI лица из входных видеофайлов и помогает нам создать набор данных живости лиц с глубоким обучением.
  2. train.py : Как видно из названия файла, этот сценарий будет обучать наш классификатор LivenessNet. Мы будем использовать Keras и TensorFlow для обучения модели. В результате обучения получается несколько файлов:
    • le.pickle : Наш классный кодировщик этикеток.
    • liveness.model : Наша сериализованная модель Keras, которая определяет живость лица.
    • plot.png : график истории обучения показывает кривые точности и потерь, чтобы мы могли оценить нашу модель (т.е.е. пере / недооборудование).
  3. liveness_demo.py : Наш демонстрационный скрипт запустит вашу веб-камеру для захвата кадров для определения живости лица в реальном времени.

Обнаружение и извлечение ROI лиц из нашего набора обучающих (видео) данных

Рисунок 3: Обнаружение ROI лиц в видео с целью построения набора данных обнаружения живого.

Теперь, когда у нас была возможность проверить и наш исходный набор данных, и структуру проекта, давайте посмотрим, как мы можем извлечь как настоящие, так и поддельные изображения лиц из наших исходных видео.

Конечная цель, если этот сценарий будет заполнить два каталога:

  1. dataset / fake / : Содержит области интереса для лиц из файла fake.mp4
  2. dataset / real / : содержит области интереса лица из файла real.mov .

Учитывая эти кадры, мы позже обучим детектор живости на основе глубокого обучения на изображениях.

Откройте файл gather_examples.py и вставьте следующий код:

 # импортируем необходимые пакеты
импортировать numpy как np
import argparse
импорт cv2
импорт ОС

# создать аргумент, синтаксический анализ и анализ аргументов
ap = argparse.ArgumentParser ()
ap.add_argument ("- i", "--input", type = str, required = True,
help = "путь к входному видео")
ap.add_argument ("- o", "--output", type = str, required = True,
help = "путь к выходному каталогу обрезанных лиц")
ap.add_argument ("- d", "--detector", type = str, required = True,
help = "путь к детектору лиц глубокого обучения OpenCV")
ap.add_argument ("- c", "--confidence", type = float, по умолчанию = 0,5,
help = "минимальная вероятность отфильтровать слабые обнаружения")
ap.add_argument ("- s", "--skip", type = int, по умолчанию = 16,
help = "# кадров, которые нужно пропустить перед применением функции распознавания лиц")
args = vars (ap.parse_args ())
 

Строки 2-5 импортируют наши необходимые пакеты. Этот сценарий требует только OpenCV и NumPy в дополнение к встроенным модулям Python.

Отсюда Строки 8-19 анализируют наши аргументы командной строки:

  • --input : путь к нашему входному видеофайлу.
  • --output : путь к выходному каталогу, в котором будет храниться каждое из обрезанных лиц.
  • --detector : Путь к детектору лиц.Мы будем использовать детектор лиц с глубоким обучением OpenCV. Эта модель Caffe включена в сегодняшнюю версию «Загрузки» для вашего удобства.
  • --confidence : минимальная вероятность отфильтровать слабые обнаружения лиц. По умолчанию это значение составляет 50%.
  • - пропустить : нам не нужно обнаруживать и сохранять каждое изображение, потому что соседние кадры будут похожи. Вместо этого мы будем пропускать N кадров между обнаружениями. Вы можете изменить значение по умолчанию 16, используя этот аргумент.

Давайте загрузим детектор лиц и инициализируем наш видеопоток:

 # загрузить наш сериализованный детектор лиц с диска
print ("[ИНФОРМАЦИЯ] загрузка детектора лиц ...")
protoPath = os.path.sep.join ([args ["детектор"], "deploy.prototxt"])
modelPath = os.path.sep.join ([args ["детектор"],
"res10_300x300_ssd_iter_140000.caffemodel"])
net = cv2.dnn.readNetFromCaffe (protoPath, modelPath)

# открываем указатель на поток видеофайла и инициализируем итоговый
# количество прочитанных и сохраненных фреймов
vs = cv2.VideoCapture (args ["вход"])
читать = 0
сохранено = 0
 

Строки 23-26 загружают детектор лиц с глубоким обучением OpenCV.

Отсюда мы открываем наш видеопоток на Line 30 .

Мы также инициализируем две переменные для количества прочитанных кадров, а также количества кадров, сохраненных во время выполнения нашего цикла (, строки 31 и 32, ).

Давайте создадим цикл для обработки кадров:

 # перебрать кадры из потока видеофайлов
в то время как True:
# взять кадр из файла
(схвачено, рамка) = vs.читать()

# если кадр не был схвачен, значит мы дошли до конца
# потока
если не схватили:
сломать

# увеличить общее количество прочитанных кадров
читать + = 1

# проверяем, нужно ли обрабатывать этот фрейм
если прочитано% args ["skip"]! = 0:
Продолжить
 

Наш цикл , а цикл начинается на строках 35 .

Оттуда мы берем и проверяем фрейм ( строки 37-42 ).

На этом этапе, поскольку мы прочитали кадр , мы увеличим наш счетчик read (, строка 48, ).Если мы пропустим этот конкретный кадр, мы продолжим без дальнейшей обработки (, строки 48 и 49, ).

Давай обнаружим лица:

 # возьмите размеры кадра и создайте из кадра каплю
(h, w) = frame.shape [: 2]
blob = cv2.dnn.blobFromImage (cv2.resize (frame, (300, 300)), 1.0,
(300, 300), (104.0, 177.0, 123.0))

# передать BLOB-объект по сети и получить обнаружения и
# прогнозов
net.setInput (большой двоичный объект)
обнаружения = net.forward ()

# убедитесь, что было найдено хотя бы одно лицо
если len (обнаружений)> 0:
# мы предполагаем, что каждое изображение имеет только ОДИН
# лицо, поэтому найдите ограничивающую рамку с наибольшей вероятностью
я = нп.argmax (обнаружения [0, 0,:, 2])
уверенность = обнаружения [0, 0, i, 2]
 

Чтобы выполнить обнаружение лица, нам нужно создать blob из изображения (, строки 53 и 54, ). Этот объект blob имеет ширину и высоту 300 × 300 для размещения нашего детектора лиц Caffe. Масштабирование ограничивающих рамок потребуется позже, поэтому Line 52 захватывает размеры кадра.

Строки 58 и 59 выполняют прямой проход blob через детектор лиц с глубоким обучением.

Наш сценарий предполагает, что в каждом кадре видео присутствует только одно лицо ( строк 62-65 ). Это помогает предотвратить ложные срабатывания. Если вы работаете с видео, в котором содержится более одного лица, я рекомендую вам соответствующим образом настроить логику.

Таким образом, Строка 65 получает индекс обнаружения лица с наибольшей вероятностью. Строка 66 извлекает достоверность обнаружения с помощью индекса.

Отфильтруем слабые детекции и запишем ROI лица на диск:

 # убедитесь, что обнаружение с наибольшей вероятностью также
# означает наш минимальный вероятностный тест (помогающий отфильтровать
# слабое обнаружение)
если уверенность> args ["уверенность"]:
# вычислить (x, y) -координаты ограничивающего прямоугольника для
# лицо и извлеките ROI лица
коробка = обнаружения [0, 0, i, 3: 7] * np.массив ([ш, в, ш, в])
(startX, startY, endX, endY) = box.astype ("int")
face = frame [начало: конецY, началоX: конецX]

# записываем фрейм на диск
p = os.path.sep.join ([args ["output"],
"{} .png" .format (сохранено)])
cv2.imwrite (p, лицо)
сохранено + = 1
print ("[ИНФОРМАЦИЯ] сохранена {} на диск" .format (p))

# немного почистить
по сравнению с выпуском ()
cv2.destroyAllWindows ()
 

Line 71 гарантирует, что ROI для обнаружения лиц соответствует минимальному порогу для уменьшения количества ложных срабатываний.

Отсюда мы извлекаем границу области интереса лица , координаты прямоугольника и саму область интереса лица ( строки 74-76, ).

Мы генерируем путь + имя файла для области интереса лица и записываем его на диск в строках 79-81 . На этом этапе мы можем увеличить количество из сохраненных лиц.

После завершения обработки мы выполним очистку строк 86 и 87 .

Создание набора данных изображений для обнаружения живого

Рисунок 4: Наш набор данных обнаружения живости лиц OpenCV. Мы будем использовать Keras и OpenCV для обучения и демонстрации модели жизнеспособности.

Теперь, когда мы реализовали gather_examples.py , давайте приступим к работе.

Убедитесь, что вы используете раздел «Загрузки» этого руководства, чтобы получить исходный код и примеры входных видео.

Оттуда откройте терминал и выполните следующую команду для извлечения лиц для нашего класса «поддельный / подделанный» :

 $ python gather_examples.py --input videos / fake.mp4 --output dataset / fake \
--detector face_detector --skip 1
[ИНФОРМАЦИЯ] загрузка детектора лиц ...
[ИНФОРМАЦИЯ] сохраненные наборы данных / поддельные / 0.png на диск
[INFO] сохраненные наборы данных / fake / 1.png на диск
[INFO] сохраненные наборы данных / fake / 2.png на диск
[INFO] сохраненные наборы данных / fake / 3.png на диск
[INFO] сохраненные наборы данных / fake / 4.png на диск
[ИНФОРМАЦИЯ] сохраненные наборы данных / fake / 5.png на диск
...
[INFO] сохраненные наборы данных / fake / 145.png на диск
[INFO] сохраненные наборы данных / fake / 146.png на диск
[INFO] сохраненные наборы данных / fake / 147.png на диск
[INFO] сохраненные наборы данных / fake / 148.png на диск
[INFO] сохраненные наборы данных / fake / 149.png на диск
 

Точно так же мы можем сделать то же самое для «реального» класса :

 $ python gather_examples.py --input videos / real.mov --output dataset / real \
--detector face_detector --skip 4
[ИНФОРМАЦИЯ] загрузка детектора лиц ...
[INFO] сохраненные наборы данных / real / 0.png на диск
[INFO] сохраненные наборы данных / real / 1.png на диск
[INFO] сохраненные наборы данных / real / 2.png на диск
[INFO] сохраненные наборы данных / real / 3.png на диск
[INFO] сохраненные наборы данных / real / 4.png на диск
...
[INFO] сохраненные наборы данных / real / 156.png на диск
[INFO] сохраненные наборы данных / real / 157.png на диск
[INFO] сохраненные наборы данных / real / 158.png на диск
[INFO] сохраненные наборы данных / real / 159.png на диск
[INFO] сохраненные наборы данных / real / 160.png на диск
 

Поскольку «настоящий» видеофайл длиннее, чем «фальшивый» видеофайл, мы будем использовать более длинное значение пропуска кадров, чтобы сбалансировать количество выходных областей интереса к лицу для каждого класса.

После выполнения скриптов у вас должно быть следующее количество изображений:

  • Подделка: 150 изображений
  • Реальный: 161 изображение
  • Всего: 311 изображений

Реализация «LivenessNet», нашего детектора жизнеспособности глубокого обучения

Рисунок 5: Архитектура глубокого обучения для LivenessNet, CNN, предназначенная для определения живости лиц на изображениях и видео.

Следующим шагом будет внедрение «LivenessNet», нашего детектора жизнеспособности на основе глубокого обучения.

По сути, LivenessNet на самом деле представляет собой простую сверточную нейронную сеть.

Мы будем называть намеренно , сохраняя эту сеть как мелкую и с минимально возможным количеством параметров по двум причинам:

  1. Чтобы уменьшить вероятность переобучения нашего небольшого набора данных.
  2. Чтобы гарантировать, что наш детектор живучести работает быстро и может работать в режиме реального времени (даже на устройствах с ограниченными ресурсами, таких как Raspberry Pi).

Давайте реализуем LivenessNet сейчас — откройте livenessnet.py и вставьте следующий код:

 # импортируем необходимые пакеты
из tensorflow.keras.models импортировать последовательный
из tensorflow.keras.layers импортировать BatchNormalization
из tensorflow.keras.layers импортировать Conv2D
из tensorflow.keras.layers импортировать MaxPooling2D
из tensorflow.keras.layers import Activation
из tensorflow.keras.layers import Flatten
из tensorflow.keras.layers import Dropout
из тензорного потока.keras.layers import Dense
из tensorflow.keras импортировать бэкэнд как K

класс LivenessNet:
@staticmethod
def build (ширина, высота, глубина, классы):
# инициализируем модель вместе с входной формой как
# "каналы последние" и сам размер каналов
model = Последовательный ()
inputShape = (высота, ширина, глубина)
chanDim = -1

# если мы используем "сначала каналы", обновим форму ввода
# и размер каналов
если K.image_data_format () == "channels_first":
inputShape = (глубина, высота, ширина)
chanDim = 1
 

Весь наш импорт из Кераса ( строк 2-10, ).Для более глубокого обзора каждого из этих уровней и функций обязательно обратитесь к Deep Learning for Computer Vision with Python .

Наш класс LivenessNet определен в Line 12 . Он состоит из одного статического метода, build (, строка 14, ). Метод build принимает четыре параметра:

  • ширина : Какова ширина изображения / объема.
  • высота : высота изображения.
  • глубина : количество каналов для изображения (в данном случае 3, поскольку мы будем работать с изображениями RGB).
  • классы : Количество классов. Всего у нас два класса: «настоящие» и «поддельные».

Наша модель инициализируется на Строке 17 .

inputShape для нашей модели определен в строке 18 , а порядок каналов определяется в строках 23-25.

Давайте начнем добавлять слои к нашему CNN:

 # first CONV => RELU => CONV => RELU => POOL layer set
модель.add (Conv2D (16, (3, 3), padding = "same",
input_shape = inputShape))
model.add (Активация ("relu"))
model.add (BatchNormalization (axis = chanDim))
model.add (Conv2D (16, (3, 3), padding = "same"))
model.add (Активация ("relu"))
model.add (BatchNormalization (axis = chanDim))
model.add (MaxPooling2D (размер_пул = (2, 2)))
model.add (Выпадение (0,25))

# второй CONV => RELU => CONV => RELU => Набор слоев POOL
model.add (Conv2D (32, (3, 3), padding = "same"))
model.add (Активация ("relu"))
модель.добавить (BatchNormalization (axis = chanDim))
model.add (Conv2D (32, (3, 3), padding = "same"))
model.add (Активация ("relu"))
model.add (BatchNormalization (axis = chanDim))
model.add (MaxPooling2D (размер_пул = (2, 2)))
model.add (Выпадение (0,25))
 

Наш CNN демонстрирует качества VGGNet. Он очень мелкий с несколькими изученными фильтрами. В идеале нам не нужна глубокая сеть, чтобы различать настоящие и поддельные лица.

Первый CONV => RELU => CONV => RELU => POOL Набор слоев указан в строках 28-36 , где также добавляются пакетная нормализация и выпадение.

Другой CONV => RELU => CONV => RELU => POOL Набор слоев добавлен к строкам 39-46 .

Наконец, мы добавим наши слои FC => RELU :

 # первый (и единственный) набор слоев FC => RELU
model.add (Flatten ())
model.add (Плотный (64))
model.add (Активация ("relu"))
model.add (BatchNormalization ())
model.add (Выпадение (0,5))

# softmax классификатор
model.add (Плотный (классы))
model.add (Активация ("softmax"))

# вернуть построенную сетевую архитектуру
модель возврата
 

Строки 49-57 состоят из полностью связанных и активированных ReLU слоев с головкой классификатора softmax.

Модель возвращается в сценарий обучения на Строка 60 .,

Создание сценария обучения детектора живучести

.

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *