Фотография лица: D0 bb d0 b8 d1 86 d0 be картинки, стоковые фото D0 bb d0 b8 d1 86 d0 be

Содержание

Как работает распознавание лиц и можно ли обмануть эту систему

В основе технологии — две нейросети:

Первая — сеть-«выравниватель» (англ. aligner). Она берет картинку, которая поступает с камеры наблюдения, детектирует на ней все лица, которые сможет найти, «вырезает» и «выравнивает» их.

Вот как это выглядит:

Этап №1. Программа вырезает лица (Фото: wikipedia.org)

Программа вырезает обнаруженные лица (те, что плотно расположены друг к другу, повернуты в профиль или просто очень маленькие и нечеткие, система может не распознать).

Затем она их выравнивает: детектирует на лице точки глаз, носа и рта.

Этап №2. Программа распознает ключевые точки на лице (Фото: wikipedia.org)

Наконец, поворачивает и подгоняет размер фото так, чтобы точки глаз, носа и рта находились в определенных местах.

Этап №3. Программа приводит фото к стандартному виду (Фото: Tsinghua University)

Некоторые алгоритмы используют больше семи точек — то есть, обводят контуры лица. Это может понадобиться, к примеру, для создания дипфейков.

Вторая — сеть-«распознаватель». Она принимает на входе выровненное изображение, которое передала первая нейросеть, а на выходе выдает вектор лица — то есть, набор чисел фиксированной длины. У разных сетей эти векторы могут отличаться, но чаще всего это некая степень двойки. Например, 512:

Как работает вторая нейросеть, которая распознает лица (Фото: KDnuggets)

На похожие лица сеть выдает похожие векторы и наоборот.

Возьмем одно фото Анджелины Джоли и два изображения Брэда Питта и прогоним их через сеть. На выходе получим три вектора. Измерим расстояние между вектором Анджелины Джоли и вектором первого Брэда Питта, а также между векторами двух Брэдов Питтов. В первом случае расстояние будет большим — это разные люди, а во втором — маленьким: это один человек.

Как нейросеть отличает одного человека от другого (Фото: KDnuggets)

Чтобы обучить нейросети, используют огромные базы данных с лицами людей. Нейросети на входе сообщают, кому принадлежит это лицо, а затем, в ходе обучения, добиваются, чтобы она выдавала максимально точные результаты. Обучившись на миллионах разных людей, нейросеть начинает распознавать и новые лица — те, которых не было в базе.

Технология Face ID в смартфонах устроена немного иначе. Алгоритм распознает вас не по фото, а с помощью инфракрасных точек, которые проецируются на ваше лицо через камеру. После этого создается трехмерная модель и сравнивается с той, что вы уже внесли ранее.

Как работает технология FaceID

Является ли фотография персональными данными

Многочисленные споры так и не смогли однозначно установить, является ли фотография персональными данными и относится ли они к биометрической информации. Позиции регуляторов и судов часто меняются, в разных регионах складывается разная практика. Единой логики принятия решения нет – в каждом конкретном случае оно опирается на установленные законом исключения.

Когда фотография заведомо относится к ПД

Часто встречается ситуация, когда фото на пропусках на работу или на закрытую территорию многоэтажных жилых комплексов признаются ПД и за их использование без получения специально оформленного согласия организации привлекаются к ответственности. Роскомнадзор в ответ на многочисленные запросы операторов персональных данных разъяснил, что в целях применения закона «О персональных данных» к биометрическим персональным данным относятся сведения, которые характеризуют физиологические и биологические особенности человека, и на их основании непосредственно или с использованием технических решений можно установить его личность. 

Позиция основывается на том, что:

  • не всякое изображение относится к персональным данным;
  • для принятия решения о его отнесении к этой категории оператор обязательно должен использовать фото для установления личности. Изображение человека при его использовании должно быть основой его опознания – при пропуске на работу, в школу.

Согласие на использование персональных данных обязательно оформляется, если приведенное толкование закона дает возможность отнести конкретное фото к биометрическим персональным данным. Форма письменного согласия законом не устанавливается, но она типовая для большинства случаев обработки ПД. Есть и исключения, предусмотренные федеральными законами. 

Так, согласие на обработку персональных данных не требуется, если:

  • ситуация связана с исполнением страной международного договора;
  • изображение обрабатывается в целях отправления правосудия;
  • обработка биометрических данных происходит в связи с реализацией целей обороны, борьбой с терроризмом, оперативно-розыскной деятельностью.

Помимо фото, к биометрическим персональным данным закон относит отпечатки пальцев, радужную оболочку глаз, анализы ДНК, рост, вес, метрические сведения, например, данные измерения лица, а также иные физиологические или биологические характеристики человека, отображенные, в том числе, в видео. Всегда к биометрическим персональным данным будет относиться снимок для заграничного паспорта, сделанный с использованием технических средств получения биометрического изображения. Об этом напоминает Постановление Правительства № 125, посвященное вопросам оформления заграничных паспортов. 

Часто вопросы вызывает требование организации предоставить фото, особенно на фоне объекта недвижимости или с паспортом в руке для идентификации, без предварительного оформления согласия. Чаще всего так поступают банки, наниматели поденных рабочих, операторы электронных кошельков. Гражданин в каждом случае использования таких фото сам оценивает степень риска. Если она кажется ему высокой, следует обратиться за защитой – направить жалобу в Роскомнадзор с просьбой привлечь к ответственности за неправомерное требование ПД без оформления согласия. Организация обязана разъяснить особенности обработки и использования изображения, порядок и сроки его хранения.

Когда фото не относится к ПД

Основным условием отнесения фотоснимка к биометрическим данным становится использование ее оператором в целях идентификации личности.

Регулятор называет несколько конкретных ситуаций, в которых снимок ни в коем случае не будет отнесен к персональным данным, оборот которых ограничен и для использования которых нужно обязательно получать согласие: 

  • изображение необходимо для реализации политических, государственных, общественных интересов. Равно не является незаконным использованием персональных данных размещение в газете фотокарточки политика. При этом публикация фото чужого ребенка будет отнесена к нарушениям;
  • фото или видеоизображение получено в публичном, общественном месте, открытом для общего посещения: в театре, на митинге, на спортивном мероприятии. Оно может свободно размещаться в СМИ без согласия гражданина. Исключением является ситуация, когда оно получено с целью коммерческого использования, в этом случае требуется согласие частного лица;
  • фотография получена, когда гражданин позировал за денежное вознаграждение, заведомо понимая, что изображение будет использовано в рекламе или иным способом.

Эти ситуации исключают какое-либо преследование за неправомерное использование фотоизображения человека.

04.03.2020

Покажем всё! Подтяжка лица и шеи – фото и видео До и После, репортаж из операционной, исчерпывающий откровенный рассказ пациентки

Покажем  всё!   Подтяжка лица и шеи – фото и видео До и После, репортаж из операционной,  исчерпывающий откровенный рассказ пациентки.

О пластической омолаживающей операции мечтают многие, но делиться её результатами и, тем более, процессом на просторах интернета готовы далеко не все. Зато абсолютно всем хотелось бы знать всё из первых уст и видеть своими глазами на фото и видео:

  • как выглядит пациентка до пластики,
  • как проходит операция,
  • что она чувствует во время и после операции,
  • как проходит восстановление,
  • лично оценить достигнутый результат на видео, где ничего не скрыто.

О своих ожиданиях  от пластической операции Екатерина рассказывает в видеосюжете.  

СМАС-лифтинг и пластика платизмы — подтяжка лица и шеи

Операция  подтяжки лица и шеи проведена пластическим хирургом Клинического госпиталя  на Яузе, кандидатом медицинских наук Анисимовым Алексеем Юрьевичем.

Пациентке  Екатерине проведена омолаживающая пластическая операция — высокий SMAS-лифтинг при общем лифтинге лица и шеи.

Об операции рассказывает пластический хирург, к.м.н. Анисимов Алексей Юрьевич.  

В течение месяца после операции рекомендуется ограничение физических нагрузок (тренировок,  тяжелого физического труда), тепловых процедур, воздействия ультрафиолета.

Эффект. В результате операции:

  • достигнут стойкий длительный лифтинг  лица и шеи,
  • устранены формирующиеся брыли,  
  • подтянута линия угла подбородка, нижней челюсти и шеи,
  • восстановлен молодой контур лица и шеи,
  • сглажены носогубные складки,
  • слегка приподняты уголки губ.

Дальнейшие этапы реабилитации после проведенной пластической операции Екатерины мы покажем позже.  Но Вы можете не ждать так долго, а просто прийти на консультацию к пластическому хирургу Анисимову А.Ю., где поговорить с Катей – его помощницей — лично и увидеть результат своими глазами.

записаться к врачу


Глубокое обучение с полууправлением для оценки качества изображения лица

[Отправлено 3 января 2022 г.]

Скачать PDF
Аннотация: В этой статье мы разрабатываем FaceQgen, подход к оценке качества без ссылок. для изображений лица на основе генеративно-состязательной сети, которая генерирует скалярная мера качества, связанная с точностью распознавания лиц. FaceQgen не требует маркированных мер качества для обучения.Он обучается из поцарапать с помощью базы данных SCface. FaceQgen применяет восстановление изображения к лицу изображение неизвестного качества, преобразовав его в каноническое изображение высокого качества, т. е. фронтальная поза, однородный фон и т. д. Оценка качества строится как сходство между исходным и восстановленным изображениями, так как низкая качественные изображения претерпевают большие изменения из-за реставрации. Мы сравниваем три различные числовые показатели качества: а) MSE между исходным и восстановленные изображения, б) их SSIM и в) выходной балл Дискриминатора ГАН.Результаты показывают, что показатели качества FaceQgen хорошие. оценщики точности распознавания лиц. Наши эксперименты включают сравнение с другими методами оценки качества, предназначенными для лиц и для общего изображения, чтобы позиционировать FaceQgen на современном уровне. Это сравнение показывает, что, хотя FaceQgen не превосходит лучшее из существующих методы оценки качества с точки зрения прогнозирования точности распознавания лиц, это достигает достаточно хороших результатов, чтобы продемонстрировать потенциал полуконтролируемого подходы к обучению для оценки качества (в частности, обучение на основе данных на основе одного изображения высокого качества для каждого объекта), способного улучшить свои показатели в будущем при адекватной доработке модели и значительное преимущество перед конкурирующими методами, заключающееся в том, что не нужны знаки качества для его развития.Это делает FaceQgen гибким и масштабируемым без дорогая обработка данных.

История отправки

От: Хавьер Эрнандес-Ортега [просмотреть письмо]
[v1] Пн, 3 января 2022 г. 17:22:38 UTC (1867 КБ)

Полууправляемое глубокое обучение для оценки качества изображения лица

[Отправлено 3 января 2022 г. ]

Скачать PDF
Аннотация: В этой статье мы разрабатываем FaceQgen, подход к оценке качества без ссылок. для изображений лица на основе генеративно-состязательной сети, которая генерирует скалярная мера качества, связанная с точностью распознавания лиц.FaceQgen не требует маркированных мер качества для обучения. Он обучается из поцарапать с помощью базы данных SCface. FaceQgen применяет восстановление изображения к лицу изображение неизвестного качества, преобразовав его в каноническое изображение высокого качества, т. е. фронтальная поза, однородный фон и т. д. Оценка качества строится как сходство между исходным и восстановленным изображениями, так как низкая качественные изображения претерпевают большие изменения из-за реставрации. Мы сравниваем три различные числовые показатели качества: а) MSE между исходным и восстановленные изображения, б) их SSIM и в) выходной балл Дискриминатора ГАН.Результаты показывают, что показатели качества FaceQgen хорошие. оценщики точности распознавания лиц. Наши эксперименты включают сравнение с другими методами оценки качества, предназначенными для лиц и для общего изображения, чтобы позиционировать FaceQgen на современном уровне. Это сравнение показывает, что, хотя FaceQgen не превосходит лучшее из существующих методы оценки качества с точки зрения прогнозирования точности распознавания лиц, это достигает достаточно хороших результатов, чтобы продемонстрировать потенциал полуконтролируемого подходы к обучению для оценки качества (в частности, обучение на основе данных на основе одного изображения высокого качества для каждого объекта), способного улучшить свои показатели в будущем при адекватной доработке модели и значительное преимущество перед конкурирующими методами, заключающееся в том, что не нужны знаки качества для его развития.Это делает FaceQgen гибким и масштабируемым без дорогая обработка данных.

История отправки

От: Хавьер Эрнандес-Ортега [просмотреть письмо]
[v1] Пн, 3 января 2022 г. 17:22:38 UTC (1 867 КБ)

Оценка качества резкости и яркости изображений лиц для распознавания

Качество изображения лица оказывает важное влияние на эффективность распознавания. Оценка качества изображения лица, ориентированная на распознавание, особенно необходима для скрининга или применения изображений лица с различным качеством.В этой работе резкость и яркость в основном оценивались с помощью классификационной модели. Мы выбрали очень качественные изображения каждого субъекта и установили девять видов меток качества, которые связаны с эффективностью распознавания, используя комбинацию алгоритмов распознавания лиц, системы человеческого зрения и традиционного метода расчета яркости. Эксперименты проводились с пользовательским набором данных и базой данных лиц CMU с несколькими PIE для обучения и тестирования, а также с Labeled Faces in the Wild для перекрестной проверки.Экспериментальные результаты показывают, что предложенный метод может эффективно снизить частоту ложных несоответствий за счет удаления некачественных изображений лиц, идентифицированных моделью классификации, и наоборот. Этот метод эффективен даже для алгоритмов распознавания лиц, которые не участвуют в создании меток и обучающие данные которых негомологичны обучающей выборке нашей модели оценки качества. Результаты показывают, что предложенный метод может различать изображения разного качества с достаточной точностью и согласуется с субъективной оценкой человека.Метки качества, установленные в этой статье, тесно связаны с эффективностью распознавания и демонстрируют хорошее обобщение на другие алгоритмы распознавания. Наш метод можно использовать для отбраковки некачественных изображений для повышения скорости распознавания и отбора качественных изображений для последующей обработки.

1. Введение

Обширные исследования качества изображения лица (FIQ) показали, что образцы, предоставленные в качестве входных данных для автоматизированной системы распознавания, влияют на эффективность распознавания.Распознавание лиц все чаще применяется в неконтролируемых средах (например, на автоматизированных контрольно-пропускных пунктах), где полученные изображения могут включать размытие, неравномерное освещение и нефронтальные позы. Такие неидеальные факторы могут существенно снизить точность распознавания. Наиболее прямым проявлением этого снижения точности является то, что производительность распознавания лиц одного и того же алгоритма распознавания на наборах данных с разным качеством имеет очевидные различия. Например, Агдам и др. [1] использовали несколько моделей, чтобы доказать, что эффективность распознавания одной и той же модели распознавания может отличаться на 70% и более для данных разного качества, захваченных в одной и той же сцене.Некоторые исследователи предложили эффективные методы решения проблем, вызванных неидеальными факторами распознавания. Например, Цао и др. [2] предложил алгоритм распознавания устойчивости позы, а Фекри-Эршад [3] классифицировал пол лица, чтобы повысить скорость распознавания. Эти методы достигли некоторых результатов. Однако фильтрация изображений низкого качества с помощью оценки качества изображения лица (FIQA) также является важным способом повышения производительности систем распознавания.

Качество изображений лиц как биометрических образцов тесно связано с результатом распознавания.В стандарте ISO/IEC 29794 [4] описаны три характеристики FIQ: (1) символ, который указывает атрибуты, связанные с неотъемлемыми характеристиками; (2) достоверность, отражающая степень сходства с исходной биометрической характеристикой; и (3) полезность, которая указывает на пригодность для распознавания и зависит от характера и верности. FIQ определяется как мера полезности изображения лица для систем распознавания лиц [5–7]. Это определение согласуется с полезностью, описанной выше.Меру FIQ можно по существу считать предиктором точности распознавания лиц. Другими словами, изображение лица, признанное качественным, должно способствовать успешной работе систем распознавания (или наоборот). Конечной целью FIQA является использование взаимосвязи между качеством изображения и выходными данными алгоритмов распознавания.

FIQA имеет большое практическое значение, поскольку он может отображать изображения лиц различного качества, независимо от того, применяется ли он к системам распознавания в реальном времени онлайн или оффлайн приложениям изображения лица. Ограничение изображений лиц, качество которых определено как низкое для распознавания, может повысить эффективность распознавания и одновременно снизить расход ресурсов системы распознавания лиц. Некоторые инструкции по настройке могут быть предоставлены идентифицируемым лицам или персоналу в зависимости от качества изображения, что имеет важное значение для эффективной динамической настройки среды получения изображения лица. FIQA для изображений, которые не удалось идентифицировать, может предоставить обратную связь исследователям алгоритмов распознавания, которые целенаправленно улучшают эффективность распознавания.Разработке систем алгоритмов множественного распознавания можно способствовать путем выбора соответствующих конфигураций алгоритмов распознавания на основе качества изображения, чтобы система распознавания могла использовать изображения различного качества. Улучшению изображения можно способствовать путем выборочного улучшения изображения или выбора различных конфигураций улучшения для изображений разного качества. Кроме того, FIQA может применяться для слияния на основе качества, обслуживания базы данных [7] и подходов к динамическому распознаванию [8, 9].

Одна из проблем оценки качества изображения лица заключается в том, что результат FIQA должен быть тесно связан с распознаванием. В последнее время в некоторых исследованиях оценивались определенные факторы, такие как ясность, и объединялись результаты оценки каждого фактора для получения OQ [10, 11]; однако эти методы не имеют тесного отношения к эффективности распознавания. Исследователи предложили методы глубокого обучения для прогнозирования качества с использованием оценки сходства двух изображений данного человека в качестве меток [5].Хотя эти методы были использованы для достижения некоторых прорывов, по-прежнему не хватает методов, ориентированных на идентификацию, которые не сильно зависят от алгоритмов распознавания.

В данной работе проводятся эксперименты с базой данных (обозначаемой как база данных SC) изображений, собранных в идентификационных каналах. Поскольку люди готовы к распознаванию в этой сцене, снятые изображения в основном представляют собой фронтальные портреты без окклюзии, но включают световые искажения из-за неравномерного освещения и размытия из-за переходов между идентифицированными людьми.В основном мы проводим комплексную оценку яркости и резкости изображения лица с помощью контролируемых методов глубокого обучения на этих изображениях. Мы также используем тот же метод для проведения экспериментов с данными базы данных лиц CMU multi-PIE [12] (M-PIE) и перекрестной проверки на Labeled Faces in the Wild (LFW) [13]. Основной вклад этой статьи заключается в следующем: (i) влияние яркости и резкости на распознавание просто проверяется на M-PIE, и подходящие изображения очень высокого качества (VHQI) для каждого субъекта для идентификации выбираются с помощью международного стандарта [ 4, 14] и человеческого консенсуса [7] до маркировки изображений.(ii) Мы устанавливаем метки яркости и резкости, связанные с идентификацией. В результате изображения делятся на девять категорий, представляющих разную степень яркости и резкости. (iii) Классификационная модель обучается прогнозировать качество на основе самостоятельно созданной базы данных SC и установленных меток качества, а также проверяется качество классифицированных данных. В частности, структура сети взята из литературы [15] и улучшена. Метод установления меток отличается от метода, использующего только показатель подобия, который серьезно зависит от алгоритма распознавания и использует только субъективную оценку, отклоняющуюся от распознавания в этой статье.Обученная модель может предсказать, к какому классу принадлежит изображение, где классы представляют разные уровни яркости и резкости.

Этот документ организован следующим образом: В разделе 2 рассматриваются методы оценки качества изображений лиц. Раздел 3 описывает материалы и методы, включая базы данных лиц и предварительную обработку, метод выбора VHQI и установления меток качества, а также структуру сети. Экспериментальные настройки и результаты представлены в разделе 4. В разделе 5 представлены заключительные итоги этой работы и направления будущей работы.

2. Сопутствующая работа

FIQA является частью оценки качества изображения (IQA), но также является расширением понятия качества изображения. IQA можно разделить на (i) полный стандарт (FR) [16, 17], (ii) сокращенный стандарт (RR) [18, 19] и (iii) отсутствие стандарта (NR) [20–23]. категории в соответствии с объемом информации, предоставляемой эталонным изображением. FIQA также включают подходы на основе FR; например, существует соответствующая литература [24–26], в которой сообщается об использовании вычисления искажения яркости, структурного сходства (SSIM) и вероятностного сходства с эталонными изображениями лица.Однако методы FR и RR применять непросто из-за сложности получения неискаженных эталонных изображений. Необходимы исследования NR-IQA. Описанные ниже FIQA основаны на NR. FIQA можно разделить на неглубокое обучение (non-DL FIQA) и глубокое обучение (DL FIQA).

FIQA, не относящиеся к DL, в основном оценивают определенные факторы, такие как резкость, окклюзия, поза, симметрия, выражение, освещение и разрешение, с помощью определенных методов. Одно из ранних исследований, предложенных Gao et al.[27] продемонстрировали оценку симметрии по свету и позе, расстоянию между глазами, освещенности, контрасту и размытию. Другой метод оценки симметрии, предложенный Zhang и Wang [10], основан на функциях локального масштабно-инвариантного преобразования признаков (SIFT). Санг и др. [28] также оценили симметрию через освещение и позу на основе фильтра Габора и измерили размытие с помощью дискретного косинусного преобразования (ДКП) и обратного ДКП. В литературе [29] исследователи использовали DCT для оценки резкости. Насроллахи и др.[30] использовали метод наименьшего вращения лиц вне плоскости (LOPR) для оценки осанки. Кроме того, общее качество (OQ) всегда получается путем объединения результатов оценки каждого фактора. Nasrollahi и Moeslund [30] также измерили освещенность, размытость и разрешение, а также выполнили слияние весов для получения OQ. Подобный метод существует в литературе [31]. Чен и др. [32] разделили изображения на три категории: изображения без лица, изображения лица без ограничений и изображения лица идентификационной (удостоверяющей) карты, и предположили, что эти ранги постепенно увеличиваются.OQ на основе ранга, нормализованное до [0, 100], получено слиянием пяти признаков и применяется для изучения ранговых весов.

DL FIQA появились в последние годы и находятся почти под надзором. Чжан и др. [33] создали базу данных качества освещения изображения лица на основе оценок человека и обучили модель на основе ResNet-50 [34]. Экспериментальные результаты показывают, что прогнозируемое качество освещения тесно связано с метками, определенными людьми, но отсутствует связь между прогнозируемым качеством и эффективностью распознавания.Роуден и Джейн [5] установили метки качества для обучающей базы данных LFW с помощью двух методов оценки человека и зависимости от сопоставления. Учитывая установленные целевые значения качества лица, модель опорного вектора была обучена на чертах лица, извлеченных сверточной нейронной сетью (CNN), для прогнозирования качества изображений лица. Ю и др. [11] синтезировали 5 деградаций (масштабирование ближайших соседей, размытие по Гауссу, аддитивный белый гауссов шум, шум соли и перца и шум Пуассона) с 3 конфигурациями на CASIA WebFace [11] и обучили модель классификации на 16 классах изображений, включая исходное немодифицированное изображение и 15 изображений с синтетической деградацией.Оценки OQ были получены путем объединения 16 продуктов достоверности классификации ухудшения изображения и точности распознавания изображения лица при соответствующем ухудшении. В литературе [35] была предложена двухпоточная CNN под названием «глубокая оценка качества лица (DFQA)». Ян и др. [35] разделили показатели качества на 5 сегментов, которые были классифицированы по углу, четкости, освещенности, видимости, выражению и т. д., и установили ручные метки для 3000 изображений из ImageNet для обучения предварительно обученной модели SqueezeNet.DFQA был обучен прогнозировать баллы OQ в наборе данных MS-Celeb-1M [36] с метками качества, созданными предварительно обученной моделью. Эрнандес-Ортега и др. [37] предложил FaceQnet на основе ResNet-50 для качественного обучения на подмножестве из 300 предметов VGGFace2 [38]. Метки качества в этом эксперименте представляют собой сравнительные оценки, полученные с помощью нескольких экстракторов признаков между зондовыми изображениями и высококачественными изображениями, выбранными структурой BioLab-Международной организации гражданской авиации (ИКАО). Чжан и др.[39] и Zhuang et al. [40] использовали многозадачную структуру с несколькими факторами и метками OQ, которые были установлены людьми, и связанный с ними алгоритм для 3000 изображений из набора данных Janus Benchmark-A [41] (IJB-A) для исследований в области перспективных исследований (IARPA). Функции, извлеченные из передних общих слоев, устанавливаются в качестве входных данных слоя подзадачи для прогнозирования различных факторов качества, таких как поза. Выходы подзадачи объединяются для получения оценки OQ через полностью связанные слои.В последние два года появились неконтролируемые методы, включая SER-FIQ [42] и MagFace [43]. SER-FIQ использует надежность стохастического встраивания для оценки качества изображения лица. MagFace получает оценки качества, изучая универсальное представление распознавания лиц и оценки качества.

В этой работе мы объединяем оценку сходства алгоритмов распознавания лиц, метод классификации степени четкости зрительной системы человека и традиционный метод классификации яркости, чтобы установить метки яркости и резкости, связанные с идентификацией.Кроме того, учитывая, что мы установили метки FIQ для самостоятельно созданной базы данных, мы обучаем модель классификации на основе MobileNetV3 [15], которая может предсказывать OQ лица, который одновременно представляет ранг яркости и резкости. Насколько нам известно, это первая попытка объединить эффективность распознавания с человеческими оценками для меток FIQ.

3. Материалы и методы
3.1. Базы данных лиц и предварительная обработка

В этой работе использовались три базы данных лиц: M-PIE, собственная база данных SC и LFW. M-PIE был собран в условиях строгого освещения, позы и контроля выражения лица за четыре сеанса в течение пяти месяцев; эти данные состоят из 337 субъектов и более 750 000 изображений лиц с высоким разрешением. База данных SC состоит примерно из 5000 изображений лиц 945 субъектов, выбранных из каналов идентификации Wisesoft Co., Ltd. Субъекты были сотрудниками компании и согласились на использование своих изображений в исследовании. Конкретные методы скрининга будут описаны позже.Изображения в LFW были получены из естественных сцен из жизни, и в общей сложности было включено 13 233 изображения 5 749 субъектов, из которых более 70% субъектов имели только одно изображение. M-PIE содержит изображения лиц, полученные при условии изменения только одного фактора, в то время как другие факторы остаются оптимальными. Например, при съемке изображений в разных условиях освещения лицо оставалось во фронтальной позе с нейтральным выражением. Мы расширили M-PIE до 9 классов данных, аналогичных базе данных SC. Эксперименты обучались с использованием базы данных SC и M-PIE, а затем оценивались на LFW и подмножествах базы данных SC и M-PIE, отличных от обучающего набора. Результаты прогнозирования в наборе данных LFW использовались, чтобы увидеть, как результаты оценки коррелируют со зрительной системой человека и эффективностью распознавания.

В данной работе были обнаружены все изображения и отмечены пять ключевых точек (зрачки двух глаз, кончик носа и два угла рта) с помощью модели на основе многозадачной сверточной нейронной сети (MTCNN) [44], которая включил только сверточный слой на первом этапе; таким образом, ввод модели не ограничивался определенным размером.MTCNN в основном использует три каскадные сети: сеть предложений (P-NET) для быстрого создания окон-кандидатов, сеть уточнения (R-NET) для высокоточной фильтрации и выбора окон-кандидатов и сеть вывода (O-NET) для генерации окон-кандидатов. окончательные ограничивающие прямоугольники и ключевые точки лица. O-NET представляла собой регрессионную задачу, которая минимизировала евклидову потерю координат лицевых ориентиров (), полученных из сети, и наземных координат () для выборки. Евклидовы потери выглядят следующим образом:

В литературе [45] Бест-Роуден разделил FIQ на три сценария: (i) содержит ли изображение лицо, (ii) оценка точности выравнивания лица и (iii) качество совмещенного изображения лица.Мы обсудим третий сценарий. Изображения лиц должны быть предварительно обработаны, чтобы максимально выровнять лица в процессе распознавания лиц. Оценка входного изображения систем распознавания лиц имеет более практическое значение; следовательно, необходимо провести ту же предварительную обработку изображения, что и при распознавании в FIQA. Основываясь на обнаруженных ключевых точках, процесс предварительной обработки был следующим: сначала была найдена средняя точка, обозначенная P1, между двумя зрачками и средняя точка, обозначенная P2, между двумя углами рта.Затем мы соединили P1 и P2, чтобы получить отрезок L , вычислили угол между L и вертикальной линией как угол поворота, обозначенный θ , и повернули грань по часовой стрелке или против часовой стрелки на θ так, чтобы все лица имели одинаковую позу в самолете. Наконец, изображение лица увеличивалось или уменьшалось до заданного размера. В частности, мы масштабировали каждое изображение до 150 × 150 пикселей.

3.2. Проверка факторов яркости и резкости

В этом документе основное внимание уделяется яркости и резкости изображения, и мы используем конкретные данные, чтобы проиллюстрировать степень влияния на распознавание этих двух факторов, прежде чем представить метод установления меток качества.M-PIE содержит изображения, сделанные при 19 условиях освещения, при которых другие факторы качества являются оптимальными (см. рис. 1). Эта база данных подходит для проверки влияния отдельных факторов на идентификацию и поэтому выбрана для проверки влияния резкости и яркости на распознавание. Мы протестировали распознавание изображений в различных условиях освещения с помощью классического алгоритма распознавания лиц (FRA-A), основанного на Light CNN-9 [46] с модулями max-feature-map (MFM). Мы знаем, что зрительная система человека очень точно распознает людей, поскольку она даже лучше, чем современные современные системы распознавания [47, 48]. Точно так же некоторые исследования [5, 31, 49] подтвердили возможность использования зрительной системы человека в FIQA. В следующей работе мы использовали систему распознавания человека, чтобы помочь в выборе изображений и установлении меток. M-PIE не содержит изображений вне света. Поэтому мы сделали некоторые изображения ярче с помощью экспоненциальной операции мощности посредством преобразования изображения, чтобы проверить качество изображений вне света. Гамма ( G ) параметры 0,14 и 0,28 были выбраны для увеличения изображений Bri0 и Bri1 соответственно (см. Рисунок 2).Обычно, чтобы свести к минимуму ошибку, вызванную маркировкой отдельных изображений на основе показателей сходства (SS), определенных для пары изображений, необходимо выбрать подходящий VHQI для каждого субъекта для идентификации или проверки. Также необходимо выбрать изображения с наиболее подходящей яркостью в качестве VHQI, а затем проверить точность верификации (VA) изображений с разной яркостью.



По заданному показателю яркости (последние две цифры имени файла изображения) M-PIE и зрительному восприятию человека были отобраны изображения яркости (имя файла с «06~08», названное Bri2) с высокими ВА .Образцы более темных изображений постепенно добавлялись к ранее выбранным образцам. После добавления некоторых темных изображений VA изменилась очень мало, поэтому мы добавили больше темных образцов для одновременного проведения теста FRA-A и получили результаты в таблице 1. Идентификация каждого типа тестового изображения приведена ниже: Bri2 (06–08), Bri3 (05–09), Bri4 (05–09 и 15–17), Bri5 (04–11 и 14–18), Bri6 (02–18) и Bri7 (0–19) . В таблице 1 показаны VA для этих типов изображений, где Bri1 представляет два типа изображений Bri2 и Bri1 , а Bri0 представляет три типа изображений Bri2, Bri1 и Bri0 .VA Bri2 была пиковой и была явно выше, чем VA Bri1. VA Bri3 была очень близка к результату Bri2 и показала значительное снижение по сравнению с VA Bri4. Таким образом, Bri3 был выбран в качестве VHQI. Изображения одинаковой яркости, отмеченные как Bri4 (15~17), Bri5 (04, 10~11, 14 и 18), Bri6 (02 и 03) и Bri7 (00, 01 и 19) были соединены с одним и тем же человеком в VHQI перед тестированием. При сравнении производительности модели, чем больше площадь под кривой рабочей характеристики приемника (ROC) (AUC), тем лучше будет эффект модели.При неизменном алгоритме распознавания AUC была пропорциональна качеству изображения. На рис. 3 показаны ROC-кривые для разных яркостей при FRA-A. Поскольку яркость была единственным искажением, было несколько типов данных с хорошими и очень близкими показателями распознавания. Чтобы более четко показать эффект классификации каждого типа данных, были скорректированы вертикальные и горизонтальные координаты. На рис. 3 видно, что скорость распознавания изображений Bri3 является самой высокой, а скорость распознавания постепенно снижается с повышением яркости и затемнением.


Data BRI0109 BRI1 BRI4 BRI5 BRI6 BRI7

TAR (%) @ 1% 96.82 99.21 99.21 99.00 99.96 99.96 99.85 99.73 99.73 99.89 98.89
TAR (%) @ 0.1% FAR 88,16 95,58 99,58 99,40 98,64 97,77 95,56 93,83
ТАР (%) @ 0,01% ВСР 75,80 89,31 98,67 97.80 95.71 93.30 93.30 88.52 88.52 84.89


TAR: True Reachment; FAR: частота ложных срабатываний.


Для изучения влияния резкости на скорость распознавания мы синтезировали четыре степени размытия изображений (Blu1~Blu4) с размытием в движении и тестировали изображения. Размытие добавлялось путем свертки изображения с ядром, которое было получено аффинным преобразованием матрицы поворота, сгенерированной размером ядра (K) и углом поворота (45°). Исходное изображение и составное изображение показаны на рисунке 4. В таблице 2 и на рисунке 5 показаны результаты тестирования.С уменьшением четкости скорость распознавания каждого типа данных значительно снизилась, а Blu4 оказался совершенно непригоден для распознавания.


3.3. VHQI каждого субъекта

В этой работе мы выбрали VHQI каждого субъекта в базе данных SC с высоким разрешением, подходящей яркостью, отсутствием окклюзии, фронтальными позами и нейтральными выражениями, используя алгоритмы распознавания лиц, системы человеческого зрения и традиционные методы расчета яркости. .Конкретные процессы заключаются в следующем:

Низкокачественные изображения лиц с интерференционными факторами (нефронтальная поза, окклюзия и ненейтральное выражение) из исходного набора изображений Q0 были максимально исключены через зрительную систему человека для получения изображения установить Q1.

Изображения высокой четкости, обозначенные Q2, были вручную отобраны из набора изображений Q1 двумя людьми. Принцип специфического скрининга был основан на абсолютной шкале метода субъективной оценки [50], как показано в таблице 3.Когда изображения оцениваются в 5 баллов, они классифицируются как Q2.


Data BLU0 BLU1 BLU2 BLU3 BLU4

TAR (%) @ 1% 99.97 97,20 91,02 47,47 18. 87
TAR (%) @ 0,1% 99.56 99.48 88.48 73.44 73,44 15.13 2.32
TAR (%) @ 0,01% 98.79 76.67 54.58 54.58

оценка / Уровень Масштаб качества


5 баллов / Отлично Нет признаков того, что качество изображения ухудшилось.
4 балла/хорошо Качество изображения ухудшилось, но просмотру не мешает.
3 балла/удовлетворительно Очевидно, что качество изображения ухудшилось и немного мешает просмотру.
2 балла/плохо Есть помеха просмотру.
1 балл/плохо Изображения очень сильно мешают просмотру.

Изображения различной яркости в Q2 были выбраны для тестирования, чтобы определить соответствующую яркость. Мы обрезали область лица 96 × 96 от центра изображения лица, чтобы уменьшить влияние фона. Яркость области лица определялась по распределению значений серого.Предположим, что количество пикселей, значение серого которых было между и (где было меньше ), равно m , а общее количество пикселей равно n . P i ( m / n ) — доля пикселей в заданном интервале яркости. Значения , , и P i являлись определяемыми яркостными параметрами. Начальный диапазон яркости [ k 0 , k 1 ] и P i выбирался вручную.Затем мы непрерывно регулировали яркость изображений, предполагая, что диапазон регулировки яркости составляет [ k 0− p , k 1+ q ], где p 2 и были положительными параметрами. После каждой корректировки проводился тест распознавания лиц на нескольких изображениях одного и того же человека при определенной яркости, где n — количество корректировок, а ВА получали при FAR, равном 0. 01% с разной яркостью. Соответствующие яркости появились, когда ОП стала явно меняться; то есть яркость, соответствующая разнице между VA и всеми предыдущими VA, была меньше или равна α , а разница между VA и всеми последующими VA была больше или равна β ( α  < β ). Визуальное объяснение показано на рис. 6, где VA и изменяющийся тренд VA являются гипотезами для интерпретации.Мы получили изображения высокого разрешения с хорошей яркостью (is 90, is 200 и P i is 0,65) и назвали их Q3.


VHQI каждого объекта был получен путем тестирования нескольких изображений одного и того же объекта в Q3 и выбора 80% лучших пар изображений, которые были ранжированы, когда показатель сходства был выше соответствующего порогового значения при FAR 0,01% . Как мы и ожидали, СС пар изображений в основном превышали это пороговое значение.Блок-схема определения VHQI показана на рисунке 7.


3.4. Создание знаков качества

На основе создания VHQI мы наняли FRA, обученных работе с собственной базой данных, включающей четыре миллиона изображений и ручную оценку, для установления знаков качества для базы данных SC. Приведенные выше эксперименты демонстрируют, что резкость более чувствительна к распознаванию, поэтому мы использовали скорость распознавания, чтобы помочь в классификации резкости. Затем мы классифицировали яркость данных с разной резкостью.

Темный (был 0, был 80 и Р и был 0,75) и светлый диапазоны (был 150, был 255 и Р и в) были определены аналогично способ. Отличия вышеперечисленных методов заключались в том, что выбранные изображения разной яркости формировались в положительные образцы со стандартными изображениями, а по результатам распознавания определялись p и q .

Классификация изображений лиц должна иметь соответствующее значение в категории качества биометрических образцов.Качество биологических образцов можно разделить на три категории. (i) образцы низкого качества (LQS), которые нельзя использовать для идентификации или которые могут дать плохие результаты идентификации. По возможности эти образцы следует заменить образцами высокого качества. (ii) Образцы среднего качества (MQS), которые могут дать хорошие результаты сертификации в большинстве сред, но в приложениях, основанных на требованиях, необходимо включать образцы высокого качества. (iii) Высококачественные образцы (HQS), которые могут дать хорошие результаты сертификации при любых обстоятельствах.

Изображения лиц без VHQI были разделены на три категории в соответствии с SS, где каждая категория представляет соответствующую значимость категории качества для биометрических образцов. Если у субъекта есть несколько VHQI, оценка сходства изображения, созданного с помощью метки, представляет собой среднее значение сходства всех соответствующих VHQI. Изображения с SS ниже порога 1 (T1) определяются как LQS. Изображения с SS выше порога 2 (T2) и ниже порога 3 (T3) представляют MQS. Изображения с SS выше T3 являются HQS.

Предыдущие три порога были получены с помощью FRA-A и FRA-B. FRA-B — это коммерческий фейс-маттер для каналов самоидентификации. Мы предполагаем, что термины A , B и C используются для представления пороговых значений для FRA-A при 1%, 0,1% и 0,01% FAR соответственно, и что L , M , и N являются соответствующими аналогами FRA-B. Чтобы гарантировать, что установленные метки не сильно зависят от одного алгоритма распознавания, мы использовали пороговое значение в сочетании с двумя алгоритмами для классификации изображения.Для одной и той же пары изображений с признаками, выделенными разными типами распознавания, могут быть получены разные СС. Поэтому показатель сходства, рассчитанный с помощью FRA, был преобразован на основе порогового (при 0,01% FAR) преобразования двух алгоритмов распознавания для одного и того же значения. Если C больше, чем N , T 1, T 2 и T 3, можно представить следующими формулами: и T 3 равны 0.4, 0,54 и 0,65 соответственно после трансформации. Оценки сходства пар изображений, полученные с помощью FRA-A, были умножены на N / C . Граница между MQS и HQS была установлена ​​через определенный интервал, чтобы сделать два типа выборок более различимыми. Каждое изображение класса было просмотрено зрительной системой человека с критериями уточнения определения, как показано в таблице 4. Изображения L_1blur (очень нечеткое), M_2blur (четкое) и H_3blur (высокая четкость) были выбраны из LQS, MQS и HQS. соответственно.

0


Знак Shaintess

Нет Ущерб Наблюдается H_3Blur (высокая ясность)
Изображение повреждено, но все еще Приятные / слегка неприятно M_2Blur (ясно)
Изображение неприятно / очень неприятно L_1BLUR (очень нечеткий)

Наконец, каждая из вышеуказанных трех категорий была разделена на три категории в зависимости от диапазонов яркости, определенных выше.Из оставшихся изображений, выбранных из двух категорий яркой и темной яркости, мы выбрали изображение с определенной разницей яркости между яркой и темной яркостью как подходящую яркость, которая соответствует уровню яркости предыдущих критериев выбора. На основе создания VHQI блок-схема для установки этих меток показана на рисунке 8. Изображения лиц были разделены на девять категорий. В следующем разделе были синтезированы данные M-PIE для моделирования этих девяти типов данных.


3.5. Структура сети

На основе меток качества, установленных для набора данных выше, мы попытались обучить модель классификации для прогнозирования качества изображения. Учитывая, что глубокое обучение использовалось для достижения больших успехов в области компьютерного зрения, мы также приняли этот метод для достижения цели этого исследования. Важным применением FIQA является встраивание его в систему распознавания лиц в режиме реального времени для повышения эффективности распознавания или проверки.FIQA должна быть очень эффективной; в противном случае не имело бы смысла использовать FIQA в системах распознавания лиц в реальном времени. Эта эффективность включает в себя хранение модели и скорость прогнозирования. Проблема хранения моделей заключается в том, что большое количество весовых параметров предъявляет высокие требования к памяти устройства. Проблема скорости в основном связана с низкой производительностью процессора или высокими вычислительными требованиями. Облегченные сети классификации стали нашим основным выбором для повышения эффективности. Мы приняли облегченный MobileNetV3 для прогнозирования FIQ.MobileNetV3 создается за счет сочетания проектирования сети и алгоритмов автоматизированного поиска, включая поиск по сетевой архитектуре (NAS) и алгоритм NetAdapt. MobileNetV3 обеспечивает более высокую точность при одновременном снижении задержки классификации.

MobileNetV3 улучшен по сравнению с MobileNetV2 [51] и включает ресурсоэффективный блок с инвертированными остатками и линейными узкими местами. Эти улучшения были реализованы путем перепроектирования дорогостоящих слоев, введения новой нелинейности и добавления субмодуля сжатия и возбуждения (SE) [52].Первоначальный набор фильтров уменьшился с 32 до 16, несколько последних слоев сети были удалены, а положение изменено для сохранения точности и уменьшения задержки. Была предложена жесткая версия swish (h-swish), которая использовалась во второй половине модели для уменьшения количества памяти. Swish и h-swish определяются следующими формулами. SE, фиксированный на 1/4 числа каналов, был добавлен после свертки по глубине (DW):

Две модели MobileNetV3, названные MobileNetV3-Large и MobileNetV3-Small, были созданы для вариантов использования с высоким и низким уровнем ресурсов соответственно.FIQA предпочтительно имеет более быстрое время отклика, поэтому для этой работы был выбран MobileNetV3-Small. В литературе [53], вдохновленной сокращением сети, Xu et al. предположил, что таргетинг IdleBlock создает большее рецептивное поле, и представил гибридную композицию IdleBlock с обычными блоками, которые имеют ограниченные входные и выходные размеры. Было показано, что гибридные композиционные сети с IdleBlocks более эффективны и способны как сократить объем вычислений, так и добиться реального увеличения скорости. IdleBlock реализуется с помощью простого метода обрезки, который включает объединение подпространства (каналов, α между 0 и 1) входных данных, включая каналы C и оставшееся подпространство () с преобразованиями. Иллюстрация с перевернутым остаточным блоком (MBBlock) показана на рисунке 9. В этой работе мы заменили два MBBlock на IdleBlock с наполовину очищенными каналами. Последние два слоя были заменены полносвязными слоями. Архитектура MobileNetV3-Small с IdleBlock показана на рисунке 10.



4. Результаты и обсуждение

В этом разделе была проведена серия экспериментов для проверки эффективности предложенного метода. Мы продемонстрировали эффективность модели классификации, используя различные индикаторы оценки классификации.Мы сообщаем о рациональности установленных меток и надежности предлагаемого метода FIQA для различных FRA. Наконец, мы провели эксперимент по перекрестной проверке LFW.

4.1. Синтез данных на M-PIE

Чтобы более прозрачно объяснить возможность реализации метода установления меток и производительность метода оценки, мы синтезировали изображения с различной степенью яркости и резкости путем регулировки яркости и реализации упомянутых выше методов размытия. .Как и в базе данных SC, выбранные данные из M-PIE содержат фронтальные позы и нейтральные выражения. Три типа размытых изображений (L_1blur, M_2blur и H_3blur) получаются путем установки параметра K на 12 и 20. Соответствующий, яркий и темный диапазоны яркости соответствуют яркостям Bri3, Bri1∗ и Bri7∗ соответственно. В частности, данные Bri7∗ меньше, чем данные двух других яркостных изображений, поэтому данные Bri6∗ и число «18» затемнены до яркости Bri7∗. Мы применили метод, описанный в предыдущем разделе, для установки меток и просмотрели в общей сложности около 15 000 изображений, в том числе около 3 000 изображений «3nor» и 1 500 изображений из других 8 категорий.9 типов синтезированных и размеченных изображений M-PIE показаны на рисунке 11.


4.2. Настройка обучения

В нашей реализации для ускоренного обучения использовалось оборудование с 4 графическими процессорами GeForce GTX 2080Ti, а среда глубокого обучения PyTorch была адаптирована под операционную среду Ubuntu 16. 04. Был выбран стохастический градиентный спуск с импульсом 0,9. Скорость обучения была инициализирована до 0,01 с размером пакета 256 и уменьшена до 1 e  - 5 в соответствии со стратегией настройки.Размер входного изображения был зафиксирован на 96 × 96, и входное изображение было предварительно обработано как входные данные выбранных FRA. Восемьдесят процентов помеченных наборов данных SC и CMU используются в качестве обучающих наборов, а остальные используются для тестирования. Все модели обучались на 100 эпохах.

4.3. Результаты модели классификации
4.3.1. Результаты модели классификации в базе данных SC

Самый простой способ оценить модель классификации — вычислить ее точность. Точность — это процент от количества правильных прогнозов в общем количестве выборок.Показатели точности обученной модели под названием FBSA_M (модель яркости и четкости лица) и FBSA_M1 с использованием MobileNetV3-Small в базе данных SC без и с IdleBlock составили 89,83% и 90,87% соответственно. Поскольку точность не является исчерпывающим показателем оценки, мы также рассчитали точность и полноту. Прецизионность — это вероятность того, что образцы действительно окажутся положительными среди всех образцов, предсказанных как положительные. Отзыв определяется как отношение количества образцов, которые, по прогнозам, будут положительными, к истинному количеству положительных образцов.Точность и отзыв каждого класса отображаются в таблице 5.

прецизионные (%) 91.67
Отзывы (%) Отзывы (%)

1bri 96.43 91.01 91.01
80104 80.00 82.19 82.19
3 970109 87.30 91.67
1nor 86.25 90.79
2nor 85,59 82,79
3nor 87,07 84,17
1dark 100,00 97,50
2dark 92,19 98,30
3dark 99,15 96,67

Таблица 5 показывает, что три класса изображений L_1blur имеют лучшие эффекты классификации. Результаты трех типов изображений M_2blur относительно плохие. Причина этих плохих результатов может заключаться в том, что интервал доли подобия для трех типов изображений H_3blur мал, что затрудняет классификацию модели. Кроме того, мы иллюстрируем матрицу путаницы результатов классификации на рисунке 12, чтобы показать класс, к которому был отнесен каждый образец. В целом, большинство изображений были правильно классифицированы. По сути, неправильно классифицированные образцы были сгруппированы в смежные категории, которые имели одинаковую степень размытия или яркости.Количество выборок, которые были ошибочно предсказаны как L_1blur, было чрезвычайно мало, что указывает на то, что модель по-прежнему эффективна при ограничении распознавания изображений низкого качества (L_1blur).


4.3.2. Результаты модели классификации на M-PIE

На M-PIE точность классификации модели составила 99,00 % и 99,51 % без и с IdleBlock (FBSA_M2) соответственно. Эффект классификации модели очень хороший, поэтому мы не показываем соответствующую матрицу точности, полноты и путаницы модели. Влияние на M-PIE лучше, чем на базу данных SC, вероятно, потому, что данные M-PIE были собраны в контролируемой среде, и каждый вид синтезированных данных имел превосходную согласованность, что упростило классификацию.

4.4. Производительность FIQA

Кривая «ошибка-отказ» [54] (ERC), предложенная Гротером и Табасси, часто используется для оценки эффективности FIQA. В этом методе FRA используются для определения совпадения пар изображений, а FIQA используется для прогнозирования качества изображения для последующей фильтрации.Во-первых, частота ошибок выбирается на основе фиксированного порога оценок сходства. Затем частота ошибок пересчитывается путем удаления изображений, показатели качества которых, предсказанные моделью FIQA, ниже постоянно растущего порога качества. Наконец, порог качества берется за абсциссу, а пересчитанная частота ошибок берется за ординату для построения кривой и получения ERC.

Метки качества, установленные для изображений в этой статье, были метками категорий, и каждая категория представляла разное качество. Поэтому при рисовании ERC мы решили удалить определенный тип изображения, а не выбирать пороги качества и удалять изображения ниже этих порогов. Из этой кривой можно определить целесообразность наших меток и эффективность классификации моделей. Чтобы убедиться, что обученная нами модель прогнозирования качества по-прежнему эффективна для других алгоритмов распознавания, мы выбрали четыре алгоритма для проверки эффекта оценки качества. Четыре алгоритма включали сеть Light CNN-9 плюс сеть остаточного уровня (FRA-C), LightCNN-29 (FRA-D), IR-50 [55] (FRA-E) и IR-152 [55] (FRA-E). Ф).FRA-C обучался на том же тренировочном наборе, что и FRA-A. FRA-D, FRA-E и FRA-F прошли обучение на MS-Celeb-1M. Мы выбрали частоту ложных несоответствий (FNMR) в качестве частоты ошибок с начальными значениями 0,20 и 0,35, чтобы показать взаимосвязь между качеством прогнозирования и эффективностью распознавания для всех FRA, упомянутых в этой статье.

4.4.1. Производительность FBSA_M1 в базе данных SC

Результирующие ERC показаны на рисунке 13 после удаления каждого типа изображения в соответствии с предсказанными метками в базе данных SC. В целом три категории изображений (L_1blur, M_2blur и H_3blur) имели определенную степень дискриминации. Когда порог был равен 0,2 FNMR, изображения L_1blur демонстрировали хорошее отличие от других 6 категорий изображений для всех FRA. Эти 3 категории M_2blur аналогичны результатам «3dark» и «3bri». Это сходство может быть частично связано с ошибкой взаимной классификации между M_2blur, «3nor» и «3bri», что приводит к тому, что некоторые из предсказанных категорий M_2blur превышают требуемый порог; аналогично, противоположное дело обстоит с «3bri» и «3nor.Причина такой ситуации может быть отчасти и в том, что численность этих классов ниже порога одинакова. Однако средний балл M_2blur был ниже, чем у «3dark» или «3bri», поэтому при пороге 0,35 четко различались M_2blur и H_3blur. В случае двух порогов все FNMR 6 FRA значительно уменьшились после удаления трех типов изображений L_1blur. Этот результат указывает на то, что эти три типа изображений затрудняют распознавание даже для FRA-C, FRA-D, FRA-E и FRA-F, которые не участвовали в установлении меток качества. После того, как три типа изображений H_3blur были удалены, значения FNMR увеличились в разной степени, а это означает, что эти изображения могут способствовать распознаванию. Для всех FRA FNMR достигали своего пика после удаления «3nor»; это явление согласуется с определением изображений «3nor» как VHQI в этой статье. Упомянутые эксперименты показывают, что предлагаемый метод имеет определенную совместимость для обобщения на другие FRA.

В таблице 6 представлены результаты для FRA с модулем оценки качества и без него.Эксперименты без этого модуля называются базовыми. Методы сравнения включают в себя метод глубокой билинейной CNN (DBCNN) общего назначения IQA [23] и два FIQA, то есть FaceQnet [37] и MagFace [43]. Мы предварительно обучили CNN с синтетическим искажением (SCNN) в DBCNN на LFW и расширенных данных (перекрестная проверка установлена ​​​​в 4.5) и точно настроили DBCNN. Между тем, чтобы проверить эффект добавленного нами IdleBlock, мы также провели эксперименты по абляции с FBSA_M. Три метода сравнения вводят изображение и предсказывают соответствующий QS.Наш набор данных можно условно разделить на три типа качественных изображений. FIQA, который предсказывает результат для QS, требует применения порога для классификации изображения; однако этот порог нелегко определить. Поэтому мы разделили показатели качества, предсказанные каждым методом сравнения, на три категории, причем наименьшее качество представляло изображения, отфильтрованные с помощью FRA.

Примечание . Наличие модели прогнозирования качества означает, что TAR пересчитываются после того, как прогнозируемые изображения низкого качества отбрасываются. Изображения L_1blur (1br, 1nor и 1dark), предсказанные нашими моделями, и нижняя треть изображений, предсказанных методом трех сравнений, были отброшены.Значения, выделенные жирным шрифтом, означают, что при разных FAR модели FIQA лучше всего подходят для повышения скорости проверки для разных FRA и должны дать читателям более быстрое понимание производительности алгоритмов FIQA.

909 97,52

FRA (F)IQA TAR (%) @ 1% FAR TAR.1% TAR (%) @ 0,01%
81.39 61.39 64.24 42.63
DBCNN 82.14 61.98 61.98 61.98 61.98 61.98 61.98 61.98 61.98 36. 79
Faceqnet 91.61 98.19 98.19 54.28
80.04 62.46 42.54 42.54
97.31 80,97 54,10
FBSA_M1 98,50 81,16 54,00

FRA-B Исходные 83,26 64,99 37,57
DBCNN 80.88 80.88 64.55 64.55 45.35
93.80 93.90 77.95 77.95 48.41
Magceation 81.03 61,05 35,71
FBSA_M 96,59 81,56 47,62
FBSA_M1 81,82 47,40

FRA- C Базовый уровень 91. 55 66.79 37.95 37.95 37.95
DBCNN 82.14 56.83 56.83 34.04
FaceQnet 96.36 78,61 48,74
MagFace 86,19 65,23 38,94
FBSA_M 98,65 82,15 47,13
FBSA_M1 99,16 82.41 47.96 47.96

FRA-D Базовый уровень 81.37 65.82 40.31
DBCNN 80,23 62,68 40,33
FaceQnet 92,35 78,52 51,72
MagFace 80,39 64,35 41,05
FBSA_M 97. 06 82.31 51.11 51.11
98.16 92.41 92.41 50.88

FRA-E Baseline 85.26 63,98 30,32
DBCNN 84,46 61,45 30,85
FaceQnet 91,47 75,72 39,84
MagFace 85,23 62,77 31.78
FBSA_M 97.31 97.31 80.05 38.38 38.38
FBSA_M1 97.86 79.43 38,27

FRA-F Исходные 86,15 69,75 35,20
DBCNN 85,46 67,83 35,27
FaceQnet 93. 61 80.38 80.38 45.29 45.29
85.23 85.23 68.74 68.74 35.29
FBSA_M 97.14 85.30 44.30 44.51
97.86 97.86 95.67 0 85.67 44.51 4451

При фиксированных значениях FAR улучшены все показатели FRA с FaceQnet, FBSA_M и FBSA_M1 в отношении отклонения некачественных изображений. С FBSA_M1 TAR максимально увеличивается на 17,11 %, 16,91 % и 11,37 % для FRA-A при 1 % FAR, 0,1 % FAR и 0,01 % FAR соответственно.Для большинства алгоритмов FR результаты FBSA_M1 лучше, чем у FBSA_M. Для других FRA, которые не участвовали в создании меток, показатели распознавания улучшились как минимум на 7,61%, 15,45% и 7,95% после использования модуля FBSA_M1 для фильтрации некачественных изображений. Наш FBSA_M1 как минимум на 2,8% лучше, чем у FaceQnet с FAR 1%, и немного хуже (0,1%). DBCNN — отличный IQA общего назначения, но DBCNN может не изучить характеристики качества, связанные с распознаванием в базе данных SC, из-за разницы между предварительно обученными данными и реальными данными.MagFace малоэффективен, вероятно, из-за небольшого обучающего набора по сравнению с 5,8-мегапиксельными изображениями в исходной статье. Эти эксперименты показывают, что предложенный FBSA_M1 может отклонять изображения низкого качества для повышения эффективности распознавания.

4.4.2. Производительность FBSA_M2 на M-PIE

Результирующие ERC показаны на рис. 14 после удаления каждого типа изображения в соответствии с предсказанными метками в M-PIE. ERC аналогичны результатам для базы данных SC. При двух пороговых значениях FNMR всех FRA значительно уменьшились после удаления L_1blur; как и ожидалось, результаты были обратными после удаления H_3blur.Кроме того, без «3нор» ФЯМР достигали своего максимума. M_2blur, «3dark» и «3bri» имели общий эффект при пороге 0,2 FNMR, но эффект улучшался при пороге 0,35 FNMR. Точно так же было предсказано, что «3nor» будет иметь лучшее качество. L_1blur, M_2blur и H_3blur имели очевидные различия в эффективности распознавания, что указывает на то, что результаты оценки модели оценки качества в этой статье сильно коррелируют с эффективностью распознавания.

В таблице 7 приведены результаты проверки с различными FIQA и без них в M-PIE. С FBSA_M2 TAR увеличился на 23,18 % для FRA-F, 25,52 % для FRA-A и 17,08 % для FRA-A при 1 % FAR, 0,1 % FAR и 0,01 % FAR соответственно. Для всех FRA TAR улучшился как минимум на 10%. Подобно результатам в базе данных SC, наш FBSA_M2 был значительно выше при 0,1% FAR, за исключением FRA-D, и был немного ниже, чем у FaceQnet, за исключением FRA-A. С увеличением данных обучающей выборки DBCNN и MagFace оказали значительное влияние, но эффект был не таким хорошим, как у нашего метода для большинства FRA.FaceQnet немного выше, чем наш метод для FRA-C и FRA-D, но в целом наша модель прогнозирования качества была эффективна для фильтрации изображений низкого качества для повышения скорости распознавания.



99.77


FRA (f) IQA (F) IQA TAR (%) @ 1% намного TAR (%) @ 0,1% намного TAR (%) @ 0,01% намного

FRA-A Базовый уровень 82,42 68. 90 43,89
DBCNN 87,69 73,64 59,07
FaceQnet 92,41 81,46 72,03
MagFace 87,49 74,35 65,25
FBSA_M2 100 94.42 6097 60.97

FRA-B Базовый уровень 80.46 63,36 46,15
DBCNN 90,66 76,73 64,54
FaceQnet 93,31 81,40 63,89
MagFace 87,63 74,14 59.26
FBSA_M2 99.77 84.60 84.60 64.01 64.01

FRA-C Базовый уровень 55. 35 44,67 40,38
DBCNN 79,97 58,72 47,07
FaceQnet 71,86 63,19 59,45
MagFace 65,92 57.44 55.03 55.03
FBSA_M2 76.22 62.07 56.11 56.11


FRA-D Базовый уровень 44.73 40,17 34,36
DBCNN 54,47 49,40 43,42
FaceQnet 62,29 57,37 50,55
MagFace 57,55 53.81 48.59 48.59
FBSA_M2 62.14 55.81 55.81 47.74 47. 74

FRA-E Базовый уровень 61.10 48,17 42,41
DBCNN 73,28 57,40 51,49
FaceQnet 76,53 64,82 59,29
MagFace 69,89 59,75 55.77
FBSA_M2 8345 83.45 66.90 58.92 58.92

FRA-F Базовый уровень 62.06 47,62 42,73
DBCNN 73,56 56,32 56,27
FaceQnet 77,69 64,21 60,34
MagFace 70,16 58,70 55.95
FBSA_M2 85. 24 85.24 66.14


Производственные ценности означают, что в разных дарках, FIQA, которые являются лучшими для улучшения скорости валидации для различные FRA и должны дать читателям более быстрое понимание производительности алгоритмов FIQA.

4.5. Производительность кросс-базы данных

Мы убедились, что наш метод демонстрирует хорошие обобщения для различных FRA. Также были проведены эксперименты по проверке возможности обобщения для другого набора данных LFW. Мы использовали зрительную систему человека, чтобы помочь в установлении меток, поэтому мы также проверили, соответствуют ли результаты оценки зрительной системе человека. Мы оцениваем различные степени факторов яркости и резкости изображений лиц, и диапазон деградации этих двух факторов в LFW невелик. Поэтому мы настроили яркость и резкость изображений методом, аналогичным расширению M-PIE. У большинства субъектов в этом наборе данных было только одно изображение, и большинство изображений включало неположительные позы и ненейтральные выражения, поэтому для сопоставления изображений не хватает требуемого VHQI. Этот эксперимент был просто проверкой, чтобы определить, работает ли наша модель, когда изображения включают несколько факторов искажения. Мы выбрали данные с более чем двумя изображениями одного субъекта для тестирования.Поскольку искажения резкости и яркости были расширены так же, как и M-PIE, мы использовали модель качества, обученную M-PIE, для прогнозирования. ERC всех FRA представлены на рисунке 15.

Рисунки 15(a) и 15(b) показывают, что при двух начальных пороговых значениях FNMR может быть значительно уменьшен после удаления изображений, таких как L_1blur; аналогично, FNMR может быть значительно увеличен после удаления изображений, таких как H_3blur. Эти два начальных порога нельзя было использовать для отделения «3dark» от M_2blur, поэтому мы установили начальный порог равным 0. 6 FNMR и нарисовали ERC (см. рис. 15(c)) для проверки эффективности нашей модели. Таким образом, различия в качестве между тремя типами изображений могут быть визуализированы более четко. Таким образом, наша модель может различать три типа данных (L_1blur, M_2blur и H_3blur), и эти три типа данных сильно коррелируют с эффективностью распознавания.

Результаты для FRA с современным методом и предложенным методом и без него показаны в таблице 8. После того, как FIQA были использованы для фильтрации изображений низкого качества, TAR улучшились для большинства FRA.Наш метод продемонстрировал лучшую производительность, с самыми высокими улучшениями 25,69% при 1% FAR, 13,34% при 0,1% FAR и 5,53% при 0,01 FAR для FBSA_M2. FBSA_M2 продемонстрировал лучшую производительность по сравнению с FBSA_M1, что может быть связано с тем, что обучающие данные FBSA_M2 были синтезированы таким же образом, как и этот набор проверочных данных. FBSA_M1, обученный на данных из сценариев практического применения, все равно оказался лучше, чем FaceQnet. Наш метод также дал точные предсказания резкости и яркости.DBCNN оказывает некоторое влияние на все FRA, кроме FRA-A, а MagFace мало влияет на наборы перекрестной проверки. Поскольку IQA частично отличается от FIQA, хороший IQA общего назначения может не подходить для задач FIQA. При 0,01% FAR у TAR был низкий уровень распознавания. Этот результат связан с тем, что изображения в LFW содержали различные факторы искажения и были хуже по качеству после ухудшения яркости и резкости, в результате чего очень мало данных превышало порог 0,01% FAR. С помощью нашей модели оценки качества можно эффективно повысить эффективность распознавания, отбрасывая некачественные изображения для различных FRA и наборов данных.Предлагаемый метод обладает большей надежностью.


9079

FRA (f) IQA (F) IQA TAR (%) @ 1% намного TAR (%) @ 0,1% намного TAR (%) @ 0,01% намного
FRA-A BaseLine 55. 209 55.67 24.67 10.87
DBCNN 50104 50.41 25.15 13.15
60104 60104 60.92 28,33 12,25
MagFace 53,14 23,93 10,79
FBSA_M1 67,50 33,73 14,78
FBSA_M2 71,32 36,01 16.40 16.40

FRA-B Базовый уровень 47.47 24.50 13.59
DBCNN 52,44 25,53 13,43
FaceQnet 50,28 25,57 13,43
MagFace 45,90 22,62 11,51
FBSA_M1 54.70 28.83 15. 68 15.68
57.52 57.52 30.87 1 0 17.83

FRA-C Baseline 45.19 17,14 7,03
DBCNN 50,67 18,95 7,25
FaceQnet 51,44 19,84 7,80
MagFace 42,60 16,69 6,96
FBSA_M1 61.32 25.77 11.77 11.15
FBSA_M2 65.60 65.60 26.81 11.50

FRA-D Исходные 43,08 16,75 7,17
DBCNN 48,51 18,64 7,44
FaceQnet 50,04 19. 74 8.12 8.12
MagCeace 42.09 42.73 15.73 6.14
FBSA_M1 61.43 61.43 26.81 11.85
FBSA_M2 64,96 26,90 11,88

FRA-Е Исходные 57,63 19,31 7,28
DBCNN 64.52 21.67 21.67 7.62
FaceQnet 65.49 23.49 23.09 8.23 ​​ 8.23 ​​
56.33 17,73 6,28
FBSA_M1 76,33 32,75 12,15
FBSA_M2 83,32 31,98 12,17

FRA-F BASELELELEL 60. 15 60.15 20.44 6.84 6.84
DBCNN 66.98 66.98 22.83 7.02
Faceqnet 67.93 24,42 7,68
MagFace 58,97 18,81 5,82
FBSA_M1 77,87 34,68 11,41
FBSA_M2 85,18 33.78 11,42

Значения, выделенные жирным шрифтом, означают, что при разных FRA показатели производительности и проверки моделей FIQA лучше всего улучшаются. алгоритмы FIQA.

Основываясь на результатах оценки модели, мы случайным образом выбрали изображения из каждого класса предсказания и отобразили их на рисунке 16. На основе этой визуализации становится ясно, что модель продемонстрировала точную оценку предельной яркости и резкости. . Мы расположили изображения на основе яркости и резкости соседних классов в обучающих данных, таких как «1bri» и «2bri» и «1bri» и «1nor». Поэтому некоторые данные полностью выходят за рамки обучающих данных для нашей модели, что может привести к неоднозначности классификации.Rowden и Jain [5] и Khodabakhsh et al. [56] пришли к выводу, что оценка человека сильно коррелирует с показателями FRA. Также можно сделать вывод, что каждый тип прогнозируемого изображения коррелирует с эффективностью распознавания, определенной в этой статье.


5. Выводы

Мы предложили метод установления меток FIQ на основе яркости и резкости, которые сильно коррелируют с распознаванием, и обучили модель прогнозировать качество. В целом, наша модель может точно классифицировать и различать изображения разного качества даже для других FRA, которые не участвуют в процессах создания меток и обучения модели.Мы также можем точно оценить качество FRA, упомянутых в этой статье, в наборе перекрестной проверки. Обратите внимание, что для дальнейшего прогресса в будущем необходимо повысить точность классификации модели. Кроме того, можно учитывать больше факторов, влияющих на идентификацию, для адаптации к более разнообразным сценариям применения. В будущем стоит обсудить использование FIQA для повышения эффективности проектов исследования изображений.

Доступность данных

В этом документе используются три набора данных, M-PIE, LFW и пользовательский набор данных, среди которых первые два являются общедоступными наборами данных, а последний принадлежит компании с ограниченной ответственностью (Wisesoft Co., Ltd., Чэнду, Сычуань, Китай). Пользовательский набор данных не может быть общедоступным, поскольку общедоступность поставит под угрозу конфиденциальность, а у нас нет разрешения на обмен данными. Чтобы воспроизвести наш метод для других исследователей, мы также используем тот же метод для проведения экспериментов с общедоступным набором данных (M-PIE), к которому заинтересованные читатели могут легко получить доступ. Используемые M-PIE и LFW можно найти на http://multipie.org и http://vis-www.cs.umass.edu/lfw/ соответственно.

Конфликт интересов

Авторы заявляют об отсутствии конфликта интересов в связи с публикацией данной статьи.

Благодарности

Эта работа была поддержана Национальной ключевой программой исследований и разработок Китая, Демонстрация исследований и приложений ключевой технологии управления юридическими лицами (2016YFC0801100).

Свежая фотография лица Кейглы

предыдущий / следующий

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Метабаза данных изображений лиц (fIMDb) и база данных лицевых аномалий ChatLab (CFAD): инструменты для исследования восприятия лица и социальной стигмы

https://doi. org/10.1016/j.metip.2021.100063Get rights and content

Abstract

Исследователям все больше нужны высококачественные фотографии лиц, которые они могут использовать в своих научных исследованиях — будь то экспериментальные стимулы или эталонные алгоритмы распознавания лиц. До сих пор индекс известных баз данных лиц, их функций и способов доступа к ним был недоступен. Это отсутствие имело по крайней мере два негативных последствия: во-первых, без альтернатив некоторые исследователи могли использовать базы данных лиц, которые широко известны, но не оптимальны для их исследований.Во-вторых, опора на базы данных, состоящие только из молодых белых лиц, приведет к тому, что наука не репрезентативна для всех людей, чьи налоговые взносы во многих случаях делают возможным это исследование. «Метабаза данных изображений лиц» (fIMDb) предоставляет исследователям инструменты для поиска изображений лиц, наиболее подходящих для их исследования, с фильтрами для поиска баз данных с людьми разного расового и этнического происхождения и возраста. Проблемы репрезентации в базах данных лиц не ограничиваются расой, этнической принадлежностью или возрастом — существует нехватка баз данных с лицами, которые имеют видимые различия (например,г., шрамы, пятна от портвейна и расщелины губы и неба). Хорошо охарактеризованная база данных необходима для поддержки программных исследований отношений, поведения и нейронных реакций воспринимающих лиц на аномальные лица. Чтобы заполнить этот пробел, была создана «База данных лицевых аномалий ChatLab» (CFAD) с фотографиями лиц с видимыми различиями различных типов, этиологии, размеров, местоположения, на которых изображены люди из разных этнических групп и возрастных групп. И fIMDb, и CFAD доступны по адресу: https://cliffordworkman.ком/ресурсы/.

Ключевые слова

Лица

Фотографии

Стимулы

Восприятие

Видимая разница

Стигма

Автор Рекомендованные статьиЦитирование статей 3 ©

2

1 Издано Elsevier Ltd.

Рекомендуемые статьи

Ссылки на статьи

CFD | База данных лиц в Чикаго

Т Е Д А Т А Б А С

Чикагская база данных лиц была разработана в Чикагском университете Дебби С. Ма, Джошуа Коррелл и Бернд Виттенбринк. CFD предназначен для использования в научных исследованиях. Он предоставляет стандартизированные фотографии с высоким разрешением мужских и женских лиц разной этнической принадлежности в возрасте от 17 до 65 лет. Обширные данные нормирования доступны для каждой отдельной модели. Эти данные включают как физические характеристики (например, размер лица), так и субъективные оценки независимых судей (например, привлекательность).

Подробную информацию о построении базы данных и доступных нормирующих данных можно найти в Ma, Correll, & Wittenbrink (2015) .

 

ИЗОБРАЖЕНИЯ

База данных состоит из основного набора изображений и нескольких наборов расширений. Изображения стандартизированы для всех наборов, поэтому их можно использовать рядом друг с другом.

CFD

Основной набор CFD состоит из изображений 597 уникальных лиц. В их число входят азиатские, черные, латиноамериканские и белые модели-женщины и мужчины, нанятые в Соединенных Штатах. Все модели представлены с нейтральным выражением лица. Подмножество моделей также доступно со счастливым (открытый рот), счастливым (закрытый рот), злым и испуганным выражением лица.Данные нормирования доступны для всех изображений с нейтральным выражением лица. Субъективные рейтинговые нормы основаны на выборке оценщиков из США.

CFD-MR

Расширенный набор CFD-MR включает изображения 88 уникальных людей, которые сами сообщили о своем многорасовом происхождении. Все модели были набраны в США. На изображениях изображены модели с нейтральным выражением лица. Дополнительные изображения выражения лица со счастливым (открытый рот), счастливым (закрытый рот), сердитым и испуганным выражениями находятся в производстве и станут доступны с будущим обновлением базы данных.Нормирующие данные включают в себя стандартный набор объективных и субъективных норм изображений CFD, а также сведения о происхождении моделей, о которых сообщают сами модели. Субъективные нормы основаны на выборке оценщиков США.

CFD-ИНДИЯ

Расширенный набор CFD-INDIA включает изображения 142 уникальных людей, завербованных в Дели, Индия. На изображениях изображены модели с нейтральным выражением лица. Дополнительные изображения выражения лица со счастливым (открытый рот), счастливым (закрытый рот), сердитым и испуганным выражениями находятся в производстве и станут доступны с будущим обновлением базы данных.Нормирующие данные состоят из стандартного набора объективных и субъективных норм имиджа CFD, включая оценки воспринимаемой этнической принадлежности. Субъективные нормы доступны для выборки оценщиков из США и для выборки оценщиков, набранных в Индии. Кроме того, по запросу доступен расширенный набор справочных данных о модели (например, происхождение, родной штат, каста).

 

ТЕРМ СО ФУ С Е

CFD и его комплекты расширения являются бесплатным ресурсом для научного сообщества.Фотографии базы данных и сопровождающая их информация могут быть использованы бесплатно только в некоммерческих исследовательских целях. Материалы базы данных не могут распространяться или публиковаться без письменного согласия правообладателя, Чикагского университета, Центра исследования решений.

 

ПОДТВЕРЖДЕНИЕ ПОЗИЦИИ

Использование материалов базы данных должно подтверждаться следующим образом:
CFD: млн лет назад, Correll, & Wittenbrink (2015).Чикагская база данных лиц: бесплатный набор лиц и нормирующих данных. Методы исследования поведения, 47 , 1122-1135. https://doi.org/10.3758/s13428-014-0532-5.
CFD-MR: млн лет назад, Kantner, & Wittenbrink, (2020). База данных лиц Чикаго: многорасовое расширение. Методы исследования поведения. https://doi.org/10.3758/s13428-020-01482-5.
CFD-INDIA: Лакшми, Виттенбринк, Коррелл и Ма (2020). Набор лиц Индии: международные и культурные границы влияют на впечатления и восприятие лица от принадлежности к категории. Frontiers in Psychology, 12, 161. https://doi.org/10.3389/fpsyg.2021.627678.

Лицо Линкольна было создано для фотографии | Фотография

Человек, знавший Пикассо, утверждал, что всегда любопытный художник хранил в своем доме коробку, полную вырезок и фотографий президента США Авраама Линкольна. Биограф Пикассо Джон Ричардсон отвергает эту историю — она совсем не похожа на Пикассо, — но она вызывает визуальное очарование человека, возродившегося на экране благодаря отмеченной наградами игре Дэниела Дэй-Льюиса.

У Линкольна было одно из таких лиц. Скалистый, скрюченный, худощавый и крепкий, с оттенком причудливости, это одна из самых запоминающихся физиономий в истории. Одной из причин такой яркой выносливости является тот факт, что 16-й президент Америки жил в эпоху фотографии. Гражданская война, в которой он играл такую ​​центральную роль, была сфотографирована в эпических, ужасных подробностях Мэтью Брейди, Александром Гарднером и другими пионерами, которые вели свои крытые фургоны, набитые громоздким снаряжением, к полям войны и выжженным городам.

Но они также сфотографировали Линкольна, как будто его лицо само по себе было странным фактом войны, который нужно запечатлеть с удивлением. Именно Гарднер стал звездным портретистом Линкольна. Этот шотландский журналист и общественный деятель был ведущим помощником Брейди, а затем самостоятельным влиятельным фотографом, который объезжал поля сражений гражданской войны со своей базы в Вашингтоне. В 1862 году он сфотографировал Линкольна на поле битвы при Антиетаме, фигуру гражданского военного лидера в обрамлении двух офицеров в форме.Они затмеваются его долговязым, мрачным от совести присутствием.

На других фотографиях Гарднер концентрируется на необыкновенном лице Линкольна. На снимке, сделанном в его вашингтонской студии в 1865 году, вождь выглядит измученным и обеспокоенным продолжающейся войной: случайная трещина на фотопластинке кажется предвестником. Тем не менее, портреты Гарднера также отражают теплоту и доброту Линкольна. После убийства Линкольна в апреле 1865 года Гарднер даже был рядом, чтобы сфотографировать некоторых заговорщиков, ожидавших казни.

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован.