Кто придумал фотографию: Кто изобрел фотографию?

Содержание

Кто изобрел фотографию?

Фотография (фото — свет, графа — рисую, пишу— греч.)—рисование светом, светопись — была открыта не сразу и не одним человеком. В это изобретение вложен труд ученых многих поколений разных стран мира. Люди давно стремились найти способ получения изображений, который не требовал бы долгого и утомительного труда художника. Некоторые предпосылки для этого существовали уже в отдаленные времена. В 1978 году исполнилось 160 лет гелиографическому снимку Жозефа Нисефора Ньепса «Вид из окна мастерской, 1826г.». На родине изобретателя, во французском городке Варенна, прошли торжества в его честь, были прочитаны лекции по истории светописи, устроены ретроспективные фотовыставки.

Ньепс первым в мире закрепил «солнечный рисунок». Он ориентировался на использование свойства асфальта, тонкий слой которого на освещенных местах затвердевает. На незакрепленных и неосвещенных местах асфальт вымывался с помощью лавандового масла и керосина. В 1826г. Ньепс с помощью камеры-обскуры получил на металлической пластинке, покрытой тонким слоем асфальта, вид из окна своей мастерской. Снимок он так и назвал — гелио­графия (солнечный рисунок). Экспозиция длилась восемь часов. Изображение было весьма низкого качества, и местность была едва различима. Но с этого снимка началась фотография. Однако, изобретателями фотографии считаются Ньепс, Дагерр и Тальбот. Но кого из них, когда, в какой день осенило открыть одно из чудес века? Почему эта история так запутана? Давайте разберемся. В «Книге технических и промышленных производств», изданной в Петербурге в 1860 году, по поводу ворвавшейся в жизнь фотографии писалось:

«Если бы несколько десятков лет назад так называемому «образованному» человеку сказали, что скоро найдут средство устроить зеркало таким образом, что на нем навсегда останется однажды отраженное им изображение, то он принял бы эти слова за сумасбродство...» Да, фотография бурно и прочно вошла в сознание человека, в его деятельность и быт, по значению это открытие сравнивают обычно с открытием книгопечатания, называют «вторым зрением», «живой памятью истории».
Однако мы должны разочаровать наших читателей: фотография, как и некоторые другие великие изобретения XIX века, была открыта не сразу и не одним лицом. В ее создание вложен труд ученых многих поколений самых разных стран. С давних пор людям известно свойство темной комнаты (или камеры-обскура) воспроизводить световые рисунки внешнего мира.

Об этом писал еще Аристотель. Пришло время, когда эти рисунки стали обводить карандашом. С помощью камер-обскур в России, например, в XVIII веке были документально зарисованы виды Петербурга, Петергофа, Кронштадта. То была «фотография до фотографии»: труд рисовальщика предельно упростился. Но дерзкие люди неустанно думали над тем, как полностью механизировать процесс рисования, научиться не только фокусировать оптический рисунок на плоскости, чтобы обводить «от руки», но и надежно закреплять его химическим способом. Такую возможность наука предоставила в первой трети прошлого века. В 1818 году русский ученый X. Гротгус указал на связь фотохимического превращения в веществах с поглощением света. Вскоре ту же особенность установили английский ученый Д. Гершель и американский химик Д. Дрейпер. Так был открыт основной закон фотохимии. Это дало толчок к целенаправленным поискам закрепления светового изображения. Во многих странах родились версии о своих изобретателях фотографии. Не случайно французский оптик Шарль Шевалье, изготовлявший и продававший камеры-обскуры, рассказывал, что еще до Н. Ньепса к его изделиям приценялся бедно одетый иностранец, уверявший, что он знает способ закреплять оптический рисунок, да вот не имеет средств, чтобы купить камеру. В доказательство своих слов он якобы показал Ш. Шевалье изображения на бумаге, созданные с помощью света, и оставил флакон коричневой светочувствительной жидкости. Шевалье сожалел, что по легкомыслию не записал имени и адреса незнакомца. Опыты с жидкостью не дали ему положительных результатов. А незнакомец так больше и не появился у его прилавка. Сегодня этот рассказ звучит красивой легендой. Такой же легендой звучат слова и о самом Н.

Ньепсе, якобы получавшем закрепленные световые рисунки в 1824 и даже в 1822 году, так как вещественные доказательства этого также отсутствуют.

И все-таки первый в мире снимок получил именно Н. Ньепс. Несовершенный в техническом отношении вид на крыши соседнего дома, отпечатавшийся на асфальтовой пластинке — перед вами. Он — документ, подтверждающий, что возможность «механического рисования» с помощью солнца доказана в 1826 году. Нам возразят: но почему тогда датой рождения светописи считается 1839 год? И почему автором изобретения историки признают не только Н. Ньепса, а еще Л. Дагерра и Ф. Тальбота, чьи первые снимки появились гораздо позже? Разумеется, год изобретения светописи выбран условно, но на это есть свои причины. Во-первых, гелиографический метод Н. Ньепса был несовершенен, непригоден для практического фотографирования из-за выдержки 8 часов. Во-вторых, Н. Ньепс не опубликовал свой способ при жизни, а умер он в 1833 году. О способе Н. Ньепса знал лишь Л. Дагерр, с которым он вступил в договорные отношения по совершенствованию фотопроцесса и дал обязательство содержать результаты опытов в тайне. До опубликования принципов дагерротипии (1839г.) соотечественники не имели ни малейшего представления о фотографической деятельности Н. Ньепса. Да и после этого имя Н. Ньепса долгое время находилось в тени славы Л. Дагерра. Торжественное закрепление открытия гелиографии за Н. Ньепсом было поизведено только… в 1933 году, когда отмечалось 100-летие со дня смерти изобретателя. Это подтверждает теперь надпись на памятнике, что установлен на могиле Н. Ньепса в Варенне. Как видите,

1839 год не случайно стал официальной датой открытия фотографии. В этот год произошли следующие события: во Франции 7 января секретарь Парижской Академии наук Доминик-Франсуа Араго доложил ученому собранию сведения о «совершенном способе закрепления светового изображения в камере-обскуре, изобретенном художником Л. Дагерром»; 14 августа Л. Дагерр получил на свое изобретение патент; 20 августа он издал подробное практическое руководство по применению дагерротипии; в Англии 25 января 1839 года в Королевском институте в Лондоне по представлению физика М. Фарадея демонстрировался первый бумажный фотоотпечаток Ф. Тальбота, полученный с бумажного негатива; 31 января был обнародован метод тальботипии. Руководства по дагерротипии и тальботипии моментально распространились в странах Европы и в США. 1839 год сразу сделал фотографию международным достоянием. Вот почему во всех энциклопедических словарях вы можете прочитать: год изобретения фотографии — 1839, изобретатели: французы Н. Ньепс, Л. Дагерр и англичанин Ф. Тальбот. Снимок Ньепса мы уже Вам показали, осталось показать Вам первые снимки Тальбота и Дагерра.

Снимок Тальбота

В 1835г. Тальбот тоже зафиксировал солнечный луч. Это был снимок решетчатого окна его дома. Тальбот применил бумагу, пропитанную хлористым серебром. Выдержка длилась в течение часа. Тальбот получил первый в мире негатив. Приложив к нему светочувствительную бумагу, приготовленную тем же способом, он впервые сделал позитивный отпечаток. Свой способ съемки изобретатель назвал калотипией, что означало «красота». Так он показал возможность тиражирования снимков и связал будущее фотографии с миром прекрасного.

Снимок Дагерра

Одновременно с Ньепсом над способом закрепления изображения в камере-обскуре работал известный французский художник Дагер, автор знаменитой парижской диорамы. Работа над световыми картинами натолкнула его на мысль закрепить изображение. От оптика Шарля Шевалье, создавшего впоследствии объектив для дагеротипной камеры, он узнал, что Ньепс получил первые обнадеживающие результаты. Дагер заключил с Ньепсом соглашение о совместном сотрудничестве над изобретением. Однако в 1833г. Ньепс умер. Дагер настойчиво продолжал начатое дело и в 1837г. открыл надежный способ проявления и закрепления скрытого изображения на очувствленной к свету серебряной пластинке. Дагер впервые в мире получил снимок со сравнительно высоким качеством изображения. Он снял довольно сложный натюрморт, составленный из произведений живописи и скульптуры. Этот снимок Дагер передал потом де Кайэ, хранителю музея в Лувре.

Автор экспонировал серебряную пластинку в камере-обскуре в течение тридцати минут, а затем перенес в темную комнату и держал над парами нагретой ртути. Закрепил изображение с помощью раствора поваренной соли. На снимке хорошо проработались детали рисунка как в светах, так и в тенях. Свой способ получения фотоизображения изобретатель назвал собственным именем — дагеротипия — и передал его описание секретарю Парижской Академии наук Доминику-Франсуа Араго. На заседании Академии 7 января 1839 г. Араго торжественно доложил ученому собранию об удивительном изобретении Дагера, заявив, что «отныне луч солнца стал послушным рисовальщиком всего окружающего». Ученые одобрительно приняли известие, и этот день навсегда вошел в историю как день рождения фотографии.

Источник: Статья подготовлена на основе материалов статьи А.Фомина («Советское фото», № 12, 1978)

Кто изобрел фотографию?

Жозеф Нисефор Ньепс

Первый фотоснимок в истории был сделан в 1826 году французом Жозефом Нисефором Ньепсом.

Ньепс использовал камеру-обскуру и… асфальт, который твердеет в местах, освещенных солнцем. Для создания фотографии он покрыл тонким слоем битума металлическую пластину и в течение 8 часов снимал вид из окна мастерской, в которой работал. Изображение получилось, конечно, неважного качества, однако, это была первая фотография в истории человечества, на которой можно было различить очертания реальных объектов.

Сам метод получения изображения Ж.Н. Ньепс назвал гелиографией, что примерно можно перевести как «рисование солнцем».

Принцип работы камеры-обскуры

«Вид из окна» — первая фотография Ньепса, сделанная в 1826 г

Однако, наряду с Ньепсом изобретателями фотографии считаются Дагер и Тальбот. Почему так? Все дело в том, что Луи-Жак Манде Дагер, тоже француз, сотрудничал с Ж.Н. Ньепсом, работая над изобретением, однако Ньепсу так и не удалось довести свое детище до ума — он скончался в 1833 году. Дальнейшей разработкой занимался Дагер.

Луи-Жак Манде Дагер

Он использовал более совершенную методику — в качестве светочувствительного элемента у него уже выступал не битум, а серебро. Продержав полчаса в камере-обскуре пластину, покрытую серебром, далее он переносил ее в темную комнату и держал над парами ртути, после чего закреплял изображение раствором поваренной соли. Первой фотографией Дагера — весьма хорошего качества — стала довольно сложная композиция из произведений живописи и скульптуры. Метод, который к 1837 году открыл Дагер, он назвал своим именем — дагеротипией, а в 1839 году сделал публичным, представив его Французской академии наук.

Первый даггеротип, 1837

Примерно в те же годы англичанин Уильям Генри Фокс Тальбот открыл метод получения негативного изображения.

Уильям Генри Фокс Тальбот

Он получил его в 1835 году, используя бумагу, пропитанную хлористым серебром. Снимки выходили очень высокого для того времени качества, хотя сам процесс фотографирования поначалу занимал больше времени, чем у Дагера — до часа. Главное отличие изобретения Тальбота состояло в возможности копирования снимков — перенести позитивное изображение (фотографию) с негатива можно было, изготовив светочувствительную бумагу такого же типа, как и для негатива. А еще — в изобретении специальной небольшой камеры с дюймовым окошком, которую Тальбот использовал вместо камеры-обскуры — это позволило увеличить ее световую эффективность. Первым, что снял Тальбот, было решетчатое окно в комнате, принадлежавшей семье учёного. Свой метод он назвал «калотипией», что означало «красивый отпечаток», получив патент на него в 1841 году.

Снимок окна в комнате Тальбота, 1835

Калотипия московского кремля (Роджер Фентон, 1852)

Цветную фотографию изобрел Джеймс Клерк Максвелл — выдающийся британский ученый XIX века.

Джеймс Клерк Максвелл

Используя теорию трех основных цветов, в 1861 году он представил ученому сообществу первую цветную фотографию. Это была фотография тартановой ленты (лента из шотландки), снятой через три фильтра — зеленого, красного и синего цвета (использовались растворы солей различных металлов).

Тартановая лента Максвелла, 1861

Свой вклад в развитие цветной фотографии внес и русский фотограф, изобретатель, путешественник Сергей Прокудин-Горский.

Сергей Прокудин-Горский

Ему удалось разработать новый сенсибилизатор, который делал равномерной светочувствительность фотопластины ко всему спектру, что позволило придать естественность цветам на фотографии. В начале века он, путешествуя по России, сделал огромное количество цветных фотографий. Ниже вашему вниманию представлены некоторые из них, чтобы получить представление о качестве снимков Сергея Прокудина-Горского.

Гагры. Пристань. 1905—1915

Молодые русские крестьянки недалеко от реки Шексна. 1909

Нило-Столобенская пустынь на озере Селигер. 1910

Машинный зал Гиндукушской ГЭС на реке Мургаб. 1911

Основатели фотографии. Жозеф Нисефор Ньепс

В XVIII веке развивавшийся класс буржуазии, не имея возможности увековечить себя для близких и потомства с помощью кисти какого-либо известного живописца, начал искать для удовлетворения своих индивидуалистических потребностей новые технические решения. Предпосылкой возникновения фотографии явилась широкая популярность в то время камеры-обскуры, дававшей новые возможности художникам запечатлеть реальность. Но ученые по-прежнему не оставляли попыток зафиксировать полученное изображение. Таким образом, зарождение фотографии произошло благодаря упорству нескольких человек, один из которых французский изобретатель Жозеф Нисефор Ньепс.

Ньепс не только создал фотографию в камере-обскуре и изобрел диафрагму для исправления дефектов, прежде всего Ньепс был первым, кому удалось зафиксировать изображение, сделать его постоянным. Свои изображения, полученные с помощью камеры-обскуры, он называл "отражением видимого", чтобы отличать их от его "гравюрных копий".

Жозеф Нисефор Ньепс (1765-1833).Камера-обскура Ньепса 1816-1822.Фотокопия гравюры XVII века. 1825. Жозеф Нисефор Ньепс родился 7 марта 1765 года в небольшом провинциальном городке Шалон-сюр-Сон (Châlons sur Saône) в Бургундии , в зажиточной семье, предки которой, занимая довольно высокие государственные должности, получили дворянство. Его отец был советником Людовика XV, мать - дочерью известного юриста. Таким образом, семья Ньепса принадлежала к лучшему обществу Франции дореволюционного периода.

У Нисефора были сестра и два брата: старший - Клод, с которым на всю жизнь его связала страсть к изобретательству, и младший - Бернар. По обычаю буржуазных семей, Жозеф учился в колледже монахов-ораторианцев Шалона Труа и Анже с 1780 по 1788. Однако в дальнейшем Нисефор отказался от карьеры священнослужителя. Нисефора и Клода больше привлекало техническое творчество, но бурные события в стране изменили их планы. В мае 1792 года Ньепс и его старший брат поступили на военную службу в ряды революционной армии.

Нисефор был зачислен младшим лейтенантом в пехотный полк спустя год, участвуя в десанте на Сардинию, он встретил Клода. Теперь на смену романтике военной жизни к братьям пришли серьёзные размышления о выборе дальнейшего жизненного пути. Может быть, именно тогда и родилась идея о создании фотографического процесса. В 1794 году Ньепс был назначен членом административной комиссии в округе Ницца и тогда же женился на Агнессе Рамеро. Однако ухудшение состояния здоровья вынудило его уйти в отставку. Военную карьеру Нисефор Ньепс окончил в чине подпоручика. Ньепс поселился сперва недалеко от Ниццы, а в 1801 году вернулся домой в Шалон-сюр-Сон, где поселился с младшим братом Клодом.

Оба брата, отличавшиеся страстью к научным открытиям, объединились для общей работы занялись наукой и практическими опытами, которые были небезуспешны. Обладая приличным состоянием, они посвятили себя разработке двух изобретательских идей: фотографии и пирэолафору - первому двигателю внутреннего сгорания. Причём Нисефор в основном занимался фотографией, а Клод - пирэолафором. В названии изобретения легко найти греческие корни "пир" (огонь) и "фор" (переносить, увлекать) и имя Эола - мифического повелителя ветров. Двигатель был представлен на рассмотрение парижского института, где изобретение было удостоено похвального отзыва. Есть известие, что братья Ньепсы в 1805 году ездили по Сене против течения на лодке, приводившейся в движение при помощи изобретенной ими машины, но дальнейшая ее судьба осталась совершенно неизвестной.

В 1807 году Жозеф и Клод Ньепсы получили временный патент на это изобретение, однако по истечению 10 лет подтвердить эффективность разрабатываемого двигателя не им удалось. В 1811 году братья расстались: Клод отправился в Париж, а оттуда в 1815 году в Англию. Пытаясь найти поддержку своим трудам, Клод растратил все фамильное состояние и душевное здоровье, а разработка принципов действия двигателя внутреннего сгорания была выполнена в 1824 году физиком Карно, когда-то входившим в комиссию по испытанию пиреолофора. Последние годы жизни Клод посвятил созданию "вечного двигателя". Установившаяся между братьями переписка оставила нам бесценные свидетельства о путях, которыми Нисефор Ньепс шёл к своему открытию. Нисефор Ньепс вскоре по отъезде брата оставил город и поселился со своим семейством в деревне де-Гра.

Первые самостоятельные опыты Нисефор Ньепс начал с усовершенствования литографии. Ньепс употребил значительную часть своего состояния на поиски литографского камня в Лионе и в ближайших провинциях Франции, но эти поиски не привели ни к каким результатам. Так Ньепс решил заменить камень куском жести, на котором его младший сын рисовал жирным цветным карандашом различные картинки. Когда юноша был призван в армию в 1814 году, Ньепс, который не умел рисовать, оказался в трудном положении. Оставшись один, Нисефор взялся за создание камеры-обскуры. Работа над камерой началась 12 апреля 1816 года: "шесть дюймов с каждой стороны и с раздвижной трубой и линзой".

Первая в мире фотография. 1826.Гравюра с гелиографии. 1827.Накрытый стол. 1829. Ньепс продолжил свои опыты с хлоридом серебра. Поместив в камеру-обскуру бумагу, покрытую этим веществом, он получил негативные изображения, но не смог их зафиксировать. Свойство гипосульфита растворять эту соль было открыто Гершелем лишь в 1819 году, то есть уже после опытов Ньепса. Поражает терпеливая настойчивость изобретателя: не добившись закрепления негативного изображения, Ньепс попытался изготовить позитив, помещая негатив и светочувствительную бумагу в камеру и пропуская в неё свет через объектив. Однако плотность негативной бумаги не давала возможность пропускать достаточно света. Позитив не получался. Кроме того, незакреплённый негатив чернел раньше, чем с него получался позитив. Но Ньепса в принципе не устраивало получение негатива: он добивался получения сразу позитивного изображения. Опираясь на работы предшественников, он стал экспериментировать с трихлоридом и другими соединениями железа, но убедился в их недостаточной светочувствительности. Труд и терпение - вот что характеризует его работу. Ньепс обратился к опытам с пероксидом марганца при одновременном действии соляной кислоты, но и тут не достиг успеха. Тогда он попытался активизировать действие света введением в камеру-обскуру различных газов - и снова неудача. Работая с соединениями фосфора, Ньепс обжёг руку и оставил эти бесполезные опыты.

К 1822 году работа исследователя пошла успешнее, когда он испробовав массу материалов, обратился к асфальту. Ньепс остановился на лаке из сирийского асфальта, растворённого в лавандовом масле. Этот лак наносился тонким слоем на поверхность литографского камня или металлической пластинки и после высушивания экспонировался. При контактной печати длительность экспозиции составляла 2-3 часа, а в камере-обскуре - 6-8 часов. После воздействия света слои обрабатывался лавандовым маслом или нефтью, растворявшими не измененные светом участки лака. В результате на подложке создавались рельефные контуры объектива фотографирования. Затем пластинка обрабатывалась кислотой, которая травила литографский камень или металл пропорционально толщине слоя оставшегося лака. После обработки остатки лака удалялись спиртом. Покрыв пластинку типографской краской, Ньепс размножал изображения на бумаге. Для улучшения полученной светогравировальнои формы применялось дополнительно механическое гравирование. Нисефору Ньепсу пришлось пройти тяжелейший путь от получения недостаточно удовлетворявших его снимков до таких, которые казались его современникам "магическими".

Изображения, получавшиеся в результате этих процессов, Ньепс назвал гелиографиями. После обработки Ньепс отправлял пластины своему другу, художнику-граверу и издателю Леметру (1797—1870), который четко гравировал линии, покрывал пластину чернилами и отпечатывал необходимое количество экземпляров. Первые образцы светопечатания хранились у Леметра до его смерти в конце семидесятых годов, а впоследствии были переданы в архив института. Самой удачной была гелиография кардинала де Амбо, сделанная Ньепсом в начале 1827 года.

Историки утверждают, что Ньепс получил стойкое изображение в камере-обскуре ещё в 1822 году. Существует снимок накрытого к пикнику стола, датированный 1829 годом. Вполне возможно, что на снимоке фотокопия картины 1822 года. Но если бы эта фотография было настолько ранней, то именно ей бы и принадлежало первенство. Однако лишь одно из сохранившихся "отражений видимого" может быть определенно датировано 1826 годом. "Вид из окна в Ле-Гра" - эта фотография вполне могла быть сделана в 1826 году, потому что именно в том году Ньепс стал использовать сплав олова со свинцом вместо медных и цинковых пластин. В этом году Ньепс приобрел у парижских оптиков братьев Шевалье улучшенную камеру-обскуру, оснащенную мениском Волластона и призмой для поворота изображения. С ее помощью Ньепс получил первое в истории фотографии, расплывчатое, но устойчивое изображение размером 8х6 дюймов. Экспозиция была равна восьми часам, а потому солнце успело осветить обе стороны здания, которое он снимал из окна своей комнаты. Позднее гелиографией стали называть первый в истории фотографии способ получения в камере-обскуре закрепленного изображения. Однако сохранилась гелиография, выполненная годом ранее, но по содержанию своему вряд ли может быть названа полноценной фотографией. Это фотокопия фламандской гравюры 17 века с изображением мальчика, ведущего за собой коня. Всего лишь копия рисунка, а не изображение окружающего мира.

Остаётся странным, что Ньепс, который стараясь разрешить проблему многоразовых репродукций, никогда, не попытался использовать полученное изображение на стекле как негатив, чтобы с него сделать отпечатки на светочувствительной бумаге. Этот принцип негатив-позитив, от которого берет начало вся современная фотография, был предложен Фоксом Тальботом несколькими годами позже в Англии.

Для достижения четкости изображения Ньепс решает достать оптический прибор настолько хороший, чтобы хоть с этой стороны обставить надлежащим образом свои исследования. Так в 1826 году изобретатель поручает своему старшему брату Клоду купить у лучшего парижского оптика Шарля Шевалье только что появившуюся тогда так называемую призму-мениск. Шарль Шевалье был сыном известного оптика Винсента Жак-Луи-Шевалье (1770 - 1841) - владельца и руководителя оптической фирмы, основанной в 1760 году. Сын усовершенствовал конструкцию изобретённой отцом камеры-обскуры с линзой-призмой. Исполняя это поручение, полковник Ньепс в разговоре с Шевалье объяснил, что призма-мениск нужна для его брата, которому удалось закрепить на пластинке изображения, даваемые камерой-обскурой. Шевалье, который мастерил для Луи Дагера камеры-обскуры, отнесся к сообщению полковника Ньепса с доверием и, записав адрес его брата, вскоре после этого посещения отправился к Дагеру, процветавшему владельцу диорамы в Париже. Но художник не последовал его совету. Шевалье, однако, настаивал на своем, и в конце концов Дагер решился списаться с неизвестным изобретателем. Переписка эта сначала шла необыкновенно вяло из-за крайней недоверчивости Ньепса, но когда последний, наведя справки о Дагере у гравера Леметра, несколько успокоился от опасений, что у него могут вырвать плоды его работ, переписка несколько оживилась и наконец Ньепс решился послать Дагеру одну из своих гелиографических пластинок.

Первое личное свидание обоих изобретателей, как нам уже известно, произошло в 1827 году, когда сильно заболевший брат Ньепса Клод вызвал его к себе в Лондон. Это первое свидание, по-видимому, не имело никаких особенных результатов, если не считать того, что Дагеру удалось в значительной степени рассеять недоверчивость Ньепса. Будучи в Лондоне, Ньепс вздумал внести записку о сделанном им открытии в британское Королевское общество наук (British Association of Sciences), для чего он обратился к помощи довольно известного тогда английского ботаника Бауера, которому и дал на рассмотрение свои пластинки. Ньепс, однако, не пожелал подчиниться основному правилу британского общества, по которому всякое представляемое ему открытие должно подвергаться обнародованию. Ввиду отказа изобретателя общество не сочло возможным пойти на рассмотрение его заявки. В 1828 году умирает его измученный неудачами брат Клод.

Быть может, несколько раздосадованный этим Ньепс, по возвращении в 1829 году во Францию, снова посетил Дагера и на этот раз так сошелся с ним и доверился ему. Дагер считал, что сначала нужно найти возможность получить хорошую прибыль от этого изобретения до того, как публиковать. Ньепс и Дагер договорились основать товарищество для окончательного достижения намеченной ими общей цели и оформили свой союз нотариальным условием.

Это была неравноценная сделка, так как все, что, собственно, было известно о фотографии, являлось вкладом Ньепса. Ньепс стал открывателем и в другой области - первым применил диафрагму для исправления дефектов изображения, которые получались при полностью открытых линзах. Однако это изобретение было забыто более чем на 50 лет. Но Дагер был жизненно важной половиной этого содружества. Старый и больной Ньепс не очень верил в будущее своих экспериментов, и ему была необходима энергия и самоуверенность Дагера. Кроме того, Ньепс верил в неувядаемый интерес Дагера к фотографии, в его убеждение, что процесс будет усовершенствован и принесет коммерческий успех. Ньепс включил в контракт условие, по которому его сын Исидор станет наследником в случае, если Ньепс умрет раньше истечения срока контракта.

Ньепс отослал Дагеру детальное описание своего процесса: информацию о гелиографии, полностью объяснявшую подготовку серебряных, медных или стеклянных пластин, сведения о пропорциях различных смесей, о растворителях для проявления изображения, о промывочных и фиксирующих процессах, а также сообщил об использовании его последних экспериментов в гелиографии - употреблении паров йодида для усиления изображения.

Ньепс также продемонстрировал Дагеру всю технику выполнения этих процессов, для чего Дагер специально приезжал в Шалон. Через несколько дней Дагер вернулся в Париж и больше никогда не встречался с Ньепсом. Каждый из них самостоятельно работал над изобретением, и очень мало известно об их успехах, кроме того факта, что в 1831 году Дагер писал Ньепсу и просил его провести эксперименты с йодидом в комбинации с солями серебра в качестве светочувствительной субстанции. Ньепс без большого энтузиазма проводил эти опыты. Он не очень-то преуспел в предшествовавших опытах с серебряной солью йодистоводородной кислоты - серебряной субстанцией, которая может быть чувствительной к свету лишь при смешении в абсолютно точных пропорциях.

В 1833 году Жозеф Ньепс умер. К этому времени он был фактически разорен, и его похороны состоялись за государственный счет. Уже после смерти Ньепса Луи Дагер усовершенствовал камеру, а также технологию проявления и закрепления изображений, став создателем индустрии получения фотографических изображений с натуры.

В честь французского изобретателя Жозефа Нисефора Ньепса в его родном городе Шалоне открыт музей фотографии (Musee Nicephore-Niepce).

Мир цифровой фотографии

Цвет определяет сущность многих вещей на фотографиях, начиная от цветущих растений, заканчивая богатой голубизной океана. Возможность получать цветные фото отпечатки во многом изменила мир фотографии, но в начале 19 века этой красочной стороной фотосъемки никогда не пользовались.

Изначально, плёночные катушки и фотосъемка были в черно-белом формате, но поиск путей получения цветной фотоплёнки продолжался на протяжении 19-го века. Проводились соответствующие эксперименты, но цвета на фотографиях не держались и быстро исчезали.

Если верить истории, то первая цветная фотография была сделана в 1861 году физиком Джеймсом Клерком Максвеллом (James Clerk Maxwell, 1831-1879). Один из ранних методов получения цветной фотографии был кропотливым, и нужно было использовать в общей сложности 3 фотоаппарата. 

первая цветная фотография

В 1915 году Прокудин-Горский (1863-1944) стал первым, кто воспользовался этим процессом для съемки цветных фотографий. Он взял цветной фильтр и поместил его перед объективом каждой из трёх фотокамер. Таким способом он мог получить три базовых цветовых канала, также известных как RGB, то есть Red (красный), Green (зеленый) и Blue (синий). Прокудин-Горский продолжил начатое еще одной техникой, в которой использовал трёхцветные пластины и применял их в последовательно.

На фоне продолжающихся экспериментов, Герман Вильгельм Фогель (Hermann Wilhelm Vogel, 1834-1898) в конце 19 века смог получить эмульсии, которые обладали необходимой чувствительностью к красному и зелёному свету. Позднее, братья Люмьер изобрели первую цветную фотоплёнку, названную Autochrome.

Autochrome была запущена в продажу в 1907 году. Этот процесс привлёк использование плоского сетчатого фильтра, окрашенные точки которого производились из картофельного крахмала. Autochrome была единственной доступной цветной плёнкой, пока не появилась немецкая компания Agfa, представившая в 1932 году цветную фотоплёнку под названием Agfacolor. Следуя её примеру, компания Kodak выпустила в 1935 году трёхслойную цветную фотоплёнку и назвала её Kodachrome. Плёнка Kodachrome была основана на трёхцветных эмульсиях.

 

Следом за плёнкой Kodachrome в 1936 году компания Agfa выпустила фотоплёнку Agfacolor Neue. Плёнка Agfacolor Neue имела цветные соединительные элементы, которые были интегрированы в слои эмульсии, что упростило обработку плёнки и дало импульс развития фотоиндустрии. Все цветные фотоплёнки, за исключением фирмы Kodak, основаны на технологии Agfacolor Neue.

Творчество порождает творчество! Это может быть доказано тем фактом, что цветные плёнки Kodachrome были изобретены Леопольдом Маннесом (Leopold Mannes, 1899-1964) и Леопольдом Годовски младшим (Leopold Godowsky, Jr., 1900-1983), двумя очень известными музыкантами. Леопольд Годовски младший был сыном одного из великих пианистов его времени – Леопольда Годовски.

Цветная фотосъемка фактически совершила переворот в эпохе и показала впечатление, которое оказывают цвета посредством ярких и детальных снимков, включая фотографии Второй мировой войны и разрушений, вызванных природными катаклизмами. Цветные снимки захватывали эмоции и окрестности таким образом, что они использовались все чаще и чаще в газетах, журналах и даже на обложках книг.


ВЕХИ ЦВЕТНОЙ ФОТОГРАФИИ


1777 - Карл В. Шиле заметил, что хлористое серебро быстро темнеет при освещении его фиолетовыми лучами спектра. Мысль о получении цветного изображения прямым путем захватила некоторых пионеров фотографии ХIХ века, но в конце концов стало ясно, что необходим другой путь, связанный с использованиеми цветных светофильтров или вычитающих красителей.

1800 - Томас Янг читает лекцию в Лондонском королевском обществе о том, что глаз воспринимает только три цвета.

1810 - Йоганн Т. Сибек открывает, что хлористое серебро под воздействием белого света вбирает все цвета спектра.

1840 - Эдмонд Бекерел в ходе экспериментов получает цветное изображение на пластинках, покрытых хлористым серебром.

1861 - Джеймс Кларк Максвелл получает трехцветное изображение.

1869 - Луи-Дюко дю Орон публикует работу "Цвета в фотографии", в которой излагает принципы аддитивного и субтрактивного цветовых методов.

1873 - Герман В. Фогель получает эмульсию, чувствительную не только к синему, но и к зеленому.

1878 - дю Орон вместе с братом публикует работу "Цветная фотография", в которой описываются применяемые ими методы получения цветного изображения.

1882 - появляются ортохроматические пластинки (чувствительные к синему и зеленому свету, но не к красному).

1891 - Габриэль Липман получает естественные цвета методом интерференции. На фотопластинке Липмана беззернистая фотоэмульсия находилась в контакте со слоем жидкой ртути. Когда свет падал на фотоэмульсию, он проходил сквозь нее и отражался от ртути. Входящий свет "сталкивался" с исходящим. В результате образовывался устойчивый рисунок, в котором яркие места чередуются с темными. Габриэлю Липману за эти исследования была вручена Нобелевская премия.

1891 - Фредерик Айвис изобретает фотоаппарат для получения трех цветоделенных негативов путем съемки в одну экспозицию.

1893 - Джон Джоули изобретает линейный растровый светофильтр. Вместо изображения, составленного из трех цветных позитивов, в результате получалось многоцветное изображение. Вплоть до 30-х годов нашего века растровые фотопластинки позволяли получать приемлимое, а иногда просто хорошее цветное изображение.

1903 - братья Люмьер разрабатывают процесс "Автохром". Экспозиции при хорошем освещении не превышали одной-двух секунд, а экспонированная пластинка обрабатывалась по методу обращения, в результате получался цветной позитив.

1912 - Рудольф Фишер открывает химикаты, которые выделяют красители в процессе проявления. Эти цветообразующие химикаты - цветные компоненты - могут вводиться в эмульсию. При появлении пленки происходит восстановление красителей, и с их помощью создаются цветные изображения, которые могут потом совмещаться.

1924 - Леопольд Манис и Леопольд Годовский патентуют двухцветный субтрактивный метод с использованием пленки с двумя эмульсионными слоями.

1935 - в продажу поступают пленки "Кодахром" с тремя эмульсионными слоями. Поскольку цветные компоненты для этих пленок добавлялись на стадии проявления, покупатель должен был отсылать отснятую пленку изготовителю для обработки. Обратно приходили диапозитивы в картонных рамках.

1942 - в продажу поступает пленка "Кодаколор" - первая пленка, позволяющая получать цветные отпечатки.

1963 - в продажу поступает фотоаппарат "Полароид", позволяющий делать моментальные цветные снимки в течение минуты.

Кто сделал первую фотографию?. Кто есть кто в мире искусства

Читайте также

Кто сделал первые очки?

Кто сделал первые очки? Сегодня многие политические деятели и другие известные люди носят очки. Было бы интересно узнать, как изменился бы ход истории, если бы государственные деятели прошлого носили очки (если бы, конечно, они нуждались в них). Возможно, императоры и

Кто сделал первую швейную машину?

Кто сделал первую швейную машину? Рассказывают, что какой-то путешественник волею судьбы оказался в одном из самых глухих, удаленных от цивилизации мест и там, к своему великому удивлению, в жилище местного вождя увидел швейную машину! Каким-то образом туземцы добыли ее в

Кто сделал первую фотографию?

Кто сделал первую фотографию? Человек стремился запечатлеть то, что он видит вокруг себя, не одно столетие. С одиннадцатого по шестнадцатый век существовало приспособление, которое называлось «камера-обскура». Она была предшественницей фотографической камеры. При

Кто сделал первую скрипку?

Кто сделал первую скрипку? Знаете ли вы, что из более чем ста музыкантов в симфоническом оркестре свыше тридцати — скрипачи?Красота тона и широкий диапазон выражения звуков у скрипки поразительные. Считается, что звучание скрипки имеет самую большую красоту тона и самый

Кто первым сделал мумию?

Кто первым сделал мумию? Древние египтяне верили в загробную жизнь. Они считали, что душа подобна птице с человеческим лицом, которая может летать весь день, но к ночи обязательно должна вернуться в могилу, опасаясь злых духов. Тело должно сохраняться таким же, каким его

Кто сделал первый стол?

Кто сделал первый стол? Можно ли представить себе дом без стола? Стол выполняет так много функций – на нем едят, пишут, играют, на него ставят лампы и так далее – кажется, что столы были с самого начала цивилизации. Маленькие столы, сделанные из металла или дерева,

Кто сделал первый двигатель?

Кто сделал первый двигатель? Двигатель – это такой агрегат, который преобразует энергию, обычно тепловую, в механическую работу.В течение долгого времени люди работали вручную, прежде чем на помощь им пришел двигатель. Сначала они использовали силу животных. Затем

Кто сделал первую лодку?

Кто сделал первую лодку? Что бы вы сделали, если бы, живя у воды, никогда не видели лодки и никогда не слышали о ней? Вам бы, наверное, захотелось переплыть реку или поплыть по течению, и вы бы, вероятно, начали искать что-то такое, что удерживало бы вас на воде.Вот так, судя по

Кто первым сделал паруса?

Кто первым сделал паруса? Это великое открытие человек сделал давным-давно, хотя никто не знает конкретно, когда это случилось. Паруса нужны для того, чтобы дать возможность лодке легко плыть вперед в том направлении, куда дует ветер. Все, что для этого требовалось – это

Кто сделал первую швейную машину?

Кто сделал первую швейную машину? Шитье так много значит в жизни человека, что какую-нибудь машину, умеющую шить, просто нельзя было не изобрести. Вопрос был только в том, кому удастся это сделать первому. История изобретения швейной машины полна драматических, а порой и

Кто сделал первую куклу?

Кто сделал первую куклу? Сегодня у нас есть куклы, которые ходят, говорят, кричат, спят, пьют — они максимально приближены к живым существам. Но представьте себе бедную девочку, которой родители не могут купить куклу. Она возьмет кусок полена, нарядит в одежду и скажет, что

Кто сделал первую лодку?

Кто сделал первую лодку? Что бы вы сделали, если бы, живя у воды, никогда не видели лодки и никогда не слышали о ней? Вам бы, наверное, захотелось переплыть реку или поплыть по течению, и вы бы, вероятно, начали искать что-то такое, что удерживало бы вас на воде. Вот так, судя по

Кто первым сделал паруса?

Кто первым сделал паруса? Давным-давно человек сделал это великое открытие, хотя никто не знает конкретно, когда это случилось. Оно давало возможность лодке легко плыть вперед в том направлении, куда дул ветер. Все, что для этого требовалось, — это прикрепить кусок кожи,

Кто сделал первую скрипку?

Кто сделал первую скрипку? Знаете ли вы, что из более чем ста музыкантов в симфоническом оркестре свыше тридцати — скрипачи? Красота тона и широкий диапазон выражения звуков у скрипки считается лучше, чем у любого другого инструмента. Скрипка пережила много веков в своем

Кто сделал первый компьютер?

Кто сделал первый компьютер? Ключевое слово здесь: сделал. «Отцом компьютера» принято называть математика Чарльза Бэббиджа (1791–1871) – но больше за идеи, нежели за какие-то конкретные достижения. Первая полномасштабная «разностная машина Бэббиджа», с использованием

ЗА ФОТОГРАФИЮ НА ПАМЯТЬ МОЖНО ПОЛУЧИТЬ ПУЛЮ В ЛОБ

ЗА ФОТОГРАФИЮ НА ПАМЯТЬ МОЖНО ПОЛУЧИТЬ ПУЛЮ В ЛОБ Попытка сфотографироваться на память с инспектором ДПС едва не закончилась для доктора наук Николая Тренева… расстрелом на месте. Выруливая с внешней стороны третьего транспортного кольца на шоссе Энтузиастов, ученый

История изобретателя фотографии, который не стал первым • Arzamas

Как это часто бывает с важными изобретениями, назвать имя одного человека, придумавшего фотографию, невозможно. У ее истоков стояли Жозеф и Исидор Ньепсы  Жозеф Нисефор Ньепс (1765–1833) — французский изобретатель, наиболее изве­стен как создатель раннего фотографического процесса — гелио­графии. По догово­ренности с Дагером сын Жозефа, Исидор Ньепс, продолжил дело отца, став компа­ньоном Дагера, однако слава изобретателя дагеротипии досталась одному Дагеру., Луи Дагер, Ипполит Байар, Джон Гершель — и английский аристо­крат Уильям Генри Фокс Тальбот, математик, физик, член парламента, сде­лавший от изображений, получаемых камерой-обскурой  Камера-обскура — предшественница фото­камеры, позволяющая получать оптическое изображение объектов. Представляет собой светонепроницае­мый ящик с отверстием на одной из стенок и экраном, сделанным из ма­тового стекла на противоположной стене. , шаг к позитивно-негативному процессу и идее тиражирования снимков: и то и другое лежит в основе аналоговой фотографии.

Генри Тальбот с камерой и объективом. Фотография Джона Моффата. Эдинбург, 1864 годNational Media Museum, Bradford

В 1833 году Генри Тальбот, отдыхая на озере Комо, попы­тался передать неве­роятную красоту пейзажа с помощью камеры-люциды  Камера-люцида — конструкция с приз­мой; обычно ее крепили на планшете или моль­берте, чтобы точнее передавать изобра­жае­мый объект: это выглядело так., но понял, что не мо­жет этого сделать: «Когда я отвел глаз от призмы, в которой все выглядело прекрасным, я обнаружил, что предательский карандаш остав­ляет на бумаге лишь следы, приводящие в уныние». Великим художником Тальбот не был, но за следующие несколько лет, прерываясь на работу в пар­ламенте, решение математических задач и исследования оптики, он изобрел калотипию, или таль­ботипию: сначала Тальбот придумал, как нужно подго­товить бумагу, чтобы она стала чувствительной к свету; затем — как зафик­сировать изобра­жение, чтобы оно не выцветало; и, наконец, вместе со своим давним другом и кол­легой Джоном Гершелем (который, кстати, и придумал использовать слова «фотография», «позитив» и «негатив») — как сделать так, чтобы с одного негатива можно было получить много позитивов. «Полагаю, это первый в исто­рии случай, когда дом нарисовал свой собствен­ный портрет» — так Тальбот опи­сывал собственное изобретение.

Тальбот собирался сообщить о своем изобретении научному сообществу, но мед­лил, совершенствуя процесс. И в 1839 году его ждал настоящий удар: 7 января на заседании Французской академии наук физик Франсуа Араго объ­явил об изобретении неким художником Луи Дагером дагеротипии — тех­ники получения изображений с помощью камеры-обскуры и их закрепления. Таль­бот понял, что, если он не­медлен­но не обнародует собствен­ное изобре­тение, все лавры достанутся Дагеру — и Франции.

Следующие несколько лет Тальбот с переменным успехом пытался доказать, что его изобретение автономно, подавал на патент, судился, получил репута­цию склочного ученого, тормозящего научный процесс, и, наконец, отказался от права на свое изобретение.

За событиями драматичного для Генри Тальбота и истории фотографии 1839 го­­­да можно проследить по личным и деловым письмам ученого. Еще восьмилетним мальчиком Тальбот попросил отчима передать маме и всем, кому он пишет письма, «хранить и не сжигать их». С тех пор он и сам, судя по всему, не уничтожил ни одного из полученных и написанных им пи­сем: их сохранилось около десяти тысяч. На фоне такой активной переписки нельзя не заметить одного удивительного факта: в архивах нет ни одного письма Тальбота, адресованного Дагеру, или Дагера — Тальботу.

Вычислительная Фотография / Offсянка

Оригинал статьи размещен на сайте Вастрик.ру и опубликован на 3DNews с разрешения автора. Мы приводим полный текст статьи, за исключением огромного количества ссылок — они пригодятся тем, кто всерьез заинтересовался темой и хотел бы изучить теоретические аспекты вычислительной фотографии более глубоко, но для широкой аудитории мы сочли этот материал избыточным.  

Сегодня ни одна презентация смартфона не обходится без облизывания его камеры. Каждый месяц мы слышим об очередном успехе мобильных камер: Google учит Pixel снимать в темноте, Huawei зумить как бинокль, Samsung вставляет лидар, а Apple делает самые круглые в мире уголочки. Мало где сейчас так жирно текут инновации.

Зеркалки при этом как будто топчутся на месте. Sony ежегодно осыпает всех новыми матрицами, а производители лениво обновляют последнюю цифру версии и продолжают расслабленно курить в сторонке. У меня на столе лежит зеркалка за $3000, но в путешествия я беру айфон. Почему?

Как говорил классик — я вышел в интернет с этим вопросом. Там обсуждают какие-то «алгоритмы» и «нейросети», понятия не имея, как конкретно они влияют на фотографию. Журналисты громко зачитывают количество мегапикселей, блогеры хором пилят проплаченные анбоксинги, а эстеты обмазываются «чувственным восприятием цветовой палитры матрицы». Все как обычно.

Пришлось сесть, потратить половину жизни и самому во всем разобраться. В этой статье я расскажу, что узнал.

⇡#Что такое вычислительная фотография?

Везде, включая википедию, дают примерно такое определение: вычислительная фотография — любые техники захвата и обработки изображений, где вместо оптических преобразований используются цифровые вычисления. В нем все хорошо, кроме того, что оно ничего не объясняет. Под него подходит даже автофокус, но не влезает пленоптика, которая уже принесла нам много полезного. Размытость официальных определений как бы намекает, что мы понятия не имеем о чем говорим.

Пионер вычислительной фотографии, профессор Стенфорда Marc Levoy (он же сейчас отвечает за камеру в Google Pixel) приводит другое определение — набор методов компьютерной визуализации, улучшающих или расширяющих возможности цифровой фотографии, при использовании которых получается обычная фотография, которая не могла технически быть снята на данную камеру традиционным способом. В статье я придерживаюсь именно его.

Итак, во всем были виноваты смартфоны.

У смартфонов не было выбора, кроме как дать жизнь новому виду фотографии — вычислительной.

Их маленькие шумные матрицы и крохотные несветосильные объективы по всем законам физики должны были приносить только боль и страдание. Они и приносили, пока их разработчики не догадались хитро использовать их сильные стороны, чтобы побороть слабые, — быстрые электронные затворы, мощные процессоры и софт.

Большинство громких исследований в области вычислительной фотографии приходятся на 2005-2015 года, что в науке считается буквально вчера. Прямо сейчас на наших глазах и в наших карманах развивается новая область знаний и технологий, которой никогда не было.

Вычислительная фотография — это не только селфи с нейро-боке. Недавняя фотография черной дыры не появилась бы на свет без методов вычислительной фотографии. Чтобы снять такое фото на обычный телескоп, нам бы пришлось сделать его размером с Землю. Однако, объединив данные восьми радиотелескопов в разных точках нашего шарика и написав немного скриптов на питоне, мы получили первую в мире фотографию горизонта событий. Для селфи тоже сгодится.

⇡#Начало: цифровая обработка

Представим, что мы вернули 2007-й. Наша мама — анархия, а наши фотографии — шумные 0,6-Мп джипеги, снятые на скейтборд. Примерно тогда у нас появляется первое непреодолимое желание насыпать на них пресетов, чтобы скрыть убогость мобильных матриц. Не будем себе отказывать.

⇡#Матан и инстаграм

С выходом инстаграма все помешались на фильтрах. Как человек, который в свое время реверс-инжинирил X-Pro II, Lo-Fi и Valencia в, конечно же, исследовательских (кек) целях, я все еще помню, что состояли они из трех компонентов:

  • Настроек цвета (Hue, Saturation, Lightness, Contrast, Levels и т. д.) — простых цифровых коэффициентов, в точности как в любых пресетах, которыми фотографы пользовались с древних времен.
  • Карты маппинга оттенков (Tone Mapping) — вектора значений, каждое из которых говорило нам: «Красный цвет с оттенком 128 надо превратить в оттенок 240».
  • Оверлея — полупрозрачной картинки с пылью, зерном, виньеткой, и всем остальным, что можно наложить сверху для получения нисколько не банального эффекта старой пленки. Присутствовал далеко не всегда.   

Современные фильтры недалеко ушли от этой тройки, лишь стали чуть сложнее по математике. С появлением аппаратных шейдеров и OpenCL на смартфонах их быстро переписали под GPU, и это считалось дико круто. Для 2012 года, конечно. Сегодня любой школьник может сделать такое же на CSS, и ему все равно не перепадет на выпускном.

Однако прогресс фильтров сегодня не остановился. Ребята из Дехансера, например, отлично упарываются по нелинейным фильтрам — вместо пролетарского тон-маппинга они используют более сложные нелинейные преобразования, что, по их словам, открывает куда больше возможностей.

Нелинейными преобразованиями можно натворить много дел, но они невероятно сложны, а мы, человеки, невероятно тупы. Как только в науке дело доходит до нелинейных преобразований, мы предпочитаем идти в численные методы и напихивать везде нейросетей, чтобы те писали шедевры за нас. То же было и здесь.

⇡#Автоматика и мечты о кнопке «шедевр»

Когда все привыкли к фильтрам, мы начали встраивать их прямо в камеры. История скрывает, кто именно из производителей был первым, но чисто для понимания как давно это было — в iOS 5.0, которая вышла аж в 2011 году, уже был публичный API для Auto Enhancing Images. Одному только Джобсу известно, как долго он использовался до открытия на публику.

Автоматика делала то же, что и каждый из нас, открывая фотку в редакторе, — вытягивала провалы в свете и тенях, наваливала сатурейшена, убирала красные глаза и фиксила цвет лица. Пользователи даже не догадывались, что «драматически улучшенная камера» в новом смартфоне была лишь заслугой пары новых шейдеров. До выхода Google Pixel и начала хайпа по вычислительной фотографии оставалось еще пять лет.

ML Enhance в пиксельматоре

Сегодня же бои за кнопку «шедевр» перешли на поле машинного обучения. Наигравшись с тон-маппингом, все ринулись тренировать CNN'ы и GAN'ы двигать ползуночки вместо пользователя. Иными словами, по входному изображению определять набор оптимальных параметров, которые приближали бы данное изображение к некоему субъективному пониманию «хорошей фотографии». Реализовано в том же Pixelmator Pro и других редакторах. Работает, как можно догадаться, не очень и не всегда.  

⇡#Стекинг — 90% успеха мобильных камер

Настоящая вычислительная фотография началась со стекинга — наложения нескольких фотографий друг на друга. Для смартфона не проблема нащелкать десяток кадров за полсекунды. В их камерах нет медленных механических частей: диафрагма фиксирована, а вместо ездящей шторки — электронный затвор. Процессор просто командует матрице, сколько микросекунд ей ловить дикие фотоны, а сам считывает результат.

Технически телефон может снимать фото со скоростью видео, а видео с разрешением фото, но все упирается в скорость шины и процессора. Поэтому всегда ставят программные лимиты.

Сам по себе стекинг с нами давно. еще деды ставили плагины на Photoshop 7.0, чтоб собрать несколько фотографий в вырвиглазный HDR или склеить панораму 18000 × 600 пикселей и... на самом деле никто так и не придумал, что с ними делать дальше. Богатые времена были, жаль, дикие.

Сейчас мы стали взрослые и называем это «эпсилон-фотографией» — когда, изменяя один из параметров камеры (экспозицию, фокус, положение) и склеивая полученные кадры, мы получаем нечто, что не могло быть снято одним кадром. Но это термин для теоретиков, на практике же прижилось другое название — стекинг. Сегодня по факту на нем строится 90% всех инноваций в мобильных камерах.

Вещь, о которой многие не задумываются, но она важна для понимания всей мобильной и вычислительной фотографии: камера в современном смартфоне начинает делать фотографии сразу, как только вы открываете ее приложение. Что логично, ей ведь надо как-то передавать изображение на экран. Однако, помимо экрана, она сохраняет кадры высокого разрешения в свой собственный циклический буфер, где хранит их еще пару секунд.

Когда вы нажимаете кнопку «снять фото» — оно на самом деле уже снято, камера просто берет последнее фото из буфера.

Сегодня так работает любая мобильная камера. По крайней мере во всех флагманах не с помоек. Буферизация позволяет реализовать не просто нулевую задержку затвора, о которой так давно мечтали фотографы, а даже отрицательную — при нажатии на кнопку смартфон заглядывает в прошлое, выгружает 5-10 последних фото из буфера и начинает неистово анализировать их и клеить. Больше не нужно ждать, пока телефон нащелкает кадров для HDR или ночного режима, — просто забирай их из буфера, пользователь даже не узнает.

Кстати, именно с помощью отрицательного лага затвора реализовано Live Photo в айфонах, а в HTC подобное было еще в 2013 году под странным названием Zoe.

⇡#Стекинг по экспозиции — HDR и борьба с перепадами яркости

Способны ли матрицы фотоаппаратов фиксировать весь диапазон яркости, доступный нашему глазу, — старая горячая тема для споров. Одни говорят нет, ведь глаз способен видеть до 25 f-стопов, в то время как даже из топовой фуллфрейм-матрицы можно вытянуть максимум 14. Другие называют сравнение некорректным, ведь глазу помогает мозг, автоматически подстраивая зрачок и достраивая изображение своими нейросетями, а моментальный динамический диапазон глаза на самом деле не больше как раз 10-14 f-стопов. Оставим эти споры лучшим диванным мыслителям интернета.

Факт остается фактом: снимая друзей на фоне яркого неба без HDR на любую мобильную камеру, вы получаете либо нормальное небо и черные лица друзей, либо прорисованных друзей, но выжженное насмерть небо.

Решение давно придумано — расширять диапазон яркости с помощью HDR (High dynamic range). Нужно снять несколько кадров с разной выдержкой и склеить их вместе. Чтобы один был «нормальный», второй посветлее, третий потемнее. Берем темные места из светлого кадра, пересветы заполняем из темного — профит. Остается лишь решить задачу автоматического брекетинга — насколько сдвинуть экспозицию каждого кадра, чтобы не переборщить, но с определением средней яркости картинки сейчас справится второкурсник технического вуза.

На последних iPhone, Pixel и Galaxy режим HDR вообще включается автоматически, когда нехитрый алгоритм внутри камеры определяет, что вы снимаете что-то контрастное в солнечный день. Можно даже заметить, как телефон переключает режим записи в буфер, чтобы сохранять сдвинутые по экспозиции кадры, — в камере падает fps, а сама картинка становится сочнее. Момент переключения хорошо заметен на моем iPhone X, если снимать на улице. Присмотритесь к своему смартфону в следующий раз тоже.

Минус HDR с брекетингом по экспозиции — его непроходимая беспомощность в плохом освещении. Даже при свете комнатной лампы кадры получаются такими темными, что компьютер не может их выровнять и склеить. Для решения проблемы со светом в 2013-м Google показал иной подход к HDR в вышедшем тогда смартфоне Nexus. Он использовал стекинг по времени.

⇡#Стекинг по времени — симуляция длинной выдержки и таймлапс

Стекинг по времени позволяет получить длинную выдержку с помощью серии коротких. Первопроходцами были любители поснимать следы от звезд на ночном небе, которым было неудобно открывать затвор сразу на два часа. Так было тяжело заранее рассчитать все настройки, а от малейшей тряски весь кадр выходил испорченным. Они решили открывать затвор лишь на пару минут, но много раз, а потом шли домой и клеили полученные кадры в фотошопе.

Такие рисунки звезд всегда клеили из нескольких фото. Так было проще контролировать экспозицию

Получается, камера никогда фактически не снимала на длинной выдержке, но мы получали эффект ее имитации, складывая несколько снятых подряд кадров. Для смартфонов уже давно написана куча приложений, использующих этот трюк, но все они не нужны с тех пор, как фича была добавлена почти во все стандартные камеры. Сегодня даже айфон легко склеит вам длинную выдержку из Live Photo.

Длинная выдержка в три клика

Вернемся к гуглу с его ночным HDR. Оказалось, с помощью брекетинга по времени можно реализовать неплохой HDR в темноте. Технология впервые появилась в Nexus 5 и называлась HDR+. Остальные же телефоны на Android получили ее как бы в подарок. Технология до сих пор настолько популярна, что ей хвалятся даже в презентации последних Pixel.

Работает HDR+ достаточно просто: определив, что вы снимаете в темноте, камера выгружает из буфера 8-15 последних фотографий в RAW, чтобы наложить их друг на друга. Таким образом алгоритм собирает больше информации о темных участках кадра чтобы минимизировать шумы — пиксели, где по каким-то причинам камера не смогла собрать всю информацию и лажанула.

Как если бы вы не знали, как выглядит капибара, и попросили пять человек описать ее — их рассказы были бы примерно одинаковыми, но каждый упомянул бы какую-то уникальную деталь. Так вы бы собрали больше информации, чем просто спросив одного. То же и с пикселями.

Сложение снятых с одной точки кадров дает тот же фейковый эффект длинной выдержки как со звездами выше. Экспозиция десятков кадров суммируется, ошибки на одном минимизируются на других. Представьте, сколько бы каждый раз пришлось щелкать затвором зеркалки, чтобы достичь такого.

Реклама Pixel, прославляющая HDR+ и Night Sight

Оставалось только решить проблему автоматической цветокоррекции — снятые в темноте кадры обычно получаются поголовно желтыми или зелеными, а мы вроде как хотим сочности дневного освещения. В ранних версиях HDR+ это решали простым подкручиванием настроек, как в фильтрах а-ля инстаграм. Потом же призвали на помощь нейросети.

Так появился Night Sight — технология «ночной фотографии» в Pixel 2 и 3. В описании так и говорят: «Machine learning techniques built on top of HDR+, that make Night Sight work». По сути это является автоматизацией этапа цветокоррекции. Машину обучили на датасете фоточек «до» и «после», чтобы из всякого набора темных кривых фотографий делать одну красивую.

Датасет, кстати, выложили в открытый доступ. Может, ребята из Apple возьмут его и наконец-то научат свои стеклянные лопаты нормально снимать в темноте.

Вдобавок в Night Sight используется вычисление вектора движения объектов в кадре, чтобы нормализовать смазы, которые обязательно получатся на длинной выдержке. Так, смартфон может взять четкие части с других кадров и приклеить.

⇡#Стекинг по движению — панорама, суперзум и борьба с шумами

Панорама — популярное развлечение жителей сельской местности. Истории пока не известно случаев, чтобы сосискофотка оказалась бы интересна кому-то, кроме ее автора, но не упомянуть ее нельзя — для многих с этого вообще начался стекинг.

Первый же полезный способ применения панорамы — получение фотографии большего разрешения, чем позволяет матрица камеры путем склейки нескольких кадров. Фотографы давно используют разный софт для так называемых фотографий с суперразрешением — когда немного смещенные фотографии как бы дополняют друг друга между пикселей. Таким образом можно получить изображение хоть в сотни гигапикселей, что весьма полезно, если вам надо распечатать это на рекламном плакате размером с дом.

Другой, уже более интересный подход — Pixel Shifting. Некоторые беззеркалки типа Sony и Olympus начали поддерживать его еще с 2014-го, но клеить результат все равно заставляли руками. Типичные инновации больших камер.

Смартфоны же преуспели здесь по смешной причине — когда вы снимаете фото, ваши руки трясутся. Эта на первый взгляд проблема легла в основу реализации нативного суперразрешения на смартфонах.

Чтобы понять, как это работает, надо вспомнить, как устроена матрица любого фотоаппарата. Каждый ее пиксель (фотодиод) способен фиксировать только интенсивность света — т. е. количество залетевших фотонов. Однако пиксель не может измерить его цвет (длину волны). Чтобы получить RGB-картинку, пришлось и здесь нагородить костылей — накрыть всю матрицу сеткой разноцветных стеклышек. Самая популярная ее реализация называется фильтром Байера и используется сегодня в большинстве матриц. Выглядит как на картинке ниже.

Получается, что каждый пиксель матрицы ловит только R-, G- или B-компоненту, ведь остальные фотоны нещадно отражаются фильтром Байера. Недостающие же компоненты он узнает тупым усреднением значений соседних пикселей.

Зеленых ячеек в фильтре Байера больше — так сделали по аналогии с человеческим глазом. Получается, что из 50 миллионов пикселей на матрице зеленый цвет будет улавливать 25 млн, красный и синий — по 12,5 млн. Остальное будет усреднено — этот процесс называется дебайеризация или демозаик, и это такой жирный смешной костыль, на котором все держится.

На самом деле у каждой матрицы свой хитрый запатентованный алгоритм демозаикинга, но в рамках данной истории мы этим пренебрежем.

Другие типы матриц (типа Foveon) пока ну как-то совсем не прижились. Хотя некоторые производители пытаются использовать матрицы без фильтра Байера для улучшения резкости и динамического диапазона.

Когда света мало или детали объекта совсем крошечны, мы теряем кучу информации, потому что фильтр Байера нагло отсекает фотоны с неугодной длиной волны. Поэтому и придумали делать Pixel Shifting — смещать матрицу на 1 пиксель вверх-вниз-вправо-влево, чтобы поймать их все. Фотография при этом не получается в 4 раза больше, как может показаться, просто процессор использует эти данные, чтобы точнее записать значение каждого пикселя. Усредняет не по соседям, так сказать, а по четырем значениям самого себя.

Тряска же наших рук при съемке фото на телефон делает этот процесс естественным следствием. В последних версиях Google Pixel эта штука реализована и включается всегда, когда вы используете зум на телефоне, — называется Super Res Zoom (да, мне тоже нравится их беспощадный нейминг). Китайцы тоже скопировали его в свои ляофоны, хотя получилось немного хуже.

Наложение друг на друга немного смещенных фотографий позволяет собрать больше информации о цвете каждого пикселя, а значит, уменьшить шумы, увеличить резкость и поднять разрешение не увеличивая физическое число мегапикселей матрицы. Современные Android-флагманы делают это автоматически, пока их пользователи даже не задумываются об этом.

⇡#Стекинг по фокусу — любая глубина резкости и рефокус в постпродакшене

Метод пришел из макросъемки, где маленькая глубина резкости всегда была проблемой. Чтобы весь объект был в фокусе, приходилось делать несколько кадров со сдвигом фокуса вперед-назад, чтобы потом сшить их в один резкий. Тем же методом часто пользовались любители съемки ландшафтов, делая передний и задний план резкими как диарея.

Стекинг по фокусу в макро. По-другому такое не снять

Все это тоже переехало и на смартфоны, правда, без особого хайпа. В 2013-м выходит Nokia Lumia 1020 с «Refocus App», а в 2014 и Samsung Galaxy S5 с режимом «Selective Focus». Работали они по одной и той же схеме: по нажатию на кнопку они быстро делали 3 фотографии — одну с «нормальным» фокусом, вторую со сдвинутым вперед и третью со сдвинутым назад. Программа выравнивала кадры и позволяла выбрать один из них, что преподносилось как «настоящее» управление фокусом в постпродакшене.

Никакой дальнейшей обработки не было, ведь даже этого простого хака было достаточно, чтобы вбить еще один гвоздь в крышку Lytro и аналогов с их честным рефокусом. Кстати, поговорим о них (мастер переходов 80 lvl).

⇡#Вычислительные матрицы — световые поля и пленоптика

Как мы поняли выше, наши матрицы — ужас на костылях. Мы просто привыкли и пытаемся с этим жить. По своему устройству они мало изменялись с самого начала времен. Мы лишь совершенствовали техпроцесс — уменьшали расстояние между пикселями, боролись с шумами-наводками, добавляли специальные пиксели для работы фазового автофокуса. Но стоит взять даже самую дорогую зеркалку и попытаться снять на нее бегущего кота при комнатном освещении — кот, мягко говоря, победит.

Мы уже давно пытаемся изобрести что-то получше. Много попыток и исследований в этой области гуглится по запросу «computational sensor» или «non-bayer sensor», и даже пример с Pixel Shifting выше можно отнести к попыткам улучшения матриц с помощью вычислений. Однако самые многообещающие истории в последние лет двадцать приходят к нам именно из мира так называемых пленоптических камер.

Чтобы вы не уснули от предвкушения надвигающихся сложных слов, вброшу инсайд, что камера последних Google Pixel как раз «немного» пленоптическая. Всего на два пикселя, но даже это позволяет ей вычислять честную оптическую глубину кадра и без второй камеры как у всех.

Пленоптика — мощное оружие, которое пока еще не выстрелило. Приведу ссылку на одну из моих любимых недавних статей о возможностях пленоптических камер и нашем с ними будущем, откуда я позаимствовал примеры.

⇡#

Пленоптическая камера — скоро будет каждая

Придумана в 1994-м, собрана в Стенфорде в 2004-м. Первая потребительская камера — Lytro, выпущена в 2012-м. С похожими технологиями сейчас активно экспериментирует VR-индустрия.

От обычной камеры пленоптическая отличается лишь одной модификацией — матрица в ней накрыта сеткой из линз, каждая из которых покрывает несколько реальных пикселей. Как-то так:

если правильно рассчитать расстояние от сетки до матрицы и размер диафрагмы, в итоговом изображении получатся четкие кластеры из пикселей — эдакие мини-версии оригинального изображения.

Оказывается, если взять из каждого кластера, скажем, один центральный пиксель и склеить картинку только по ним — она ничем не будет отличаться от снятой на обычную камеру. Да, мы немного потеряли в разрешении, но просто попросим Sony досыпать еще мегапикселей в новых матрицах.

Веселье же на этом только начинается. если взять другой пиксель из каждого кластера и снова склеить картинку — получится снова нормальная фотография, только как будто снятая со сдвигом на один пиксель. Таким образом, имея кластеры 10 × 10 пикселей, мы получим 100 изображений предмета с «немного» разных точек.

Больше размер кластера — больше изображений, но меньше разрешение. В мире смартфонов с 41-мегапиксельными матрицами мы хоть и можем немного пренебречь разрешением, но у всего есть предел. Приходится сохранять баланс.

Окей, мы собрали пленоптическую камеру, и что это нам дает?

Честный рефокус

Фича, о которой жужжали все журналисты в статьях про Lytro, — возможность честной корректировки фокуса в постпродакшене. Под честной имеется в виду, что мы не применяем всякие алгоритмы деблюринга, а используем исключительно имеющиеся под рукой пиксели, выбирая или усредняя их из кластеров в нужном порядке.

RAW-фотография с пленоптической камеры выглядит странно. Чтобы получить из нее привычный резкий джипег, надо сначала его собрать. Для этого надо выбрать каждый пиксель джипега из одного из кластеров RAW'а. В зависимости от того, как мы их выберем, будет меняться результат.

Например, чем дальше находится кластер от места падения оригинального луча, тем более этот луч получается в расфокусе. Потому что оптика. Чтобы получить смещенное по фокусу изображение, нам лишь надо выбрать пиксели на нужном нам удалении от оригинального — либо ближе, либо дальше.

Картинку надо читать справа налево — мы как бы восстанавливаем изображение, зная пиксели на матрице. Сверху получаем четкий оригинал, снизу — вычисляем то, что было за ним. То есть вычислительно сдвигаем фокус

 

Со сдвигом фокуса на себя было сложнее — чисто физически таких пикселей в кластерах было меньше. Сначала разработчики даже не хотели давать пользователю возможность фокусироваться руками — камера сама решала это программно. Пользователям такое будущее не понравилось, потому фичу добавили в поздних прошивках под названием «креативный режим», но сделали рефокус в нем сильно ограниченным ровно по этой причине.

Карта глубины и 3D с одной камеры   

Одна из самых простых операций в пленоптике — получение карты глубины. Для этого надо просто собрать два разных кадра и рассчитать, насколько сдвинуты объекты на них. Больше сдвиг — дальше от камеры.

Недавно Google купил и убил Lytro, но использовал их технологии для своего VR и... для камеры в Pixel. Начиная с Pixel 2 камера впервые стала «немного» пленоптической, правда, с кластерами всего по два пикселя. Это дало возможность гуглу не ставить вторую камеру, как все остальные ребята, а вычислять карту глубины исключительно по одной фотографии.

Картинки, которые видят левый и правый субпиксель камеры Google Pixel. Самая правая анимирована для наглядности (придется всмотреться)

Карта глубины дополнительно обрабатывается нейросетками, чтобы блюр фона был более равномерным

Карта глубины строится по двум кадрам, сдвинутым на один субпиксель. Этого вполне хватает, чтобы вычислить бинарную карту глубины и отделить передний план от заднего и размыть последний в модном нынче боке. Результат такого расслоения еще сглаживается и «улучшается» нейросетями, которые натренированы улучшать карты глубины (а не блюрить, как многие думают).

Фишка еще в том, что пленоптика в смартфонах нам досталась почти бесплатно. Мы и так ставили линзы на эти крошечные матрицы, чтобы хоть как-то увеличить световой поток. В следующих Pixel гугл планирует пойти дальше и накрыть линзой четыре фотодиода.

⇡#

Пленоптическая камера — скоро будет каждая

Нарезка на слои и объекты

Вы не видите своего носа, потому что мозг склеивает вам итоговое изображение из двух разных глаз. Закройте один, и вы заметите с краю целую египетскую пирамиду.

Тот же эффект достижим в пленоптической камере. Собрав сдвинутые относительно друг друга изображения из пикселей разных кластеров, мы сможем посмотреть на предмет как будто с нескольких точек. Прямо как наши глаза. Что открывает нам две крутые возможности: оценку примерного расстояния до объектов, что, как и в жизни, позволяет нам легко отделить передний план от заднего, а также, если размеры объекта небольшие, позволяет полностью удалить его из кадра. Как нос. Оптически, по-настоящему и без фотошопа.

«Оптическая» стабилизация без оптики

Из пленоптического RAW'а можно собрать сотню фотографий, снятых со сдвигом в несколько пикселей по всей площади матрицы. Получается, у нас есть труба диаметром с наш объектив, в рамках которой мы можем свободно перемещать точку съемки, компенсируя тем самым тряску изображения.

Технически стабилизация все еще оптическая, потому что нам не надо ничего вычислять — мы просто выбираем пиксели в нужных местах. С другой стороны, любая пленоптическая камера жертвует количеством мегапикселей в угоду пленоптическим возможностям, а точно так же работает любой цифровой стаб. То есть бонусом это фичу иметь приятно, но использовать исключительно ради нее — так себе затея.

Больше матрица и объектив — больше окно для движений — больше возможностей — больше озоновых дыр от обеспечения всего этого цирка электричеством и охлаждением. Е-е-е, технологии!

Борьба с фильтром Байера

Даже в пленоптической камере он все еще необходим, ведь мы так и не придумали другого способа получить цветное цифровое изображение. Зато теперь мы можем усреднять цвет не только по группке соседних пикселей, как в классическом демозаике, но и по десяткам его копий в соседних кластерах.

В статьях это называют «вычисляемым суперразрешением», но я бы тут снова засомневался — ведь, по сути, мы сначала уменьшаем реальное разрешение матрицы в те самые десятки раз, чтобы потом как бы гордо его восстановить. Чтобы такое кому-то продать, придется сильно постараться.

Хотя технически оно все равно интереснее, чем дрожать матрицей в приступе pixel shifting'а.

Вычисляемая форма диафрагмы (боке)

Любители снимать боке-сердечки здесь будут в восторге. Раз уж мы умеем управлять рефокусом, можно пойти и дальше — брать лишь некоторые пиксели из расфокусированного изображения, а другие из обычного. Так можно получить диафрагму любой формы на радость фотопабликам.

Много других плюшек для видео

Чтобы не отходить от темы фотографии в посте, всех интересующихся отправляю посмотреть на них по ссылке ниже. Там рассказывают еще с полдесятка интересных применений пленоптической камеры.

⇡#Световые поля (Light Field) — не столько фотография, сколько VR   

Обычно с них начинают объяснять пленоптику, но я так и не понял, зачем морочить ими голову с самого начала. Итак, да, с физической точки зрения пленоптическая камера — это инструмент фиксации светового поля. Даже название пошло отсюда — plenus, от латинского «полный», то есть собирающий всю информацию о лучах света. Как пленарное заседание.

Разберемся, что такое световое поле и зачем оно нам.

Любая традиционная фотография двумерна — где луч вошел в объектив, там и загорелся пиксель на фотографии. Камере все равно, откуда этот луч пришел, — случайно упал сбоку или отразился от манящих округлостей прекрасной дамы. Фотография фиксирует только точку пересечения луча с поверхностью матрицы.

Изображение же светового поля, в свою очередь, фиксирует то же самое, но с добавлением новой компоненты — откуда этот луч пришел. Иными словами, фиксирует вектор луча в пространстве. Как расчет освещения уровня в видеоигре, только наоборот — мы пытаемся понять модель освещения реального мира. Световое поле, получается, и есть набор всех световых лучей в рамках нашей сцены. Как падающих от источников света, так и отраженных.

Математических моделей световых полей до... очень много. Эта — одна из самых наглядных

Световое поле по сути визуально описывает пространство вокруг. Любую фотографию в рамках этого пространства мы теперь можем спокойно вычислить математически. Точка съемки, глубина резкости, диафрагма — все это тоже вычисляемо.

Мне тут нравится проводить аналогию с городом. Фотография — это как путь от дома до ларька с пивком, который вы помните наизусть, а световое поле — это карта всего города. Имея карту, мы можем вычислить в ней любой маршрут из точки А в Б. Точно так же мы можем вычислить любую фотографию, зная световое поле.

Для простой фотографии такая штука — оверкилл, но на сцену медленно выползает VR. В нем световые поля являются одним из перспективных направлений. Слепок светового поля позволит рассмотреть объект в виртуальной реальности из любой точки пространства. Больше не надо строить 3D-модель комнаты, чтобы походить по ней, — достаточно «всего лишь» записать все лучи света в этой комнате. Всего лишь, ага. Над тем и бьемся.

⇡#Вычислительная оптика   

Под оптикой мы с ребятами из Стенфорда имеем в виду не только линзы и объективы, но и все, что между объектом и матрицей, — даже диафрагму и затвор. Фотоснобы здесь будут в ярости.

Многокамерность

В 2014 году вышел HTC One (M8) и стал первым смартфоном с двумя камерами и весьма комичными возможностями вычислительной фотографии, типа замены фона дождем и блестками как в лучших пабликах «Одноклассников».

Началась гонка. Все стали ставить два, три, пять объективов в свои смартфоны, пытаясь попутно выяснить, что лучше, — телевик или ширик. В итоге дошли до появления Light L16, в которой было, как можно догадаться, аж 16 объективов.

L16 уже была не смартфоном, а скорее новым видом карманной камеры. Она позиционировалась как компактная альтернатива зеркалке, в которой качество фотографий достигалось не дорогущим светосильным объективом и фуллфрейм-матрицей, а силой алгоритмов вычислительной фотографии.

Телевик-перископ, P30 Pro

Среди ее 16 объективов были ширики на 28 мм и телевики на 70 и 150 мм. Каждый телевик был перископическим, то есть свет не шел напрямую через линзу на матрицу, а отражался зеркалом вглубь корпуса. Такое расположение позволяло впихнуть достаточно длинный телевик в плоский корпус, чтобы он не торчал из него трубой. Тот же финт недавно провернули китайцы в Huawei P30 Pro.

Каждое фото L16 снималось одновременно на 10 и более объективов, а потом камера их хитро склеивала, чтобы получить 52-Мп изображение. По задумке авторов, одновременная съемка на несколько объективов позволяла поймать такое же количество света, как и в большой объектив зеркалки, но при этом хитро обойти все законы оптики и необходимость в длинной подзорной трубе.

Из программных фич в первой версии было управление глубиной резкости и фокусом после съемки фото — наличие фотографий с разных ракурсов позволяло вычислить глубину кадра и наложить неплохой программный блюр. На бумаге все звучало приятно, и до релиза у всех даже была надежда на светлое вычислительное будущее.

В марте 2018 года Light L16 вышла на рынок и... с треском провалилась. Технологически она действительно находилась в будущем, но при цене в $2 000 не имела никакой оптической стабилизации, из-за чего фотографии постоянно получались смазанными (не удивительно при линзах в 70-150 мм), автофокус был слишком медленным, склейка из нескольких кадров давала странные перепады резкости, а в темноте камера вообще была бесполезна, потому что в ней не было алгоритмов типа гугловского HDR+ или Night Sight. Современные мыльницы за $500 с поддержкой RAW уделывали ее со старта, потому продажи быстро прекратили после первой партии.

Однако компания Light на этом не закрылась, а, наоборот, подняла бабла и с удвоенной силой продолжает пилить новую версию. Например, их технологии использовались в недавней Nokia 9, которая страшный сон трипофоба. Ждем новых инноваций, потому что идея явно богатая.

⇡#Некруглые диафрагмы (Coded Aperture) — карта глубины по одной камере, деблюр   

Начинается зона телескопов, рентгенов и прочего тумана войны. Сильно заходить в нее не будем, но ремни лучше заранее пристегнуть. История кодирующих диафрагм начиналась там, где фокусировка лучей была физически невозможна, — для гамма- и рентгеновского излучения. Обратитесь к ближайшему учителю физики, он вам объяснит почему.

Суть кодированной диафрагмы заключается в замене стандартной ее дырки на неким паттерном. Расположение отверстий должно быть таким, чтобы их общий вид максимально различался в зависимости от степени расфокуса. Чем разнообразнее — тем лучше. Астрономы напридумывали целую гору таких паттернов для своих телескопов, здесь я приведу самый классический.

Как это все работает?

Когда мы фокусируемся на объекте, все, что вне глубины нашей резкости, размывается. Физически размытие — это когда одна точка по причине расфокуса проецируется линзой на несколько пикселей матрицы. Так уличный фонарь превращается в круглый блин боке.

Математики называют такие операции сверткой (convolution) и обратной сверткой (deconvolution). Запомним эти слова, ведь они круто звучат!

Технически мы можем развернуть любую свертку обратно, если знаем ядро. Но это математики так говорят. В реальности же у нас ограниченные диапазоны матрицы и неидеальные линзы объективов, из-за чего все наши «боке» далеки от математического идеала, и полностью восстановить их невозможно.

Мы все равно можем попытаться, если узнаем ядро свертки. Не буду долго тянуть, но этим ядром в фотографии как раз и является форма диафрагмы. Диафрагма делает математическую свертку чисто оптически.

Проблема в том, что обычная круглая диафрагма остается круглой на любом уровне размытия. Наше ядро всегда примерно одинаковое — это стабильно, но не очень полезно. В случае с кодированной диафрагмой лучи с разной степенью расфокуса будут закодированы с разным ядром. Читатели с IQ > 150 уже догадались, что будет дальше.

Остается лишь одна проблема — понять, с каким ядром закодирована каждая из областей изображения. Можно попробовать это сделать руками, примеряя разные ядра и смотря, где свертка получается точнее, но это не наш путь. Давным-давно человеки изобрели для этого преобразование Фурье! Чтобы не насиловать людей матаном, приложу ссылку на мое любимое его объяснение для тех, кому это вообще интересно.

Все, что нужно знать простому человеку: преобразование Фурье позволяет достать из кучи наложенных друг на друга волн те паттерны, которые в них преобладают. В случае музыки Фурье покажет частоты входящих в сложный аккорд нот, а в случае с фотографией — преобладающий паттерн, с которым куча световых волн наложилась друг на друга. То есть ядро свертки. Профит.

А так как форма кодированной диафрагмы всегда разная в зависимости от расстояния до объекта — мы можем вычислить это расстояние чисто математически, используя только один простой кадр, снятый на обычную матрицу!

Применив операцию обратной свертки по этому ядру, мы можем восстановить разблюренные области изображения. Вернуть все разбросанные пиксели на место, так сказать.

Сверху справа как раз показано ядро свертки

Так работает большинство инструментов деблюра. Причем это прокатывает даже с обычной круглой диафрагмой, но результат получается менее точным.

Минусом кодирующих диафрагм является потеря света и появление шумов, а ими мы все еще не можем пренебрегать. Появление же лидаров и достаточно точных ToF-камер вообще свело на нет все идеи использования кодирующих диафрагм в потребительских гаджетах. если вы где-то их встречали — напишите в комментах.

⇡#

Фазовое кодирование (Phase Coding, Wavefront Coding)   

Согласно последним ГОСТам, свет — наполовину волна. Кодируя диафрагму, мы управляли прозрачностью линзы, что в переводе на волновой язык означает «управляли его амплитудой». Кроме амплитуды есть фаза, и ее тоже можно кодировать.

Делают это с помощью дополнительной линзы, которая переворачивает фазу проходящего через нее света. Как на обложке Pink Floyd, да.

Дальше все работает как в любом другом оптическом кодировании. Разные области изображения оказываются закодированы по-разному, а мы можем их алгоритмически распознать и как-то пофиксить. Например, сдвинуть фокус.

Плюс фазового кодирования — мы не теряем в яркости. Все фотоны честно долетают до матрицы, в отличие от кодированной диафрагмы, где они стукаются о непроходимые ее части (ведь во второй половине ГОСТа свет — это частица).

Минус — мы всегда будем терять в резкости, потому что даже объекты в абсолютном фокусе будут равномерно размазаны по матрице, и нам хоть как придется звать Фурье, чтобы собрал их для нас. 

⇡#Кодированный затвор (Flutter Shutter) — борьба со смазом движения   

Последнее, что мы можем закодировать на пути света до матрицы, — затвор. Вместо привычного цикла «открыли — подождали — закрыли» будем несколько раз двигать затвором за кадр, чтобы в сумме получить нужную выдержку. Почти как в мультиэкспозиции — когда один кадр экспонируется несколько раз.

Представим, что мы решили фотографировать быстро движущийся автомобиль ночью и потом рассмотреть его номера. Вспышки у нас нет, длинной выдержкой воспользоваться тоже не выйдет — все смажется. Надо уменьшать выдержку, но так мы дойдем до абсолютно черного кадра, так и не распознав автомобиль. Что делать?

Можно снять тот же кадр в несколько движений затвора — чтобы автомобиль был размазан не равномерно, а как бы лесенкой с заранее известным шагом. Конечно, если он не валит со скоростью заниженной четверки с района, но этот вариант наука игнорирует.

Получается, мы закодировали смаз случайной последовательностью открытий-закрытий затвора и можем попытаться раскодировать его с помощью той же обратной свертки. Оказывается, это работает в разы лучше, чем если пытаться так же вернуть равномерно смазанные от длинной выдержки пиксели.

Алгоритмов для этого придумано аж несколько штук. Для более хардкорных подробностей снова приложу ссылки на публикации умных индусов.

⇡#Вычислительное освещение   

Скоро мы зажремся настолько, что захотим контролировать в постпродакшене в том числе и освещение. Менять пасмурную погоду на солнечную или выравнивать тени на лице после съемки — сейчас это кажется дикостью, но посмотрим лет через десять.

Мы уже изобрели одно глупое устройство, позволяющее в прямом смысле «в лоб» управлять освещением, — вспышку. Сначала она была нужна из-за технических ограничений камер, потом враги стали ставить ее во все мыльницы, чтобы портить ваши семейные фото, а в эпоху смартфонов все используют ее как фонарик.

Наши движения к вычислительному освещению пока еще хаотичны и мало кому понятны.

⇡#

Программируемая вспышка   

Старые нокии обожали пощеголять вспышками на ксеноне, выжирающими по проценту батарейки с каждой фотографией. Сегодня жизнь стала скучнее и везде ставят простой энергоэффективный LED. Со светодиодом особо не разгуляешься, но мы все равно попытались.

Для начала все перешли на Dual LED-вспышки — сочетание оранжевого и синего светодиодов, яркость которых пытается подстроиться под цветовую температуру кадра. В айфонах это зовут True Tone и управляет им небольшой кусок кода по хитрой формуле. Даже разработчикам не дают ими управлять.

Когда в смартфонах появились датчики глубины и нейросети, мы захотели решить ими главную проблему всех вспышек — пересвеченные лица и вообще передний план. Каждый сделал это по-своему. В айфонах появился Slow Sync Flash — камера искусственно увеличивала выдержку в темноте. В Google Pixel и других андроидах — алгоритм объединения кадров со вспышкой и без. Телефон быстро делает две фотографии — со вспышкой и без. Части кадра, находящиеся близко к камере, берутся из кадра без вспышки, а подсвеченные детали фона из кадра со вспышкой. Получается примерно равномерное освещение.

Дальнейшее применение программируемых мультивспышек весьма туманно. Интересное применение нашли разве что в областях компьютерного зрения, где нужно было с большей четкостью определять границы объектов. Например, так можно сделать схему по сборке шкафа из икеи.

⇡#

Кодированный свет (Lightstage)   

Кодировать свет всегда было проще всего. Мы можем хоть сотню раз за кадр менять освещение и все равно даже не приблизимся к его скорости. Поэтому уже в далеком 2005-м вот эти ребята придумали Lighstage.

Суть метода в том, чтобы в каждом кадре реального 24-кадрового кино успеть подсветить объект со всех возможных сторон. Для этого используется 150+ ламп и высокоскоростная камера, которая на один кадр фильма снимает сотню кадров с разным освещением. Вот так глупо выглядят любые инновации, когда их начинаешь объяснять.

Сейчас подобный этому подход используется при съемках комбинированной CGI-графики в кино. Он позволяет полностью управлять освещением объекта в постпродакшене, помещая его в сцены с абсолютно случайным освещением. Просто берем подсвеченные с нужных сторон кадры, немного тонируем, профит.

Жаль, на мобильных девайсах такое будет сделать проблематично, но идея, может, кому-то и пригодится. Видел приложение ребят, которые снимали 3D-модель лица, подсвечивая его фонариком телефона с разных сторон.

⇡#

Лидар и time-of-flight-камера   

Лидар — устройство, определяющее расстояние до объекта. Сегодняшним прогрессом в области лидаров мы обязаны дикому хайпу по самоуправляемым автомобилям в последние годы. Видели, наверное, крутящиеся штуки на их крышах — это как раз лидары.

В смартфон лазерный лидар пока не впихнуть, потому сейчас мы обходимся его младшим братом — time-of-flight-камерой. Суть работы до нелепости проста: отдельная камера, над которой стоит LED-вспышка. Камера фиксирует, как быстро свет достигает объектов, и строит по этому карту глубины кадра.

Точность современных ToF-камер — около сантиметра. Последние флагманы Samsung и Huawei используют их для создания карты боке и для лучшей работы автофокуса в темноте. Последнее, кстати, довольно неплохо. Всем бы такое.

Знание точной глубины кадра будет полезно в эпоху наступающей дополненной реальности — пулять лидаром по поверхностям, чтобы сделать первичный маппинг в 3D, будет куда точнее и проще, чем анализируя изображения камер.

⇡#Проекторное освещение (Projector Illumination)   

Чтобы всерьез заняться вычислительным освещением на смартфонах, нам придется перейти от обычных LED-вспышек к проекторам — любым штукам, умеющим проецировать 2D-картинку на плоскость. Для начала сойдет и простая монохромная сетка.

Первый плюс проектора — он может подсветить только ту часть кадра, которая действительно нуждается в подсветке. Больше никаких выжженных лиц на переднем плане — их можно распознать и игнорировать, как это делают лазерные фары современных автомобилей, которые не слепят встречку в движении, но подсвечивают пешеходов. Даже при минимальном разрешении проектора, типа 100 × 100 точек, возможности выборочной подсветки весьма интересны.

В автомобилях управляемым светом уже лет пять никого не удивишь

Второе, более реальное применение проектора — проецирование невидимой глазу сетки на кадр. С ней можно забить на все эти нейросети для определения глубины — по ней все расстояния до объектов в кадре рассчитываются простейшими алгоритмами компьютерного зрения. Так делали еще во времена Microsoft Kinect, царство ему небесное, и было неплохо.

естественно, здесь нельзя не вспомнить Dot Projector для Face ID в iPhone X и выше. Это пока наш первый шаг в сторону проекторных технологий, но уже весьма заметный.

Dot Projector в iPhone X

⇡#

Будущее фотографии   

Управление 3D-сценой и дополненная реальность

Время поразмышлять. Судя по происходящему в крупных технологических компаниях, наши ближайшие десять лет будут плотно посвящены дополненной реальности. Это сейчас AR выглядит как игрушка — как способ примерить кроссовки, посмотреть, как будет выглядеть макияж, или тренировать армию США. Завтра мы и не заметим, как станем пользоваться AR постоянно. Плотные потоки бабла от Google и Nvidia уже ощущаются.

Для фотографии это означает, что в моду войдет AR-фото — возможность управлять 3D-сценой. Сканировать пространство, как это делают смартфоны с Tango, добавлять в него новые объекты, как в HoloLenz, вот это вот все. Пусть вас не смущает пока унылая графика современных AR-приложений — как только сюда придут игровые компании с мыльным кинцом, все станет куда лучше.

Помните, как эпично бомбанул Huawei с их фейковым Moon Mode? Для тех, кто пропустил, как это работало: если камера определяла, что вы хотите снять луну на небе, она вклеивала в кадр заранее подготовленную фотографию луны высокого разрешения. Так ведь и правда круче. Настоящий китайский киберпанк. Мы всем интернетом смеялись сильно громче обычного.

Life goal: уметь лить в уши как Huawei

Потом я купил себе новые легкие и задумался — а ведь дядька Ляо на сцене был прав. Он дал людям ровно то, что обещано, — луна была настоящей, камера позволяла ее ТАК снять, а остальные вопросы пишите в спортлото. Ведь если завтра смартфон будет предлагать приклеить красивый закат или синее небо вместо облаков — пять миллионов жителей Петербурга будут в восторге!

В будущем машины будут «дорисовывать» наши фотографии. Так вижу.

Уже сейчас в камерах Pixel, Galaxy и других Android-смартфонов есть какой-нибудь глупый AR-режим. В одном можно добавлять модели персонажей из мультиков, чтобы сфотографироваться с ними, во втором лепить эмодзи по всей комнате, в третьем наложить маски на лицо, как в снапчате.

Все это лишь наши первые наивные шаги. Сегодня у того же гугла в камере есть Google Lens, который гуглит для вас информацию о любом объекте, на который вы навели камеру. У Samsung то же самое умеет Bixby. Пока эти фичи сделаны, только чтобы унижать людей с айфонами, но несложно представить, как в следующий раз, когда вы будете делать селфи на фоне Эйфелевой башни, телефон скажет: "Знаешь, твое селфи — полный отстой, я вставил на фон нормальную резкую фотку башни с того же ракурса, а тебе там пофиксил прическу и замазал прыщ под губой. Лучше всего сюда подойдет фильтр VSCO L4. Не благодари".

Дальше камера начнет менять траву на более зеленую, друзей на более закадычных, а сиськи на более большие или типа того. Дивный новый мир.

Все это будет выглядеть нелепо, сначала даже ужасно. У дедов-эстетов будет дико бомбить, а борцы за натуральность пойдут по домам отбирать нейросети у населения. Массовая же аудитория будет в восторге. Потому что для нее фотография — лишь один из способов самовыражения и передачи эмоций. Каждый раз, когда появлялся инструмент, чтобы выражать их ярче и эффективнее, все начинали им пользоваться — эмодзи, фильтры, стикеры, маски, аудиосообщения. Список кому-то покажется мерзким, но его легко можно продолжать.

Фотографии «объективной реальности» будут казаться скучными, как фотки семьи за новогодним столом с оливье. Они не умрут, но станут чем-то типа бумажных книг — увлечением эстетов, которые видят в этом особый смысл. «Кому вообще может быть интересно заморачиваться с правильным светом и композицией объектов на сцене, если мой телефон дорисовывает то же самое за меня», — будут недоумевать одни. «Ко-ко-ко-ко-ко», — будут парировать другие.

Массовой аудитории плевать на объективность, им надо, чтобы алгоритмы делали их лица моложе, а отпуск круче, чем у соседа по офису. Дополненная реальность будет дорисовывать реальность за них даже с более высоким уровнем детализации, чем она есть на самом деле. Как бы смешно ни звучало, мы начнем улучшать графику в реальном мире.

И да, как всегда, все начнется с подростков с их «непонятными глупыми увлечениями для дегенератов». Так всегда все начинается. Как только вы что-то перестаете понимать — это и есть будущее. Следите за ними.

⇡#Современные смартфоны с точки зрения вычислительной фотографии

Составить четкую таблицу отличий в камерах смартфонов сложно, потому что из-за огромной конкуренции на рынке, фичи в них появляются практически одновременно. Объективный обзор здесь невозможен, ведь когда какой-нибудь Google анонсирует новый Night Mode, через месяц Samsung копирует его в своей новой прошивке, и «объективно» как бы не докопаешься. Потому я здесь не буду объективным.

Выписал только то, что мне показалось интересным в контексте этого поста, игнорируя совсем уж очевидные вещи типа Dual LED-вспышек, автоматического баланса белого или режима панорамы. В конце статьи есть форма для комментариев, где вы можете что-то дополнить, если вдруг вам известны какие-то инсайды. 

⇡#Место для историй о вашем любимом смартфоне

Я взял для сравнения только четыре флагмана, но рынок на этом далеко не заканчивается. Если у вас есть интересный смартфон, напишите в комментариях о фичах его камеры и своих личных впечатлениях от него (нравится или подумываете сменить на что-то другое). 

⇡#Заключение

На протяжении истории каждая человеческая технология становилась более совершенной, как только переставала копировать живые организмы. Сегодня тяжело представить автомобиль с суставами и мышцами вместо колес. Самолеты с фиксированными крыльями летают со скоростью 800+ км/ч — птицы машут и завидуют. Аналогов компьютерному процессору вообще не существует в природе.

Самое интересное — чего нет в этом списке. Матриц фотоаппаратов. Мы до сих пор не придумали ничего лучше, как имитировать структуру глаза. Тот же объектив-хрусталик и набор RGGB-колбочек как у сетчатки.

Компьютерная фотография добавила к этому процессу «мозг» — процессор, который обрабатывает визуальную информацию, не только считывая пиксели через зрительный нерв, но и дополняя картинку на основе своего опыта. Да, сегодня это открывает нам кучу возможностей, но есть подозрение, что мы все еще пытаемся махать крыльями в перьях вместо того, чтобы пойти изобрести самолет. Который оставит позади все эти затворы, диафрагмы и фильтры Байера.

Прелесть ситуации в том, что мы даже понятия сегодня не имеем, что это будет.

Большинство из нас умрет, так и не узнав.

И это прекрасно.

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

DK Искусство и развлечения: Фотография

Слово фотография происходит от двух греческих слов, означающих «свет» и «рисунок». Фотография - это процесс и искусство создания неподвижных изображений с помощью воздействия света на химически подготовленную поверхность.

КТО ИЗОБРЕЛ ФОТОГРАФИЮ?

Джозеф Нисефор Ньепс (1765–1833) сделал первую фотографию c. 1827. Однако для его обработки потребовалось восемь часов воздействия света, и изображение получилось нечетким. В 1837 году Луи Дагер (1787–1851) создал резкое, но одноразовое изображение за несколько минут.В 1839 году Уильям Генри Фокс Талбот (1800–1877) представил негативную пленку и фотографии, которые до сих пор являются основой современной фотографии.

КОГДА КАМЕРЫ СТАНОВИЛИ ПОРТАТИВНЫМИ?

В первые дни фотографии фотоаппараты были большими и громоздкими, а снимки делались на отдельных стеклянных пластинах. Большой прорыв произошел, когда Джордж Истман (1854–1932) изобрел гибкую пленку. В 1888 году он представил фотоаппарат Kodak - он был маленьким, легким и загруженным рулоном пленки. Вскоре повальное увлечение моментальной фотографией распространилось.

ВЛИЯЕТ ЛИ ФОТОГРАФИЯ НА ЖИВОПИСЬ?

Влияние всегда было двусторонним. Например, на заре создания моментальных снимков художников-импрессионистов вдохновляли их случайные эффекты, такие как размытие движущихся фигур и кадрирование фигур по краям фотографии. Фотографические портреты и пейзажи часто вдохновляются нарисованными.

КАК РАБОТАЕТ ЦВЕТНАЯ ФОТОГРАФИЯ?

В фотографии все цвета могут быть составлены из смеси красного, синего и зеленого.Цветная пленка состоит из трех слоев светочувствительного материала, каждый из которых реагирует на один из этих цветов. Цветные красители производятся в каждом слое, и слои объединяются для создания фотографического изображения.

ЧЕМ ДЕЛАЮТ ДОКУМЕНТАЛЬНЫЕ ФОТОГРАФЫ?

С XIX века фотографы-документалисты записывают чужой опыт. Фотографии викторианских уличных продавцов или бедных фермеров США во время Великой депрессии оказали огромное влияние на общественное сознание. Трагические образы войны во Вьетнаме уменьшили общественную поддержку войны в США.

Эдвард Мейбридж (1830–1904) разработал технику быстрой серии фотографий, которая раскрыла удивительную правду о том, как передвигаются животные. До того, как его фотографии были опубликованы, художники ошибочно изображали скачущих лошадей с вытянутыми четырьмя ногами.

Ньепс и изобретение фотографии

После смолы Gaïacum Ньепс использовал другую смолу, состоящую из минералов: асфальт или битум Иудеи. Он продемонстрировал, что под воздействием света эта смола не растворяется в его обычном растворителе.
С 1822 года ему удалось воспроизвести рисунки, соприкасавшиеся с основами, покрытыми битумом (стеклянные пластины, известняковые камни, затем медные или оловянные пластины). Впоследствии он использовал процесс aqua fortis для травления изображений, сделанных кислотой, которые затем были распечатаны на бумаге. Этот процесс должен был долгое время оставаться основой фотогравюры, используемой для печати фотографий и графических документов.

Принцип и техника

Для воспроизведения рисунков примерно в 1822-1823 годах Ньепс задумал то, что мы сейчас называем контактной печатью. Он ясно объясняет, как он наносил лак на оборотную сторону травления, чтобы сделать бумагу прозрачной, а после высыхания он наносил это травление непосредственно на медную или оловянную пластину, покрытую битумным лаком. Он выставил партию при дневном свете в течение трех-четырех часов, затем промыл пластину в лавандовом масле, разбавленном белым керосином. Битум, который был защищен от воздействия света под линиями рисунка, затем растворился, и появился необработанный металл. С другой стороны, свет, прошедший через прозрачную бумагу, сделал битум нерастворимым и остался на пластине после полоскания лавандовым маслом.Изображение битума было негативом рисунка: оборотная сторона окрашена в темный битумно-коричневый цвет, а линии представлены необработанным металлом.

Затем Ньепс изобрел процесс, позволяющий выгравировать рисунок на металле. Это было сделано с помощью хорошо известного и простого принципа aqua fortis. Пластина с битумом Иудеи погружается в кислотную ванну, которая кусает металл там, где он не защищен, то есть в местах, соответствующих линиям рисунка. Поскольку битумный лак кислотостойкий, кислота может проникать в металл.После того, как линии нанесены на пластину, Ньепс удалил битумный лак с металлической основы, чтобы оставить на ней только вытравленный рисунок.

Первые успешные результаты этого метода можно датировать 1822 годом, что касается контактных репродукций, потому что в этом году Ньепс сделал копию портрета Папы Пия VII на стеклянной пластине. Это еще не было гравированной кислотой гравюры. Самые ранние попытки травления в 1823 году относятся не к металлу, а к литографическим камням. Принтер из Дижона печатал бумажные отпечатки с этих камней.Таким образом, Ньепс получил доказательство того, что его технология - посредством контактного воспроизведения - позволяет умножать оригиналы посредством печати.
В 1825 году он гравировал свои изображения на меди, с 1826 года - на олове.

Кислотный процесс идеально подходит для репродукций штриховых рисунков, на которых градации представлены штриховкой. В случае изображений с непрерывными тонами они воспроизводятся битумом различной толщины, который невозможно обработать кислотным травлением, так как раствор кислоты не может проникать в лак. Ньепс понимал это явление и постоянно работал над воспроизведением офортов. Многие музеи по всему миру хранят металлические пластины, вытравленные изобретателем с помощью этого процесса.
Музей Ньепсе владеет десятью металлическими пластинами, на которых Нисефор воспроизвел гравюры. Другие металлические пластины с гравировкой Ньепс хранятся в «Французском обществе фотографии», в «Королевском фотографическом обществе» или в коллекции Жанин Ньепс. Тем не менее, после его многочисленных неудач при травлении изображений с непрерывным тоном, полученных с помощью камеры-обскуры, Ньепс постепенно отказался от кислотного травления и полностью прекратил его после июля 1827 года.

Краткая история фотографии и камеры

Фотография прошла долгий путь за свою относительно короткую историю. Почти за 200 лет камера превратилась из простой коробки, которая позволяла делать размытые фотографии, в высокотехнологичные мини-компьютеры, которые используются сегодня в зеркальных фотокамерах и смартфонах.

История фотографии увлекательна, и ее можно вдаваться в подробности. Однако давайте кратко рассмотрим основные моменты и основные разработки этого вида научного искусства.

Первые камеры

Основная концепция фотографии существует примерно с 5 века до нашей эры.C.E. Это искусство родилось только после того, как иракский ученый в XI веке разработал нечто, называемое камерой-обскурой.

Даже тогда камера фактически не записывала изображения, а просто проецировала их на другую поверхность. Изображения также были перевернуты, хотя их можно было отследить для создания точных рисунков реальных объектов, таких как здания.

Первая камера-обскура использовала отверстие в палатке, чтобы проецировать изображение снаружи палатки в затемненную область.Только в 17 веке камера-обскура стала достаточно маленькой, чтобы ее можно было переносить. Примерно в это же время появились и базовые линзы для фокусировки света.

Первые постоянные изображения

Фотография в том виде, в каком мы ее знаем сегодня, зародилась в конце 1830-х годов во Франции. Джозеф Нисефор Ньепс использовал портативную камеру-обскуру, чтобы выставить на свет оловянную пластину, покрытую битумом. Это первое записанное изображение, которое не исчезло быстро.

Успех Ньепса привел к ряду других экспериментов, и фотография прогрессировала очень быстро.Дагерротипы, эмульсионные пластины и мокрые пластины разрабатывались почти одновременно в середине - конце 1800-х годов.

С каждым типом эмульсии фотографы экспериментировали с разными химическими веществами и техниками. Следующие три фактора сыграли важную роль в развитии современной фотографии.

Дагерротип

Эксперимент Ньепса привел к сотрудничеству с Луи Дагером. Результатом стало создание дагерротипа, предшественника современного кино.

  • Медная пластина была покрыта серебром и подвергнута воздействию паров йода перед воздействием света.
  • Для создания изображения на пластине ранние дагерротипы должны были подвергаться воздействию света в течение 15 минут.
  • Дагерротип был очень популярен, пока в конце 1850-х его не заменили эмульсионные пластины.

Эмульсионные пластины

Эмульсионные планшеты или влажные планшеты были менее дорогими, чем дагерротипы, и требовали всего двух или трех секунд воздействия.Это сделало их более подходящими для портретных фотографий, которые в то время были наиболее распространенным видом использования фотографии. Многие фотографии времен Гражданской войны были сделаны на мокрых пластинах.

В этих влажных пластинах использовался эмульсионный процесс, называемый коллодийным процессом, а не просто нанесение покрытия на пластину изображения. Именно в это время к камерам были добавлены сильфоны, помогающие фокусироваться.

Двумя распространенными типами эмульсионных пластин были амбротип и тинтип. Амбротипы использовали стеклянную пластину вместо медной пластины дагерротипов.Tintypes использовали жестяную пластину. Хотя эти пластины были намного более чувствительны к свету, их нужно было быстро разработать. Фотографам нужно было иметь под рукой химию, и многие путешествовали в фургонах, которые служили темной комнатой.

Сухие тарелки

В 1870-х годах фотография сделала еще один огромный шаг вперед. Ричард Мэддокс усовершенствовал предыдущее изобретение, сделав пластинки из сухого желатина, которые были почти равны пластинам из влажного материала по скорости и качеству.

Эти сухие тарелки можно было хранить, а не делать по мере необходимости.Это дало фотографам гораздо больше свободы при съемке фотографий. Этот процесс также позволил использовать камеры меньшего размера, которые можно было держать в руках. По мере уменьшения времени экспозиции была разработана первая камера с механическим затвором.

Камеры для всех

Фотография была предназначена только для профессионалов и очень богатых людей, пока Джордж Истман не основал компанию под названием Kodak в 1880-х годах.

Истман создал гибкую рулонную пленку, не требующую постоянной смены сплошных пластин. Это позволило ему разработать автономную коробчатую камеру на 100 кадров пленки. У камеры был небольшой одиночный объектив без регулировки фокусировки.

Потребитель делал снимки и отправлял камеру обратно на фабрику для проявления пленки и печати, как в современных одноразовых камерах. Это была первая недорогая камера, доступная среднему человеку.

Фильм все еще был большим по сравнению с сегодняшней 35-миллиметровой пленкой. Лишь в конце 1940-х годов 35-мм пленка стала достаточно дешевой для использования большинством потребителей.

Этьен Жаннере / Getty Images

Ужасы войны

Приблизительно в 1930 году Анри-Картье Брессон и другие фотографы начали использовать маленькие 35-миллиметровые камеры для съемки живых изображений, а не постановочных портретов. Когда в 1939 году началась Вторая мировая война, многие фотожурналисты переняли этот стиль.

Постановочные портреты солдат Первой мировой войны уступили место графическим изображениям войны и ее последствий. Такие изображения, как фотография Джоэла Розенталя, Поднимая флаг на Иводзиме , вернули реальность войны домой и помогли воодушевить американский народ, как никогда раньше.Этот стиль съемки решающих моментов навсегда сформировал лицо фотографии.

Чудо мгновенных изображений

В то же время, когда стали популярными 35-миллиметровые камеры, Polaroid представила модель 95. Модель 95 использовала секретный химический процесс для проявления пленки внутри камеры менее чем за минуту.

Эта новая камера была довольно дорогой, но внимание публики привлекла новизна мгновенных изображений. К середине 1960-х у Polaroid было много моделей на рынке, и цена упала, так что даже больше людей могли себе это позволить.

В 2008 году Polaroid перестали снимать свой знаменитый моментальный фильм и унесли свои секреты с собой. Многие группы, такие как The Impossible Project и Lomography, пытались возродить мгновенный фильм с ограниченным успехом. По состоянию на 2018 год по-прежнему сложно воспроизвести качество, которое было обнаружено в Polaroid.

DAJ / Getty Images

Расширенный контроль изображения

В то время как французы представили постоянное изображение, японцы упростили управление изображением для фотографа.

В 1950-х годах компания Asahi (которая позже стала Pentax) представила Asahiflex, а Nikon представила свою камеру Nikon F. Это были обе зеркальные камеры, и Nikon F позволял использовать сменные объективы и другие аксессуары.

В течение следующих 30 лет камеры в стиле SLR оставались предпочтительным вариантом. Много улучшений было внесено как в камеры, так и в саму пленку.

Фабиано Сантос / EyeEm / Getty Images

Представляем интеллектуальные камеры

В конце 1970-х - начале 1980-х были представлены компактные камеры, которые могли самостоятельно принимать решения по управлению изображением.Эти камеры «наведи и снимай» рассчитали выдержку, диафрагму и фокус, давая фотографам возможность сосредоточиться на композиции.

Автоматические фотоаппараты стали очень популярными среди случайных фотографов. Профессионалы и серьезные любители по-прежнему предпочитали вносить свои собственные корректировки и наслаждались контролем изображения, доступным с помощью SLR-камер.

Стивен Чан / Getty Images

Цифровой век

В 1980-х и 1990-х годах многие производители работали над камерами, которые сохраняли изображения в электронном виде.Первыми из них были компактные фотоаппараты, в которых использовались цифровые носители вместо пленки.

К 1991 году Kodak выпустила первую цифровую камеру, которая была достаточно совершенной, чтобы ее могли успешно использовать профессионалы. Другие производители быстро последовали за ними, и сегодня Canon, Nikon, Pentax и другие производители предлагают передовые цифровые зеркальные камеры (DSLR).

Даже самый простой фотоаппарат «наведи и снимай» теперь делает снимки более высокого качества, чем оловянная пластина Ньепса, а смартфоны могут легко сделать высококачественную распечатанную фотографию.

Гелиограф Niépce

См.

Самую раннюю из сохранившихся фотографий, сделанную на камере camera obscura .
Галереи закрыты из-за пандемии COVID-19.

Об изобретении фотографии было объявлено одновременно во Франции и Англии в 1839 году, что поразило публику и вызвало волну возбуждения по всему миру. Эти поразительные открытия зависели от многовековых достижений в области химии, оптики и изобразительного искусства, которые ускорились в десятилетия после 1790 года.Гелиограф Ньепса был создан в 1827 году, в период страстных экспериментов. Это самая ранняя фотография, сделанная с помощью камеры camera obscura , которая, как известно, сохранилась до наших дней.

Фотография сделана Жозефом Нисефором Ньепсом (1765–1833), родившимся в известной семье в Шалон-сюр-Сон в Бургундии во Франции. Фотографические эксперименты Ньепса, мотивированные растущим спросом на доступные фотографии, преследовали двойную цель: копирование отпечатков и запись сцен из реальной жизни на камеру. В своем семейном поместье в соседней деревне Сен-Лу-де-Варен он сделал разборчивые, но мимолетные снимки с камеры - или points de vue , как он их называл - в 1816 году. В течение следующего десятилетия он попробовал множество химикатов. , материалы и методы для продвижения процесса, который он в конечном итоге назвал héliographie , или «солнечное письмо».

Для изготовления гелиографа Ньепс растворил светочувствительный битум в масле лаванды и нанес тонкий слой на полированную оловянную пластину.Он вставил пластину в камеру camera obscura и расположил ее возле окна в своей мастерской на втором этаже. После нескольких дней пребывания на солнечном свете с плиты оставалось впечатление внутреннего двора, хозяйственных построек и деревьев снаружи. Описывая свой процесс в декабре 1827 года, Ньепс признал, что он требует дальнейших улучшений, но, тем не менее, является «первым неуверенным шагом в совершенно новом направлении».

В 1829 году Ньепс вступил в официальное партнерство с Луи-Жаком-Манде Дагером (француз, 1787–1851), владельцем знаменитой диорамы в Париже. Дагер продолжал вносить существенные улучшения после смерти Ньепса и представил свой процесс «дагерротипа» в 1839 году. После этого ошеломляющего объявления первые сторонники представили гелиограф Ньепса как свидетельство его роли в изобретении фотографии.

Гелиограф Ньепса прошел через частные руки в Великобритании в девятнадцатом и двадцатом веках до того, как был приобретен Центром выкупа Гарри в 1963 году как часть коллекции Гернсхайма. Более двадцати гелиографических пластин и гравюр Ньепса, сделанных между 1825 и 1829 годами, хранятся в государственных и частных коллекциях, но гелиограф Ньепса - единственный известный сохранившийся point de vue .

Кто изобрел слайды для фотографий? - Southtree

В век цифровой фотографии трудно представить себе время, когда сделать неподвижную фотографию момента было невозможно. Жизнь в культуре постоянных развлечений через социальные сети, телевидение и кино может заставить нас забыть, что в какой-то момент люди собирались вокруг элементарного проектора, чтобы просматривать размытые или нечеткие изображения на стене и называть это развлечением.

Дело в том, что в то время такой просмотр изображений считался революционным.
Ранние проекторы и нарисованные вручную слайды были одними из самых качественных развлечений, которые могли принять наши предки. Именно эти первые стеклянные слайды, проецируемые на стену, проложили путь изобретателям XIX и XX веков к созданию более сложных версий, что привело к фотографии и проекционные технологии, которые есть у нас сегодня. Так кто все это начал? Кто изобрел первые слайд и проектор?

Волшебный фонарь

Первые выпущенные слайды назывались фонарными слайдами.Эти слайды представляли собой расписанные вручную стеклянные части, которые проецировались «волшебными фонарями», ранней формой слайд-проектора. Волшебные фонари были созданы голландским ученым Христианом Гюйгенсом в 17 веке, который основывал свои проекты на более ранней проекционной системе немецкого монаха Афанасия Кирхера. Фактически, самый старый из известных слайдов фонаря - это рисунок Гюйгенса скелета, отрывающего свой череп. Жутко, правда?

Волшебные фонари представляли собой металлические коробки с трубкой для входа света наверху и вогнутой линзой, проецирующей увеличенное изображение на стену.Раскрашенные слайды фонаря помещались прямо за линзой, и когда свет проходил через стекло и линзу, люди могли видеть изображения на стене напротив волшебного фонаря. Впервые изображения можно было проецировать на обозрение публики. Люди собирались, чтобы посмотреть кинопоказы, подобно тому, как сегодня мы можем пойти в кинотеатр.


Гиалотип

Современные слайды из пленки не использовались до середины 19 века. Слайды для фонарей из прозрачной пленки были созданы в 1849 году Уильямом и Фредериком Лангенхеймами, примерно через десять лет после изобретения фотографии.Изменение материала упростило создание слайдов-фонарей, и больше света могло проходить через них во время проецирования, что делало изображение более четким. Слайды Лангенхейма были в основном черно-белыми с небольшим оттенком, чтобы проецируемое изображение выглядело более четко. Только в 1916 году были изобретены действительно цветные горки.


Современная горка

Фотослайды, которые большинство из нас просматривали в детстве, были намного более продвинутыми, чем те, что были созданы Гюйгенсом или братьями Лангенхайм.Слайд Kodachrome появился в 1935 году и представил трехцветный процесс проявки, который впервые позволил легко раскрашивать фотографии. Джон Кэпстафф был автором трехцветного процесса, и когда слайды Kodachrome были соединены с современными электрическими проекторами, просмотр фотографий стал гораздо более богатым опытом. Слайд Kodachrome был последним в серии усовершенствований технологии слайдов.

Слайды Kodachrome больше не производятся, но миллионы людей во всем мире все еще имеют слайды из прошлых десятилетий.Если у вас есть коллекция слайдов, пора перенести их в современную эпоху с помощью оцифровки. Southtree может снимать слайды с фотографиями различных размеров и создавать их цифровые копии, чтобы вы могли сохранять их на свой компьютер и иметь доступ к ним на долгие годы. Ничто не вечно, включая ваши слайды, так чего же вы ждете? Оцифруйте их сегодня.

Дагерротипная фотография | Институт Франклина

В 1826 году француз Жозеф-Нисефор Ньепс сделал снимок (гелиограф, как он его назвал) амбара.Это изображение, полученное в результате восьмичасовой выдержки, стало первой в мире фотографией. Чуть более десяти лет спустя его соратник Луи Жак Манде Дагер изобрел способ постоянного воспроизведения изображения, и его фотография - дагерротип - потребовала выдержки всего двадцать минут. Так родился практический процесс фотографии.

Начало девятнадцатого века было захватывающим временем для жизни. По мере того как люди начали узнавать все больше и больше об окружающем мире во все большей степени детализации, возникла потребность в более точном отображении окружающего мира.Эта потребность в конечном итоге превзошла возможности одной только руки художника. Люди искали способы прямого захвата изображений, чтобы Природа каким-то образом могла изобразить себя.

Луи Жак Манде Дагер родился недалеко от Парижа, Франция, в 1787 году. Художник-иллюзионист Пьер Прево попросил его присоединиться к его команде художников-панораматологов, когда ему было всего двадцать лет. Вскоре Дагер стал помощником художника-постановщика театра. Он был одаренным иллюзионистом с точки зрения его способности создавать декорации, которые поражали его аудиторию.Художник, который хотел, чтобы его работы были максимально реальными, Дагер создавал удивительно реалистичные сцены прямо в театре. Эти конструкции, имитирующие переход дня в ночь, перемены погоды и даже дававшие зрителям ощущение движения, Дагер позже назвал «диорамами» или «драмами света». К 1825 году Дагер был успешным создателем, владельцем и популяризатором успешного иллюзионистского театра в Париже, который специализировался на этих диорамах.

Иллюзии Дагера сильно зависели от точного представления деталей и перспективы в большом масштабе.Поэтому, как и многие другие его современники, он использовал камеру-обскуру * как инструмент, который помог ему проследить в двух измерениях то, что его глаза видели в трех. Дагер объяснил, что магия его диорам является результатом его использования света в сценах. Он утверждал, что открыл систему рисования, которая может изменять внешний вид объекта, переключаясь между отраженным и преломленным светом, а также изменяя цвет падающего на него света.

История цветной фотографии | Блог Национального музея науки и СМИ

Узнайте о развитии цветной фотографии - от самых первых экспериментов с ручной раскраской до массового производства коммерчески жизнеспособной цветной пленки.

Часть 1: поиски цветной фотографии

Сегодня мы воспринимаем цветную фотографию как должное. Делать снимки в полном естественном цвете настолько просто, что мы не останавливаемся, чтобы понять, как все это произошло. Тем не менее, поиск дешевого и простого процесса цветной фотографии последовал за долгим и трудным поиском, со многими ошибками и тупиками. В поисках «Святого Грааля» фотографии было заработано несколько состояний, но гораздо больше было потрачено до того, как мечта стала реальностью.

Когда в фотографии впервые был добавлен цвет?

В 1839 году, когда фотографии увидели впервые, их встретили с чувством удивления. Однако вскоре это изумление смешалось с оттенком разочарования. Люди не понимали, как процесс, который может записывать все аспекты сцены с такими изысканными деталями, может так ужасно не записывать ее цвета. Сразу же начались поиски средств точной передачи не только формы, но и цветов природы.

Пока ученые, фотографы, бизнесмены и экспериментаторы трудились, публика теряла терпение. Фотографы, стремясь дать своим клиентам то, что они хотели, вскоре взяли дело буквально в свои руки и начали добавлять цвет в свои монохромные изображения. Как отметил в 1851 г. автор книги A Guide to Painting Photographic Portraits :

Когда фотографу удается получить хорошее изображение, оно переходит в руки художника, который мастерством и цветом придает ему естественный и естественный вид.

Т. Р. Уильямс, Портрет солдата, 1855 г. , стереодагерротип ручной раскраски

Раскрашенные вручную фотографии

Для раскрашивания вручную использовалось несколько различных процессов и материалов, что обеспечило работу в студии для многих художников-миниатюр, которые изначально чувствовали угрозу появления новой среды. Даже после появления первых практических методов окраски ручное окрашивание продолжало оставаться популярным, поскольку часто было более дешевой и простой альтернативой.Некоторые результаты были очень грубыми, но в умелых руках можно было добиться очень тонких и красивых эффектов.

Однако даже в лучшем виде раскрашивание вручную оставалось произвольным и, в конечном счете, неудовлетворительным средством записи цвета, которое не могло точно передать цвета природы. Что требовалось, так это фотографический процесс, который мог бы записывать цвета напрямую, точно так же, как он уже был способен улавливать свет и тень.

Как работает цвет?

Прежде чем можно было воспроизвести цвет, нужно было четко понять природу света и то, как мы воспринимаем цвет. Научное исследование цвета началось в семнадцатом веке. В 1666 году сэр Исаак Ньютон разделил солнечный свет с помощью призмы, чтобы показать, что на самом деле это комбинация семи цветов спектра. Спустя почти 200 лет, в 1861 году, молодой шотландский физик Джеймс Клерк Максвелл провел эксперимент, чтобы показать, что на самом деле все цвета могут быть получены с помощью соответствующей смеси красного, зеленого и синего света.

Максвелл снял три отдельных слайда из тартановой ленты через красный, зеленый и синий фильтры.Затем эти слайды проецировались через те же фильтры с использованием трех отдельных волшебных фонарей. Когда три изображения были аккуратно наложены на экран, они объединились в цветное изображение, которое было узнаваемой репродукцией оригинала. Хотя эксперименты Максвелла ясно продемонстрировали основные принципы цветной фотографии, на практике его демонстрация вообще не должна была сработать. Хотя физик этого не знал, фотоэмульсии, которые он использовал, были нечувствительны к красному свету. К счастью для Максвелла, красная ткань на ленте отражала ультрафиолетовый свет. Это было незаметно для глаза, но действительно регистрировалось на эмульсии.

Джеймс Клерк Максвелл, Тартановая лента, 1861 г., принт Vivex (1937 г.) с оригинальных негативов

Ранние эксперименты в цветной фотографии

Хотя фундаментальная теория могла быть понята, однако практический метод цветной фотографии оставался недостижимым. Некоторые экспериментаторы преследовали идею прямого метода воспроизведения цвета, который не основывался на смешивании основных цветов.В 1891 году Габриэль Липпманн, профессор физики Сорбонны, продемонстрировал процесс окраски, основанный на явлении световой интерференции - взаимодействии световых волн, которое дает яркие цвета, наблюдаемые в мыльных пузырях. Этот процесс принес Липпманну Нобелевскую премию в 1908 году и в течение короткого времени продавался в коммерческих целях на рубеже веков. Однако требовалось чрезвычайно долгое время выдержки, что означало, что процесс оставался не более чем научным любопытством. Будущее цветной фотографии связано с трехцветными процессами, основанными на смешивании основных цветов света.

Вскоре после демонстрации Максвелла в 1861 году француз Луи Дюко Дю Орон объявил о методе создания цветных фотографий путем комбинирования цветных пигментов вместо смешивания цветного света. Для процесса Дю Орона по-прежнему требовалось три черно-белых негатива, прошедших через красный, зеленый и синий фильтры. Эти негативы использовались для создания трех позитивных, отдельно окрашенных изображений, которые при наложении друг на друга объединялись в цветную фотографию. Именно этот метод составляет практическую основу сегодняшних цветовых процессов.

Первоначально работы Максвелла, Дю Орона и других, несмотря на свою теоретическую важность, имели ограниченную практическую ценность. Во многом это было связано с тем, что используемые в то время фотографические эмульсии были очень ограничены по своей цветовой чувствительности. Прежде чем их методы заработали на практике, необходимо было ввести фотоматериалы, чувствительные ко всему цветовому диапазону спектра.

К 1880-м годам в продаже появились пластины, чувствительные к синему и зеленому свету.Однако только в начале 20-го века, после работы доктора Х. В. Фогеля, были проданы первые полностью панхроматические пластины, чувствительные ко всем цветам. Наконец казалось, что путь к будущей возможности практического и коммерчески жизнеспособного метода цветной фотографии открыт.

Часть 2: Добавка красителя

Первые процессы цветной фотографии появились в 1890-х годах. Основываясь на теории, продемонстрированной в 1860-х годах Максвеллом, они воспроизводили цвет, смешивая красный, зеленый и синий свет.

Кромограмма

Американский фотограф и изобретатель Фредерик Айвз разработал систему, основанную на трех цветоделенных негативах, снятых через цветные фильтры. Из этих негативов были сделаны позитивные прозрачные пленки, которые были помещены в специальный просмотрщик, называемый кромскопом. Зеркала в Kromskop накладывали изображения на три прозрачных пленки, а второй набор фильтров восстановил цвета. Кромограммы, как были известны полученные изображения, были эффективными, но непомерно дорогими, а система Айвса, в конечном счете, была слишком сложной, чтобы быть успешной.

Процесс Джоли

Вместо того, чтобы делать три отдельных экспозиции через красный, зеленый и синий фильтры, более простой альтернативный подход заключался в том, чтобы сделать только одну экспозицию через фильтр, объединяющий все три основных цвета. Первый процесс, в котором использовался этот метод, был разработан доктором Джоном Джоли из Дублина в 1894 году. Джоли покрыл стеклянную пластину очень тонкими красными, зелеными и синими линиями (шириной менее 0,1 мм), чтобы создать трехцветный фильтрующий экран. . При фотографировании этот экран помещали в камеру перед пластиной.После обработки экспонирования и обращения черно-белое позитивное изображение было тщательно совмещено с другим фильтрующим экраном. В результате получилась цветовая прозрачность, которую можно было увидеть в проходящем свете.

Процесс Joly был введен в продажу в 1895 году и оставался на рынке в течение нескольких лет. Однако ограниченная цветовая чувствительность используемых пластин означала, что результаты были не очень успешными.

Автохром

Первый полностью практичный и коммерчески успешный экранный процесс - автохром - был изобретен в начале 20 века двумя братьями-французами, Огюстом и Луи Люмьерами, которые экспериментировали с цветной фотографией с 1890-х годов.Они опубликовали свою первую статью на эту тему в 1895 году, в том же году, когда они должны были добиться прочной славы благодаря своему изобретению кинематографа. В 1904 году они впервые представили свой процесс Французской академии наук, а к 1907 году начали коммерческое производство автохромных пластин.

Новости об их открытии быстро распространились, и образцы новых пластин стали предметом активного поиска. Критическая реакция была восторженной. Альфред Штиглиц писал:

Возможности нового процесса кажутся безграничными . .. скоро мир будет помешан на цветах, и Люмьер будет отвечать за это.

Понимая, что нет необходимости отделять сетку фильтра от фотоэмульсии, Lumières объединили сетку фильтра и светочувствительную эмульсию на одной стеклянной подставке.

Как были сделаны автохромы?

Производство автохромных пластин было сложным процессом. Сначала измельченные зерна крахмала пропускали через сито, чтобы выделить отдельные зерна диаметром 10–15 микрон. Было перепробовано много разных типов крахмала, но самый лучший результат дал простой картофель.Эти микроскопические зерна затем окрашивали в красный, зеленый и сине-фиолетовый цвет, смешивали и распределяли по стеклянной пластине и покрывали липким лаком.

Затем порошок древесного угля был распределен по тарелке, чтобы заполнить любые промежутки между окрашенными зернами крахмала. Валик подвергал пластину давлению пять тонн на квадратный сантиметр, чтобы расплющить и распределить зерна, прежде чем пластину покрыли лаком, чтобы сделать ее водонепроницаемой. Конечная пластина представляла собой трехцветный сетчатый фильтр, на каждом квадратном дюйме которого находилось около четырех миллионов прозрачных крахмальных зерен, каждое из которых действовало как цветной фильтр.Заключительный этап заключался в нанесении на пластину панхроматической эмульсии.

Как работали автохромы?

Автохромные пластины были просты в использовании. Им не требовалось специального оборудования, и фотографы могли использовать свои существующие камеры. Однако время выдержки было долгим - примерно в 30 раз больше, чем у обычных пластин. Даже при ярком солнечном свете требовалась выдержка не менее одной секунды, а в пасмурную погоду ее можно было увеличить до 10 секунд и более. Даже в хорошо освещенной студии для портретов может потребоваться выдержка до 30 секунд.

После экспонирования автохромные пластинки подвергались обратной обработке для получения позитивного изображения. При просмотре в проходящем свете, проходящем через пластину, миллионы крошечных красных, зеленых и сине-фиолетовых зерен объединяются, чтобы получить полноцветную фотографию, точно воспроизводящую цвета исходного объекта. Теоретически зерна перемешивались и случайным образом распределялись по поверхности пластины.

На практике, однако, математическая вероятность означала, что некоторая группировка зерен одного цвета была неизбежна.Хотя отдельные зерна невидимы невооруженным глазом, эти группы скоплений видны; они - причина особой красоты автохрома и сравнения с работами художников-импрессионистов и пуантилистов.

Этелдреда Джанет Лэнг, Ирис и Джанет Лэнг, около 1913 г., автохром

Насколько популярен был автохром?

К 1913 году фабрика Lumiere в Лионе ежедневно производила 6000 автохромных пластин.

Коммерческий успех процесса привел к появлению многих других цветовых процессов, основанных на концепции экранов, состоящих из микроскопических цветных фильтров.Эти экраны использовали либо случайный узор зерна, либо, чаще, различные геометрические узоры из линий и квадратов.

Дюфайколор

Большинство этих процессов давно забыты, но один из них оставался популярным в течение многих лет. Dufaycolor впервые появился в 1932 году как 16-миллиметровая кинопленка, а в 1935 году была выпущена рулонная версия. Разработанный Луи Дюфе, Dufaycolor использовал обычный геометрический экран из красных линий, чередующихся с рядами зеленых и синих прямоугольников. Цветопередача была хорошей и сравнительно быстрой, хотя и составляла лишь одну треть от скорости современной черно-белой пленки.

В то время как автохромы привлекали фотографов, которым нравилось заниматься собственной обработкой, Dufaycolor был нацелен на рынок моментальных снимков. Служба обработки, которая возвращает готовые прозрачные пленки, смонтированные и готовые к просмотру, открыла цветную фотографию для совершенно нового класса фотографов. Dufaycolor, последний из экранных процессов, оставался на рынке до 1950-х годов.

Часть 3: Субтрактивный цвет

Самые ранние цветовые процессы работали по принципу смешивания или сложения соответствующих комбинаций красного, зеленого и синего света.Обычно они сгруппированы вместе под общим описанием «аддитивных» цветовых процессов. Все аддитивные процессы имеют один большой недостаток - они основаны на использовании фильтров, которые по своей природе блокируют большое количество света, что приводит к длительной выдержке и очень плотной прозрачности.

Более того, цветные фотографии, сделанные с помощью этих процессов, можно просматривать только в проходящем свете - с помощью проекции или с помощью специальных устройств просмотра. Однако существует альтернативный метод фотографического воспроизведения цвета - «субтрактивный» синтез цвета.

Что такое субтрактивная цветопередача?

Первоначальная теория субтрактивного воспроизведения цвета восходит к плодовитому уму Луи Дюко дю Орона, который еще в 1860-х годах объяснил этот метод в своей книге Les Couleurs en Photographie . Дю Орон предложил использовать негативы с цветоделением для создания трех позитивных изображений, которые затем окрашивались в дополнительные цвета: голубой (сине-зеленый), пурпурный (сине-красный) и желтый.

Каждый из этих дополнительных цветов поглощает или вычитает (отсюда и название) один из основных цветов. Голубой поглощает красный свет, отражая смесь синего и зеленого света. Таким образом, голубое изображение выполняет ту же функцию, что и красный фильтр, используемый в аддитивном процессе. Точно так же пурпурный цвет поглощает зеленый свет, а желтый - синий. Путем точного совмещения этих трех дополнительных цветов можно воспроизвести все остальные цвета. Цвет в субтрактивных процессах создается красителями или пигментами, а не цветными фильтрами.

При субтрактивном цвете белый, например, представлен прозрачным стеклом или белой бумагой, а не светом, проходящим через три фильтра.Это означает, что процессы вычитания гораздо менее расточительны для света. Что еще более важно, они работают с отраженным, а не проходящим светом, что означает, что их можно использовать для создания цветных фотографий на бумаге.

Как работали процессы вычитания цвета?

Развитие субтрактивных цветовых процессов шло по двум разным путям. Во-первых, это разработка специализированных фотоаппаратов для получения наборов цветоделенных негативов и, во-вторых, поиск практических методов создания и наложения трех позитивных изображений в дополнительных цветах.

При съемке цветоделенных негативов неподвижных объектов - например, вазы с цветами - можно использовать обычную камеру. Все, что требовалось, - это менять цветовой фильтр после каждой экспозиции. Если бы выполнялась большая работа с цветом, эту процедуру можно было бы упростить за счет использования повторяющихся корешков.

Было продано несколько различных устройств такого типа. Самым простым типом были длинные держатели пластин, снабженные тремя фильтрами, которые можно было сдвинуть по камере назад за три шага.Самые сложные из них были оснащены часовыми двигателями, что позволяло экспонировать три негатива в быстрой последовательности всего за две или три секунды.

При фотографировании объектов, на которых вероятно движение - например, портретов - даже автоматически повторяющиеся спины были недостаточно быстрыми. Для этого требовалась камера, которая могла бы одновременно экспонировать все три негатива. За прошедшие годы многие конструкции таких «однокадровых» камер были запатентованы, а некоторые из них были произведены на коммерческой основе. В них использовались различные конфигурации зеркал и призм для разделения света, попадающего в камеру, на три отдельных луча, каждый из которых направлялся на держатель для пластин, снабженный фильтром разного цвета.Среди наиболее удачных разработок были камеры Jos-Pe, Bermpohl, Klein и Mirkut.

Карбоновая печать в фотографии

Получение удовлетворительных негативов было только первым этапом. Затем эти негативы нужно было преобразовать в позитивные изображения дополнительных цветов: голубого, пурпурного и желтого. Для получения этих изображений использовалось несколько различных методов, наиболее популярными из которых были вариации углеродного процесса. В них использовались листы углеродной ткани, состоящие из желатинового покрытия, содержащего пигмент, на бумажной основе.Перед использованием эту ткань сенсибилизировали, пропитывая ее бихроматом калия. Бихромат калия затвердевает, когда
подвергается воздействию света, и после воздействия на негатив участки незатвердевшего желатина могут быть смыты, чтобы открыть изображение.

Ткани могут быть изготовлены с использованием пигментов любого цвета - изображения на голубых, пурпурных и желтых тканях накладываются друг на друга для получения субтрактивных цветных отпечатков. Вариантом углеродного процесса был процесс Trichrome Carbro, впервые разработанный в 1890-х годах, но ставший популярным компанией Autotype из Илинга в 1920-х и 1930-х годах.В процессе Карбро использовался набор отпечатков бромида, сделанных с разделительных негативов, для создания необходимых изображений желтого, пурпурного и голубого пигментов на ткани для последовательного переноса на бумажную основу.

В то время как такие процессы, как Carbro, были доступны для использования фотографами-любителями, методы сборки тканей были трудными и сложными. Помимо действительно преданных делу, большинство любителей предпочитали использовать аддитивные процессы, такие как автохром и Dufaycolor. Коммерческая цветная фотография становилась все более важной в 1930-х годах, и для профессиональной цветной печати в то время господствовал один процесс: Vivex.

Каков был процесс Vivex?

Изобретенный в 1928 году доктором Д.А. Спенсером, который позже стал управляющим директором Kodak Ltd, Vivex представлял собой модификацию процесса Trichrome Carbro, в котором листы целлофана использовались в качестве временной основы для пигментных изображений. Любые незначительные проблемы с совмещением изображений можно исправить вручную, растягивая или сжимая целлофан для обеспечения идеального наложения.

Чтобы использовать процесс Vivex, была создана компания Color Photographs (British & Foreign) Ltd с фабрикой в ​​Виллесдене на севере Лондона.Это была первая лаборатория, которая предложила профессиональным фотографам услугу цветной печати. Было подсчитано, что более 90% всех цветных отпечатков, сделанных в Великобритании в 1930-е годы, были сделаны с использованием процесса Vivex.

Часть 4: Выполнено задание

Процессы субтрактивной окраски, такие как Vivex, требовали создания цветоделенных негативов на трех отдельных фотопластинках. Однако, если бы можно было объединить все три пластины в единый блок или трипак, тогда не было бы необходимости в специализированных цветных камерах или в повторяющихся задних панелях, снабженных фильтрами.Именно использование встроенных трипаков проложило путь к развитию «современных» цветовых технологий, таких как Kodachrome.

Система аварийного отключения

Основная идея трипаковой системы заключалась в создании многослойного устройства, в котором каждая пластина была покрыта эмульсией, чувствительной к одному из основных цветов. Свет должен проходить через первую пластину, чтобы достичь второго слоя эмульсии, и, в свою очередь, проходить через эту пластину для регистрации на третьей эмульсии.

Первая практическая система трипака была представлена ​​Фредериком Айвсом в 1916 году.Его трипак «Hiblock» состоял из листа пленки, зажатого между двумя стеклянными пластинами. Верхняя пластина была чувствительна к синему, пленка - к зеленому, а нижняя пластина - к красному свету. После экспонирования три слоя были разделены для обработки, после чего негативы были обработаны как обычные разделительные негативы.

Затем последовали и другие трипаковые системы, включая печально известный процесс Colorsnap.

Что представлял собой процесс Colorsnap и почему он не удался?

В 1928 году была создана новая компания Color Snapshots Ltd, которая получила огромную финансовую поддержку для продвижения продуктов Colorsnap.Однако, несмотря на экстравагантные заявления, результаты были неутешительными. Негативы от второго и третьего слоев эмульсии были настолько нечеткими, что компания была вынуждена вручную раскрашивать черно-белые отпечатки, сделанные с самого резкого переднего элемента трипака. Неудивительно, что Color Snapshots Ltd обанкротилась в декабре 1929 года.

Процесс Colorsnap страдает той же проблемой, что и все трипаковые системы. Свет рассеивался и рассеивался, проходя через различные слои эмульсии и основы, поэтому один или несколько полученных негативов были размыты. Разрешение было слишком плохим, чтобы его можно было увеличить; негативы Tripack обычно рекомендуются только для контактной печати.

Как решались проблемы системы трипак?

Решение этой проблемы состояло в том, чтобы нанести все три эмульсии на одну и ту же стеклянную или пленочную основу в непосредственном контакте друг с другом в «интегральных» трипаках. Поскольку было бы физически невозможно разделить эти эмульсионные слои, каждый из них должен быть способен подвергаться химической обработке изолированно, чтобы получить изображение голубого, пурпурного или желтого цвета.

В 1912 году Рудольф Фишер запатентовал предложение использовать то, что позже стало известно как цветные соединители. Это вещества, которые вступают в реакцию с химическими веществами, образовавшимися в процессе развития, с образованием цветных красителей. Фишер предложил, чтобы цветные элементы для получения голубых, пурпурных и желтых красителей были включены в соответствующие слои цельного трипака, чтобы во время проявки формировались цветные изображения. Поскольку в случае интегральных трипаков все три слоя эмульсии находятся в непосредственном контакте друг с другом, проблем с регистрацией не возникнет, и в результате получится полноцветное фотографическое изображение.

К сожалению, цветовые связующие, которые использовал Фишер, имели тенденцию диспергироваться между слоями эмульсии во время обработки. Однако теория Фишера была совершенно обоснованной, и его работа должна была сформировать основу исследований, которые должны были привести к первой практической и коммерчески успешной интегральной трипаковой системе - Kodachrome.

Кто изобрел Кодахром?

Kodachrome был детищем Леопольда Маннеса и Леопольда Годовски. Оба зарабатывали на жизнь как профессиональные музыканты (Маннес играл на пианино, а Годовски - на скрипке), проводя свободное время, экспериментируя с цветной фотографией.Несмотря на все усилия, наступил момент, когда они не смогли добиться прогресса без внешней поддержки.

Эту поддержку должен был оказать доктор С. Э. Кеннет Мис, директор исследовательских лабораторий Eastman Kodak в Рочестере, штат Нью-Йорк. В 1922 году Мис встретился с Маннесом и Годовски и, впечатленный качеством их работы, согласился предоставить им материалы, необходимые для продолжения исследований. В этот момент они работали над двухцветной субтрактивной системой для цветной фотографии, но, прочитав о работе Фишера с цветовыми соединителями, они решили отказаться от своих прежних методов и сосредоточиться на разработке практической трехцветной многослойной пленочной системы.

В 1931 году оба Леопольда отказались от своей музыкальной карьеры, чтобы работать полный рабочий день в исследовательских лабораториях Kodak, где с помощью огромных ресурсов Eastman Kodak они быстро продвинулись вперед.

Как работал Kodachrome?

Как и Фишер, Маннес и Годовски столкнулись с большими трудностями в предотвращении распространения цветных красителей между слоями эмульсии. Они решили эту проблему, добавив цветные компоненты в проявитель, а не в эмульсию.

Кодахром - это, по сути, черно-белая пленка, в которую во время обработки добавляются цветные красители.Обработка кодахрома, включающая повторную проявку, крашение и затем выборочное отбеливание, была чрезвычайно сложной. Всего требовалось не менее 28 различных этапов, которые можно было провести только в лабораторных условиях. По этой причине фотографы не могли обработать свои собственные пленки, и им пришлось отправить их обратно в Рочестер.

Когда пленка Kodachrome впервые поступила в продажу?

15 апреля 1935 года в продажу поступила первая пленка Kodachrome - для использования в 16-миллиметровых кинокамерах. Американским фотографам пришлось ждать до следующего года, прежде чем появилась 35-миллиметровая пленка Kodachrome.Первые поставки 35мм Kodachrome достигли Британии в 1937 году.

Agfacolor-Neu

В 1936 году компания Agfa в Германии также анонсировала многослойную цветную пленку. Agfa производила дополнительные цветные пластины с 1916 года, поэтому они назвали свою цветную пленку Agfacolor-Neu - «новая», чтобы указать, что она полностью отличается от любых более ранних продуктов. Agfacolor-Neu был первым коммерческим процессом, который следовал теории Рудольфа Фишера об использовании цветовых компонентов.

Химики-исследователи Agfa открыли способ закрепления соединителей в отдельных слоях эмульсии.Это значительно упростило обработку пленки Agfacolor. В отличие от Kodachrome, это может сделать даже пользователь дома. После Второй мировой войны детали исследований Agfa стали доступны бесплатно, и другие компании, такие как Ferraniacolor и Gevacolor, представили цветные пленки, основанные на том же принципе.

С совершенствованием многослойных цветных пленок на основе красителей, таких как Kodachrome и Agfacolor-Neu, наступила новая эра цветной фотографии. Поиски цвета - поиски, начавшиеся с объявления об изобретении фотографии почти сто лет назад - закончились.

Дополнительная литература

  • История фотографии в картинках
  • Автохромы: рассвет цветной фотографии
  • Брайан Коу, Цветная фотография: первая сотня лет .

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *