Почему google pixel хорошо снимает
Перейти к содержимому

Почему google pixel хорошо снимает

  • автор:

Почему Google Pixel со старой камерой снимает лучше новых флагманов

Вас никогда не смущало, что смартфоны Google Pixel умудряются оставаться одними из топовых камерофонов на рынке даже с одной камерой? Конечно, в конце прошлого года компания добавила к одиночному модулю ещё один вспомогательный, но не сказать, что это кардинальным образом что-то поменяло. Особенно иронично, что Google три года подряд оснащала свои аппараты одним и тем же модулем от Sony и при этом умудрялась повышать качество съёмки, расширять количество доступных режимов и даже обходить конкурентов с, кажется, не в пример более современными камерами.

Pixel 4

Google оснащает Pixel 4 камерой трёхлетней давности

Как камера вашего смартфона смогла бы выявлять сахарный диабет

Google абсолютно осознанно комплектует свои смартфоны последних трёх поколений одним и тем же модулем камеры из-за отсутствия кардинальных изменений в этой области. Об этом в интервью The Verge рассказал Марк Левой, бывший глава отдела разработки камер для Google Pixel. По его словам, эта индустрия развивается довольно медленно, а срываться и бросать уже отлаженное оборудование в пользу нового, даже если оно предлагает чуть более высокое качество съёмке, — довольно спорный с точки зрения эффективности сценарий развития.

Почему Pixel так хорошо снимает

Двойная камера

Google слишком хорошо оптимизирует софт своих камер, и это заменяет ей аппаратный апгрейд

Индустрия мобильных камер достаточно хорошо развита. Она продолжает совершенствоваться и дальше, но это небыстрый процесс, результат которого можно разглядеть только через призму нескольких лет. Одна переменная, которая представляет большой интерес для производителей смартфонов, — это уровень шумов на итоговой фотографии. По мере уменьшения шумов вы получаете возможность делать более качественные снимки при меньшем освещении. Как только Sony предлагает что-то чуть лучшее, все сразу же хватаются за него. Но я не уверен, что это имеет решающее значение для фотографии, — заявил Левой.

Новая камера покажет, как делать хорошие фотографии на смартфон ночью

Google не гонится за новейшими сенсорами, если не видит в них каких-то кардинальных изменений. Поэтому Pixel 3, Pixel 4, Pixel 4a и, скорее всего, Pixel 5, имеют одинаковые модули камеры. Дело в том, что Google удалось настолько качественно оптимизировать свой софт для работы с этими модулями, что если поменять их сейчас на что-то более современное, это практически не отразится на результате, но при этом отнимет много времени и сил у разработчиков на повторное допиливание программного обеспечение. Это совершенно невыгодно с точки зрения финансирования.

Зачем нужны тройные камеры

Google Camera

Дополнительные модули камеры не улучшают качество фото

А, что касается тренда на внедрение дополнительных модулей камеры, которые сегодня так популярны среди большинства производителей, то у Google к нему сформировалось своё собственное отношение. При расширении функциональных возможностей своих смартфонов Google руководствуется принципом целесообразности. Прежде, чем что-то внедрить, в компании задаются вопросом, а будет ли это кому-нибудь нужно? Тут это называют эффектом зубной щётки: вещью нужно пользоваться минимум дважды в день, чтобы считать её полезной. С третьим и четвёртым модулями камеры такого не происходит.

На мой взгляд, это очень здравая позиция. Ведь, если разобраться, вряд ли найдётся хоть один пользователь, который ежедневно по несколько раз ведёт съёмку на макро- и ультраширокоугольный объектив. Просто в повседневной жизни это реально не нужно. Google понимает это, а потому не стремится наращивать количество модулей камеры. Их наличие никак не улучшит качество съёмки в обычном режиме, в котором делается подавляющее большинство всех снимков, но зато нагрузит и хард, и софт, и кошёлек пользователя, которому придётся за это заплатить.

Камера iPhone 13 Pro Max против Google Pixel 6 Pro. Какой снимает лучше?

Favorite В закладки

Камера iPhone 13 Pro Max против Google Pixel 6 Pro. Какой снимает лучше?

Вслед за Apple на прошлой неделе Google провела свою презентацию, на которой показала главных конкурентов iPhone 13 — Google Pixel 6 и Pixel 6 Pro.

До России «гуглофоны» ещё не успели доехать, а вот на западе уже успели сравнить фотовозможности обоих смартфонов. Мы изучили обзоры у нескольких блогеров, изданий, и делимся результатами с вами.

Выводы каждый делает сам.

Ночная съёмка

Google Камера всегда славилась своими возможностями для съёмки в условиях низкого освещения. Даже недорогие представители семейства Pixel частенько обходили по качеству iPhone. Как показал тест MacRumors — не в этот раз.

Pixel 6 Pro в целом выдал неплохой результат. Но iPhone 13 Pro Max смог лучше определить баланс белого, насыщенность цветов и передать детали. Обратите внимание на траву, листья, фактуру статуи кота и табличку посередине.


Фотография слева получилась слишком матовой.

Задний фон практически не освещён, на переднем плане располагаются фигуры скелетов и цветные лампочки. Pixel сильно высветлил задний фон, стало видно деревья, и что находится за ними.

При этом глубина изображение потерялась. На iPhone сразу понятен объект съёмки. Контрастность на высоте, и в целом картинка выглядит довольно естественно. У Pixel всё как в тумане.

В своём видео блогер Mrwhosetheboss провёл подробное тестирование обоих смартфонов. Как видите, не всегда iPhone справляется хорошо. Снять человека в здании с плохим освещением без выдержки оказалось трудной задачей.

Цвета неестественные, практически пепельные. Детализация кроссовка и наклейки на столе никакая. Фактуры светильников сзади нет.

Но есть и более удачный пример. С настроенной выдержкой iPhone 13 Pro Max смог исправиться и сделать более сбалансированный в плане освещения снимок. На нём ярко выражена работа алгоритма Deep Fusion.

Из-за этого фотография на Google Pixel 6 выглядит слегка мыльной. Но цвет получился лучше, чем у iPhone.

Съёмка днём


Авторство фото за MacRumors.

Сначала обращаем внимание на небо — у iPhone 13 Pro оно более насыщенное. То же касается отражения в воде. Детализация у обоих смартфонов на высоком уровне. Но при этом фото на iPhone отдаёт синевой. Pixel применил более нейтральный, близкий к натуральному баланс белого.

На первый взгляд фото, сделанное на iPhone 13 Pro, выглядит контрастнее и резче. Но если увеличить объекты на заднем фоне, например, здание около причала слева, у Pixel будет больше деталей. Спасибо HDR.

Пейзажный снимок зелёного поля на закате. Ситуация обратная — на Pixel 6 Pro вышел снимок в холодных тонах. iPhone 13 Pro Max смог сделать нейтральную фотографию в тёплых оттенках.

Безусловно, снимок на Pixel можно слегка обработать, изменив температуру. Но смартфон Apple всё сделал сам и сразу. Давайте теперь посмотрим, что пишут обычные пользователи.

wp-image-1095938wp-image-1095939wp-image-1095940wp-image-1095941

Пользователь форума с ником zhoozh_ik сделал подробное сравнение устройств. Вот, как снимают Pixel 6 Pro и 13 Pro Max в солнечный день. iPhone снова делает контрастные тени, но на фоне Pixel 6 Pro в этом есть минус. Детали теряются, а при попытке сделать тени ярче, чтобы повысить детализацию, вас будут ждать шумы.

Cказать, что iPhone снимает хуже — категорически нельзя. Оба устройства справляются достойно и у каждого из них есть какой-то свой почерк. А что с портретами?

Портретный режим

Портретный режим в Pixel 6 Pro определённо лучше. Фотографии имеют больше деталей. Алгоритмы практически идеально отделяют объект от фона, а огни сзади выглядят так, словно снимок сделан на зеркальную камеру.

iPhone же просто «блюрит» фон, хотя настоящая оптика так не делает. Огни должны иметь форму.

При съёмке на фронтальную камеру такой эффект есть. Оцените снимок выше сами. В чём сложность добавить его на основную камеру — исключительно непонятно. Apple ещё есть к чему стремиться.

Вот, что происходит при съёмке предметов на «портрет»:

Pixel 6 Pro смог вырезать статую, сымитировать глубину резкости. iPhone 13 Pro этого не сделал, хотя в нём есть сканер LIDAR, которые по идее должен помогать камере.

Текстуру бетона iPhone не сохранил. Поверхность приобрела «мыльный» вид.

Ведущий канала ZONEofTECH попробовал сделать портерную фотографию своей собаки. Результат снова не в пользу iPhone. Нейросеть неряшливо отделила сиба-ину от фона. На небе можно увидеть оранжевый ореол. Это так iPhone пытался скрыть, что объект вырезан.

Тут возникает ощущение, как-будто Deep Fusion обиделся на iPhone и ушёл к Pixel, потому что фактура шерсти на «гуглофон» вышла лучше. При увеличении можно разглядеть каждый волосок по отдельности. iPhone опять ушёл в «мыло».

Бонус: зум на iPhone 13 Pro Max против iPhone 11 Pro Max


Справедливости ради отмечу, что любой снимок на Google Pixel с максимальным приближением будет выглядеть точно так же.

Пользователи Reddit на этой неделе стали массово публиковать сообщения с жалобами на камеру iPhone 13 Pro. Дело в том, что новое поколение смартфонов Apple получило нейросеть, которая понижает уровень шума и повышает детализацию, дорисовывая объекты.

При увеличении такие снимки приобретают эффект «мультяшности» и выглядят нереалистично. Выше пользователь сравнил снимок с iPhone 11 Pro Max. Действительно, старое поколение справилось лучше.

А вы, что думаете насчёт фотовозможностей новых iPhone? Пишите в комментарии.

Favorite В закладки

Google Pixel: В чём секрет камеры смартфона от Google?

Многие считают камеру Google Pixel лучшей. В плане железа она мало чем отличается от конкурентов — главное в софте. Но обработка изображения ИИ есть и у других производителей. Тем не менее Pixel (даже «бюджетный» 3a) на одном месте всех возил. Давайте разберемся, в чем уникальность обработки фото на Google Pixel, и как поисковик стал королем мобильной фотографии.

В современных мобильных камерах алгоритмы обработки важнее, чем железо. Но когда начинаешь разбираться, понимаешь, что камеру Google конструировали гребаные гении. Сегодня расскажу, как это устроено.

Технология HDR+

Многие из вас помнят, что первый телефон, на котором появился знаменитый режим HDR+ был Nexus 5. Но разрабатывался алгоритм не для него и даже не для смартфонов, а для футуристичных Google Glass.

Всё началось в 2011 году, когда глава экспериментального подразделения Google X Себастьян Трун (Sebastian Thrun) обратил внимание, что большую матрицу и оптику в очки не поставить, а снимать как-то надо. Поэтому, единственным выходом оставалось, улучшить картинку софтом. Для решения этой задачи был приглашен профессор Стэнфордского Университета, эксперт в области вычислительной фотографии — Марк Левой.

Именно он в 2011 году выпустил приложение SynthCam для iPhone 4, которое симулировало размытие фона как в зеркалках. Так себе симулировало будем честны. Марк Левой возглавил команду разработчиков, которые назвали себя Gcam.

При разработке алгоритма было сразу заложено 4 принципа, которые сильно повлияли на развитие вычислительной фотографии:

  • Быть мгновенным
    На обработку снимка не должно тратиться более нескольких секунд и все вычисления должны проходить локально на устройстве, а не в облаке, например. А значит, алгоритм должен быть простым для вычисления.
  • Быть автоматическим
    Никаких ручных настроек. Пользователь должен получать качественные снимки не задумываясь о тонкостях алгоритма.
  • Быть естественным
    Эффект не должен делать изображение сюрреалистичным, мультяшным. А ночь не должна выглядеть как плохая дневная фотография. Кстати, этот принцип и сейчас заметен: например, Pixel далеко не всегда делает такой ядреный HDR, как конкуренты, хотя мог бы.
  • Быть консервативным
    HDR+ должен рассматриваться как режим по умолчанию, не содержать артефактов, а результат должен быть, как минимум, не хуже чем обычная фотография.

Эти принципы побудили команду Gcam подойти к работе нестандартно, потому как все остальные решения того времени этим принципам не отвечали.

Обычно в мобильной фотографии динамический диапазон расширяют при помощи техники брекетинга (вилки). Делается несколько снимков: один нормальной яркости, один светлее, один темнее. А потом они склеиваются: тени берутся из светлого снимка, света с темного, остальное с обычного. За счёт этого мы получаем расширение ДД, то есть HDR. Сейчас это умеет любой смартфон.

Но у такого метода есть и недостатки. Во-первых, снимки с разной освещенностью и выдержкой сложно склеить между собой, и поэтому возможны артефакты, типа гоустинга. Во-вторых, совсем не решается проблема с шумами, поэтому из-за агрессивного шумоподавления теряются детали и возникает эффект мокрой губки. В-третьих, при таком методе можно сильно переборщить с компрессией теней и света и на выходе получить неестественную, мультяшную картинку. Все эти проблемы, в той или иной степени, по-прежнему встречаются в смартфонах.

Так что же придумали инженеры Gcam? Они решили, что эффективнее будет склеивать между собой снимки не с разной экспозицией, а с одинаковой, причем чуть недоэкспонированные, т.е. темные или недосвеченные. Звучит нелогично! Чем вообще может помочь склейка темных снимков? А откуда взять информацию в тенях? А как это вообще поможет избавиться от шума? И вот тут начинается магия Google.

Начнём с того, что в этом случае, снимки не склеиваются, а как бы накладываются друг на друга, усредняя информацию о цвете при каждом наложении. На этом не всё. Из-за того что снимки делаются с более короткой выдержкой, они получаются чётче, объекты меньше размываются.

Потом, так как снимки одинаковые по яркости и размытию их становится существенно проще склеивать. И, конечно, с короткой выдержкой снимки делаются быстрее, а значит можно сохранить больше кадров за одно и то же время. За счёт усреднения значения каждого пикселя с разных фото, существенно уменьшается шум, но детали сохраняются.

Плюс ко всему, увеличивается глубина цвета с 10 до 14 бит. И это даёт возможность искусственно высветить тени без видимых артефактов! Звучит всё гениально и просто, но на самом деле алгоритм чрезвычайно сложный, потому как он должен работать во всех условиях при съёмке с рук, не сажать мгновенно батарейку и не выдавать артефактов.

Как работает алгоритм

Когда вы запускаете приложение камера, оно начинает непрерывно снимать, загружая в циклический буфер от 15 до 30 фотографий, в зависимости от уровня освещённости. В момент, когда вы делаете снимок, запись прекращается и берутся последние кадры из буфера. Из первых трёх кадров выбирается самый резкий, а потом на него накладываются другие снимки исключая фрагменты которые не изменились. Каждый снимок сравнивается покадрово и все измененные области отсекаются. После получения склеенного кадра в дело вступают всякие улучшатели, убираются шумы, аберрации, дымка, виньетка, повышается контраст, резкость и прочее. В этот момент происходит автобаланс белого, дебаеризация, устранение шумов, тональная компрессия, устранение хроматических аберраций, виньетирования, дымки, сглаживание полутонов, гамма коррекция, повышение контрастности, четкости и насыщенности. И это всё автоматически!

При этом для опытных фотографов и просто любителей повыкручивать фотографии в Adobe Lightroom в Pixel 3 появилась возможность сохранять RAW-файлы, полученные в результате объединения нескольких кадров. Они одновременно сочетают в себе все преимущества вычислительной фотографии и при этом остаётся полная свобода творчества.

Конечно, Google не единственный кто умеет в вычислительную фотографию. Вместе с iPhone XS Apple предоставила свою версию магического алгоритма. Со слов Фила Шиллера, технология работает следующим образом. В циклическом буфере вращается 4 кадра с нормальной экспозицией и 4 промежуточных кадра с пониженной экспозицией, а также 1 светлый кадр с более длинной выдержкой. Далее нейронный движок анализирует все кадры и склеивает удачные фрагменты между собой.

Принцип работы похож на вариант реализации от Google, но за счёт того, что нужно склеить снимки с 3 разными экспозициями, такой алгоритм гораздо сложнее реализовать на практике, не получив артефакты типа гоустинга и агрессивной компрессии цвета. Более того, такой метод теоретически должен быть более затратен для вычисления. Но стоит отдать должное Apple, потому, что они не только успешно это реализовали, но добились вычисления в реальном времени, за счёт плотной интеграции со своим железом. То есть на экране iPhone в камере вы видите то, что получится на фотографии, Google таким похвастаться не может.

Но Google может другое: они реализовали подобный алгоритм и в при съёмке видео вплоть до 30 кадров в секунду, что вообще взрывает мозг!

Итого, преимущества алгоритма от команды Gcam:

  • Значительно уменьшаются шумы, практически без потери детализации.
  • Почти полное отсутствие артефактов.
  • Естественная цветопередача.
  • Чёткая краника даже при условии быстрого движения в кадре.

Но у такого подхода, конечно есть недостатки. Во-первых, во время съёмки непонятно, каким получится итоговый снимок, потому как в видоискателе отображается картинка прямиком с матрицы, без особых улучшений. А во-вторых, чтобы посмотреть результат придётся немного подождать пока снимок обработается. И иногда это прям раздражает. Но итоговый результат того стоит!

А если вам интересно поглубже изучить как работает алгоритм полное описание его работы, вплоть до математических формул, есть в свободном доступе на сайте Стэндфордского университета.

За подготовку материала благодарим Антона Евстратенко.

Гид по всем Google Pixel. Какие камерофоны стоит брать, а какие нет?

Google Pixel — линейка, смартфоны из которой редко можно встретить в продаже у провинциальных магазинов. Фанов «гуглофонов» спасает только Маркет, ведь сейчас там торгуют практически всеми актуальными девайсами бренда. Поэтому «Палач» подготовил гид по всем устройствам для тех, кто совсем не разбирается в серии.

Google Pixel 4

Удивительно, что экс-флагман до сих пор продаётся, ведь американцы давно сняли его с производства, а сам смартфон получился провальным. В своё время «четвёрку» ругали за странный дизайн, ужасную автономность, сомнительные новые функции вроде управления жестами, отсутствие ширика, максимальный объём хранилища в 128 гигов и невозможность съёмки в [email protected]

Единственная киллер-фича, за которую этот Pixel можно похвалить — продвинутая система разблокировки по лицу, как в iPhone. Беда только в том, что в следующем же поколении в Google почему-то отказались от этого способа анлока. В остальном характеристики для 2021 года средние: OLED-дисплей на 90 Гц, процессор Snapdragon 855 и двойная камера на 12,2+16 Мп. Вердикт: если нужен компакт на чистом Android и в целом плевать на фотовозможности, лучше возьмите Asus ZenFone 8. По акциям его отдают примерно за те же деньги, а по многим спекам он круче.

Google Pixel 4a

Идеальная модель при миграции с iOS на Android по версии «Палача» стоит меньше 35 штук. В чём кайф облегчённой версии флагмана? Во-первых, у неё чёткий и яркий 5,8-дюймовый OLED-дисплей. Во-вторых, аппарат работает просто реактивно несмотря на то, что установлен далеко не самый топовый проц Snapdragon 730G — проблемы возникнут только тогда, когда вы попытаетесь запустить топовые игры на максимальных настройках графики. В-третьих, радует всё остальное: 6/128 гигов памяти в базе, сверхлёгкий корпус (143 грамма), стереодинамики и всё та же одинарная камера на 12 Мп.

Так берём? Удивим, но нет – на это есть две причины. Первая — девайс дорожает. Если верить Маркету, в августе средний прайс составлял 30 661 рубль, а сейчас он составляет 34 990 рублей, а в лучшем случае вы заплатите 32 кэса. Вторая — версия с 5G стоит столько же, но рвёт миниатюрный смарт по многим параметрам.

Google Pixel 4a 5G

Чем выделяется эта итерация «ашки»? У нее увеличенный экран на 6,2 дюйма, есть дополнительный объектив на 16 Мп, увеличен объём аккума и установлен более мощный чип Snapdragon 765G с поддержкой сетей пятого поколения. Самое интересное, что в отличие от базового 4a цены не повышаются, а стремительно снижаются. Очевидно, что это связано с релизом Pixel 5a 5G, который недавно поступил в продажу. Но и четвёртое поколение советуем брать — это самый оптимальный гаджет бренда до 40 тысяч рублей.

Google Pixel 5a 5G

За что предлагается переплатить 10 тысяч рублей? За алюминиевый корпус, защиту от воды по стандарту IP67 и жирнейшую батарею на 4680 mAh. В остальном серьёзных изменений нет: всё тот же Snapdragon, экран без высокой развёртки и идентичный дуэт камер на 12+16 Мп. Это отличный вариант при сценарии, когда покупка смартфона планируется только через несколько месяцев. К этому времени прошлогодний девайс уже пропадёт из магазинов, а 5a 5G, вероятно, подешевеет ниже психологической отметки.

Есть ли достойная альтернатива? Если в приоритете максимально возможная производительность, то присмотритесь к OnePlus 9R на Snapdragon 870. Ещё у этой модели в арсенале очень плавная матрица на 120 Гц, квадрокамера на 48+16+5+2 Мп, стерео, 8/128 Гбайт памяти и батарея на 4500 mAh. Да и стоит она даже дешевле — есть лоты за 34 тысячи рублей.

Google Pixel 5

Сейчас далеко не лучший момент для покупки этого топа, ведь ещё пару месяцев назад он стоил меньше 50 тысяч рублей, а сейчас оценивается почти в 60 кэсов. Преимуществ по сравнению с A-версией не так уж и много: только плавный экран на 90 Гц, поддержка беспроводной и реверсивной зарядки и больше ОЗУ. Ещё удешевленный аппарат пока проигрывает в плане софта — в отличие от «пятёрки» она заметно перегревается при съёмке видео в 4K. Стоит ли ради всего этого переплачивать 13-15 тысяч рублей? Вряд ли.

К тому же есть и мощные конкуренты. Первая — OnePlus 9 Pro с более премиальными материалами корпуса, топовым дисплеем с частотой обновления 120 Гц и QuadHD-разрешением, чипом Snapdragon 888, трио камер на 48+50+8 Мп и батареей на 4500 mAh. Вторая — более компактный Samsung Galaxy S21 с процессором Exynos 2100. Ещё эти модели легче добыть в РФ и они стоят заметно дешевле — вот линк на первую, а вот на вторую.

Добавить комментарий

Ваш адрес email не будет опубликован.