Google рассказала, зачем смартфону две камеры

Я честно никогда не понимал, зачем смартфону нужно две и больше камер. Нет, понятное дело, что на макро-модуль удобнее делать макро-снимки, сверхширик увеличивает охват, а телевик вроде как обеспечивает оптическое зуммирование. Но в обычной жизни макро-съёмку мы не ведём, приблизить кадр можно по старинке и без телевика, а обычный ширик можно заменить на сверхширокоугольник. Я уже не говорю про лидар, который в большинстве случаев вообще не несёт никакой практической нагрузки. Google придерживается почти такого же мнения, но считает, что вторая камера всё-таки необходима.

Как камера вашего смартфона смогла бы выявлять сахарный диабет

Две камеры смартфону могут пригодиться в нескольких сценариях использования. Причём даже не так важно, что за модули это будут: два стандартных ширика, ширик и телевик или ширик и сверхширик. Главное, чтобы это был не лидар, хотя по большому счёту и он сгодится, и не макро-модуль. Уж он-то точно не подойдёт из-за фокусного расстояния и особенностей автоматической фокусировки на объектах.

Первый и, пожалуй, наиболее распространённый сценарий использования двух камер – это съёмка портретных фотографий. Несмотря на то что сама Google доказала нам, что съёмка с размытием фона возможна и на одиночный модуль, двойной обеспечивает лучший показатель глубины и повышает естественность кадра.

Вот, сравните два кадра с одного и того же ракурса:

Первое фото было сделано по технологии Dual Pixel. Она программным способом делит каждый пиксель матрицы надвое и позволяет ему захватывать изображение с двух ракурсов. В результате наложения этих снимков и получается эффект объёма, а уже от него алгоритмы отталкиваются, определяя, какую область нужно размыть, а какую оставить в фокусе.

Учись, Apple, или Почему у всех Google Pixel с 2018 года одна и та же камера

При использовании двух камер, которые физически расположены друг от друга на большем удалении, чем обе части поделённого надвое пикселя, объём формируется хоть по вертикали, хоть по горизонтали. Всё это обеспечивает больший массив входных данных о глубине кадра, на базе которых алгоритмы формируют эффект размытия, который получается более натуральным с правильными переходами.

Если не вглядываться, разница между двумя фотографиями практически не видна. Но, если начать приближать отдельные фрагменты, то становится видно, что благодаря использованию дополнительного модуля чёткость фотографии повышается весьма ощутимо. Обратите внимание на ухо. На снимке, деланном на одиночную камеру, переход от объекта съёмки к фону получается менее резким, а на двойную – более.

Но это ещё не всё. Эффект параллакса, который формирует дополнительный модуль камеры, может заменить собой даже лидар. К такому выводу Google пришла совсем недавно в ходе экспериментов с дополненной реальностью.

За счёт того, что две камеры видят AR-объект с разных ракурсов, они могут более точно позиционировать его, размещая среди материальных объектов. По сути, вторая камера выполняет ту же функцию, которую выполняет лидар, установленный в iPhone 12 Pro и iPhone 12 Pro Max. Она не просвечивает предметы, но ей это и не надо. Благодаря способности видеть объект как бы с двух сторон она чётко размещает его в окружающей среде и не позволяет проваливаться в «текстуры», как это нередко происходило раньше.

Почему не работает Гугл камера и что с этим делать

Особенно круто, что технология позиционирования объектов в дополненной реальности является не аппаратной, а программной. Google распространяет её посредством фреймворка ARCore, который доступен на всех смартфонах с поддержкой GMS, а значит, использовать его сможет практически любой желающий владелец аппарата с двумя камерами.

Источник

Следующая новость
Предыдущая новость

VPS/VDS высокого качества на выгодных условиях Выгодный обмен WMZ на WMR Xiaomi выпустила напольный вентилятор Microsoft разрабатывают беспроводные наушники-вкладыши В процессорах Intel обнаружили новую уязвимость

Последние новости