April 19, 14:22

​​Отличный пост аналитика Бенедикта Эванса о будущем мобильных камер. Всегда интересно читать его видение, рекомендую полистать блог на досуге —найдёте много интересного.

Последние крупные улучшения камер от Google и Apple — на стороне софта, а не железа. Портретный режим программно сшивает фото с двух сенсоров в одно "двухслойное". Ночной режим позволяет фотографировать в темноте. Детектор лиц позволяет применять бьютификацию и делать фото во время поцелуя.

Камера становится умной: сама подбирает настройки, включает HDR и так далее. Логичное продолжение — камера без настроек, которая сама анализирует изображение и делает лучшее фото. Никаких ночных или портретных режимов, просто кнопка "сделать фото".

Далее Эванс обращает внимание на интересный момент. Смартфон позволяет делать неограниченное количество фото бесплатно и в любой момент. Это меняет старый сценарий, когда к фото относились серьезно, как к некому артефакту, носителю памяти. Теперь камера смартфона — это визуальный блокнот. Мы сохраняем с её помощью документы, записи, товары, которые хотим купить — всё что угодно. Кстати, скриншоты на смартфонах играют ту же роль. Подтверждаю — я сохраняю в скриншотах кучу разного, от смешных постов в ленте до личных переписок.

Почему бы не направить мозг камеры на смысловой анализ этих изображений? Gmail автоматически распознаёт в письмах бронирования полетов и предлагает добавить их в календарь. Смартфон может автоматически распознавать текст на снятых фото и сохраненных скриншотах. Или узнавать на них всех людей, или распознать вообще все возможные объекты. Что-то вроде Google Lens + Goolge Photos на стероидах.

Эванс считает, что такой визуальный сенсор удобнее всего будет работать через носимый гаджет. Представьте очки дополненной реальности с включенным по умолчанию Google Lens. Вы смотрите на расписание конференции и спрашиваете "Окей Гугл, какое следующее выступление?". Или смотрите на рецепт и просите программу составить список для покупок в ближайшем магазине. Или читаете текст и сразу видите его перевод. Как понять, что действительно будет нужно пользователям, и как сшить это в удобный продукт — главный вопрос.

Я согласен с тезисами Эванса — я тоже пользуюсь камерой и скриншотами как блокнотом. Google Photos автоматически категоризирует мои фото, распознавая людей, активности и объекты. Google Lens я тоже пользуюсь. Визуальный поиск работает неплохо, если у объекта есть узнаваемые фрагменты — текст на книге, цветные вставки на кроссовках (см. фото). Менее узнаваемые объекты Lens ищет хуже — к примеру однотонную обувь или незнакомую марку авто. Попробуйте сами, это забавная штука.