Новые возможности AR от Google
Google показали новые возможности своей платформы дополненной реальности ARCore, которая была выпущена в феврале 2018 года. Компания продолжает развивать это направление: шесть лет прошли с момента появления Google Glass, пять лет — после разработок Tango, прародителя ARCore, и два года — с момента запуска проекта Google Lens для распознавания окружающего мира.
Разработчики представили новый интерфейс для ARCore: благодаря Depth API 3D-объекты теперь можно размещать впереди или позади реальных предметов. Нововведения не требуют специального "железа": для того, чтобы смартфон создал карту глубины, достаточно одной камеры. Когда пользователь поворачивает камеру, Depth API автоматически сравнивает изображения и определяет расстояние для каждого пикселя.
На видео красным обозначены области, которые находятся ближе, а синим — более дальние.
Благодаря информации о глубине разработчики ARCore также улучшили алгоритмы поиска пути, взаимодействие с плоскостями и физику. Цифровые персонажи перестали проходить сквозь мебель, пользователи смогут рисовать не только на стенах, а брошенный 3D-мяч будет отскакивать от реальных предметов.
Платформа дополненной реальности от Apple, ARKit 3, тоже определяет глубину и может правильно располагать объекты, но работает только с последним поколением устройств iPad и iPhone с процессором A12. По словам Google, технологию ARCore поддерживают "более 200 миллионов устройств на базе Android". Полный список приведен на сайте.
Первым продуктом с поддержкой Depth API станет просмотрщик Scene Viewer, с помощью которого Google показывает результаты поиска. Будет достаточно, например, набрать "кот" на смартфоне, который поддерживает ARCore.
В будущем для дополненной реальности Google планируют задействовать дополнительные сенсоры глубины и специальные ToF-камеры, чтобы улучшить совмещение 3D и изображения реального мира.
Тем временем AR/VR-художники при высоких зарплатах меньше всех в индустрии довольны результатами своей работы.