Google научила озвучивать увиденное ИИ-ассистента Project Astra

Google представила на конференции Google I/O свой последний проект — ИИ-ассистента будущего под названием Project Astra.

Google научила озвучивать увиденное ИИ-ассистента Project Astra

Глава ИИ-подразделения Google DeepMind, Демис Хассабис, рассказал о возможностях этой ранней версии мультимодального ИИ-помощника, который способен «видеть» и понимать окружающее пространство.

Хассабис выразил свою давнюю мечту о создании универсального помощника, который всегда будет рядом с пользователем. Project Astra обладает способностью распознавать объекты в окружении и помогать в выполнении различных задач.

Видео-презентация продемонстрировала функционал ИИ-помощника: он определил звучащую колонку на столе, описал цветные мелки и ответил на вопрос о коде на мониторе. Работа ИИ-помощника происходит в режиме онлайн, что делает его ещё более впечатляющим.

Project Astra разработан на базе языковой модели Gemini 1.5 Pro, самой мощной нейросети Google. Команда разработчиков работала над оптимизацией алгоритма, чтобы улучшить его скорость обработки запросов и снизить время задержки ответов. Хассабис отметил, что проект находится ближе к идеалу настоящего ИИ-помощника в режиме реального времени.

Пока неизвестно, когда Project Astra станет доступен для массового использования, но ожидается, что в будущем он появится не только на смартфонах, но и на смарт-очках с камерой.

Поделиться с друзьями
ASTERA