Подняв бровь или улыбнувшись, люди с дефектами речи или физическими недостатками теперь могут управлять своими смартфонами на базе Android без помощи рук, сообщила в четверг Google.
Два новых инструмента позволяют машинному обучению и фронтальным камерам на смартфонах распознавать движения лиц и глаз.
Пользователи могут сканировать экран своего телефона и выбирать задачу, улыбаясь, поднимая брови, открывая рот или глядя налево, направо или вверх.
«Чтобы сделать Android более доступным для всех, мы запускаем новые инструменты, которые упрощают управление телефоном и общение с помощью мимических жестов» , — заявили в Google.
По оценкам Центров по контролю и профилактике заболеваний, 61 миллион взрослых в США живут с ограниченными возможностями, что подтолкнуло Google и конкурентов Apple и Microsoft сделать продукты и услуги для них более доступными.
«Каждый день люди используют голосовые команды, такие как« Привет, Google », или свои руки, чтобы управлять своими телефонами», — сказал технический гигант в своем блоге.
«Однако это не всегда возможно для людей с тяжелыми двигательными и речевыми нарушениями».
Изменения являются результатом двух новых функций, одна из которых называется «Переключение камеры», которая позволяет людям использовать свои лица вместо смахиваний и касаний для взаимодействия со смартфонами.
Другой — Project Activate, новое приложение для Android, которое позволяет людям использовать эти жесты для запуска действия, например, когда телефон воспроизводит записанную фразу, отправляет текст или звонит.
«Теперь любой может использовать движения глаз и мимические жесты, адаптированные к его диапазону движений, для навигации по телефону — без рук и голоса», — сказал представитель Google.
Бесплатное приложение Activate доступно в магазине Google Play в Австралии, Великобритании, Канаде и США.