Google впроваджує нові AI-функції для Gemini Live: реальний час, реальні можливості

Google запускає нові AI-функції для Gemini, які дозволяють асистенту бачити екран вашого смартфона та використовувати камеру для відповіді на запитання.

Скриншот / Twitter (X)
Скриншот / Twitter (X)

Google розширює можливості свого AI-асистента Gemini, запускаючи нові функції, які дозволяють йому «бачити» екран вашого пристрою або використовувати камеру смартфона для відповіді на запитання в реальному часі. Ці функції стали доступні користувачам завдяки технології «Project Astra», яку Google продемонструвала ще в 2024 році. Про це повідомляє The Verge

Як повідомив представник компанії, Алекс Джозеф, нові функції вже почали розгортатись серед користувачів, зокрема на смартфонах Xiaomi. Одна з основних можливостей — це здатність Gemini зчитувати текст із екранів пристроїв, що відкриває нові можливості для автоматичних запитів та допомоги у реальному часі. 

Крім того, функція інтерпретації відео дозволяє Gemini аналізувати відеопотік з камери смартфона, наприклад, допомагаючи вибирати колір фарби для керамічних виробів.

Цей крок від Google підкреслює її лідерство в галузі штучного інтелекту на фоні підготовки Amazon до запуску оновлення Alexa Plus і затримки оновлення Siri від Apple. Нові можливості в межах програми Google One AI Premium демонструють значний прогрес компанії в інтеграції AI в повсякденне використання технологій.

  • Чат-бот Gemini від Google тепер адаптується до історії вашого пошуку: нові можливості для користувачів.

    Google представила нову функцію для чат-бота Gemini, яка дозволяє аналізувати історію пошуку та застосунки Google.

Всі новини