Gemini ya tiene ojos: la IA de Google ahora verá tu pantalla para saber tus búsquedas ideales

La herramienta tendrá acceso a la cámara en tiempo real y apoyarse en ese contenido para saber qué le interesa consultar al usuario

Guardar
La herramienta “Compartir pantalla con
La herramienta “Compartir pantalla con Live” permite a Gemini visualizar lo que ocurre en el dispositivo. (REUTERS/Dado Ruvic/Illustration/File Photo)

Gemini, el asistente de Google, que acaba de incorporar una función que le dará la capacidad de ver lo que hay en la pantalla de los usuarios y ofrecer respuestas en tiempo real. Un avance que hace parte del proyecto Astra, con el que la compañía está implementado paulatinamente más herramientas en este modelo de inteligencia artificial.

Por ahora, esta nueva función solo está disponible para algunos suscriptores de Google One con acceso a la versión Premium de Gemini, pero ya se conocen detalles de cómo funciona y cómo cambiará la forma de interactuar con esta IA.

Cómo funciona la nueva herramienta de Gemini

El funcionamiento de esta nueva opción es sencillo. Para comenzar a usarlo, el usuario debe activar Gemini Live, la interfaz de asistencia que incorpora las capacidades de Project Astra. Una vez dentro de Gemini Live, el usuario verá nuevos botones y opciones.

Por ejemplo, uno de ellos es el botón “Compartir pantalla con Live”, que permite compartir la pantalla completa con el asistente. A través de esta opción, el asistente podrá visualizar lo que ocurre en la pantalla y, en consecuencia, ofrecer respuestas a preguntas relacionadas con lo que está siendo visualizado.

La nueva herramienta está disponible
La nueva herramienta está disponible inicialmente para los suscriptores Premium de Google One. (GOOGLE)

Además, Gemini también ofrece una función de cámara en vivo que permite al asistente interactuar con el mundo en tiempo real a través de la cámara del smartphone. Esta característica se activa de manera sencilla: el usuario solo necesita abrir la interfaz completa de Gemini Live, iniciar un streaming de video y, mediante un botón ubicado en la esquina inferior derecha, alternar entre la cámara trasera y la cámara frontal del dispositivo.

Este streaming en tiempo real permite que el asistente responda preguntas sobre lo que está siendo grabado, lo cual podría ser útil para tomar decisiones rápidas sobre productos o incluso para recibir ayuda mientras se navega por algún entorno específico.

Cómo será la implementación gradual y los requisitos de acceso

Actualmente, esta nueva funcionalidad de Gemini está siendo desplegada de manera gradual, y está disponible únicamente para los suscriptores de Google One AI Premium, un plan que ofrece acceso a características avanzadas de Gemini. En cuanto a los dispositivos, aunque se espera que la función esté disponible para una variedad de smartphones Android, en los primeros reportes se ha confirmado que los dispositivos Xiaomi han sido los primeros en recibirla.

Sin embargo, Google había anunciado previamente que los propietarios de dispositivos Pixel y Galaxy S25 serían los primeros en acceder a esta capacidad, lo que genera expectativas sobre la futura expansión del servicio.

Los dispositivos Xiaomi son los
Los dispositivos Xiaomi son los primeros en recibir la nueva función de Gemini, con Pixel y Galaxy S25 en espera. (EFE/ Clemens Bilan)

A pesar de este despliegue gradual, no hay razones técnicas que restrinjan el acceso a estas características únicamente a ciertos dispositivos, por lo que se espera que, en el futuro cercano, los propietarios de otros modelos de Android, así como los usuarios de iPhone, puedan acceder también a estas funciones.

Aunque algunas características como la posibilidad de interactuar con fotos, archivos o videos de YouTube en tiempo real aún no están disponibles en iOS, lo que deja claro que la implementación completa de las nuevas funciones podría tardar un poco más en llegar a todos los usuarios.

Gemini permitirá crear vídeos de hasta 8 segundos

Google está preparando la integración de Veo 2 en su aplicación Gemini, una herramienta que permitirá a los usuarios crear vídeos de hasta ocho segundos utilizando Inteligencia Artificial generativa. Esta función, que aparece en la versión beta 16.11 de la aplicación, utiliza indicaciones de texto para generar contenido visual de alta calidad, con resoluciones de hasta 4K. Los usuarios podrán especificar detalles cinematográficos como la lente, el género o los efectos que desean incluir en el vídeo.

Veo 2 permitirá generar contenido
Veo 2 permitirá generar contenido visual en 4K especificando detalles cinematográficos como lente o efectos. (GOOGLE BLOG)

Veo 2, lanzado en diciembre pasado, ya ofrece resultados impresionantes, pero la nueva integración en Gemini permitirá generar vídeos cortos de hasta ocho segundos en tan solo uno o dos minutos. Aunque esta capacidad será limitada, los usuarios tendrán restricciones diarias y mensuales para su uso. Además, el contenido generado podrá ser reproducido, descargado o compartido mediante un enlace.

Por el momento, Veo 2 está en lista de espera en Google Labs a través de VideoFX, y se espera que el acceso anticipado esté disponible para los suscriptores del nivel Advanced de Gemini.