La inteligencia artificial empieza a mirar por encima de tu hombro. Suena casi como ciencia ficción, pero es exactamente lo que está ocurriendo con la última actualización de Gemini en Android. No se trata de una función oculta ni de un experimento para usuarios avanzados. Es una capacidad que está llegando silenciosamente a móviles de gama media, sin necesidad de hardware especial, y que podría cambiar la forma en que interactuamos con nuestras apps.
Una IA que ve lo que tú ves
Antes, la idea de que una inteligencia artificial pudiera ver y analizar lo que ocurre en otra aplicación parecía reservada para dispositivos de gama alta tablets, plegables o prototipos futuristas. Pero ahora, con una actualización de la app de Google la versión 17.5.42.ve.arm64, Gemini comienza a saltar esa barrera. Ya no necesitas un móvil caro ni una pantalla enorme para que la IA entienda lo que estás haciendo en otra app.
El truco está en la pantalla dividida. Al activar este modo, puedes abrir Gemini en una mitad y cualquier otra aplicación en la contraria. En ese momento, aparece un aviso "Compartir pantalla y contenido de la aplicación". Al aceptarlo, Gemini no solo está presente, sino que mira. Observa. Analiza.
"Compartir pantalla y contenido de la aplicación" - Mensaje que aparece en la interfaz de Gemini al activar pantalla dividida
Imagina que tienes abierta la tienda de aplicaciones en una parte de la pantalla. Buscas un juego o una herramienta de productividad. Gemini, al otro lado, puede ahora leer el nombre, ver las valoraciones, comprobar el tamaño de descarga y responderte si merece la pena instalarla. Es como tener un asistente técnico sentado a tu lado, mirando la misma pantalla que tú.
Del contexto nace la utilidad
El verdadero salto no es técnico, sino conceptual. Hasta ahora, pedirle a una IA que te ayudara con otra app implicaba copiar y pegar información, describir lo que veías o hacer capturas de pantalla. Ahora, todo eso desaparece. La IA ya no necesita que le cuentes lo ve por sí misma.
Podrías preguntar ¿esta app consume mucha batería? ¿Tiene permisos extraños? ¿La gente se queja de anuncios intrusivos? Gemini puede responder basándose en los datos que ya están visibles. Y no solo en la tienda. También en redes sociales, mensajería o apps de salud.
Claro, hay límites. En algunos casos, como con navegadores, Gemini puede detectar la URL de la página abierta, pero no leer todo el contenido directamente. Aún requiere que el usuario haga un gesto adicional, como seleccionar un fragmento de texto. No es telepatía total, pero sí un paso adelante en la colaboración entre apps y IA.
Despliegue escalonado, impacto potencial masivo
Google lo está haciendo poco a poco. Esta función todavía no está activa para todos los usuarios. Llega mediante una actualización de la app, no del sistema operativo, lo que significa que no depende del fabricante ni del modelo. Ya se ha confirmado en dispositivos de marcas como Xiaomi, Redmi o POCO, que no siempre son los primeros en recibir novedades de software.
El procedimiento es sencillo cuando llegue tu turno abre Gemini, entra en las apps recientes, selecciona "pantalla dividida", elige la segunda app y acepta el permiso de compartir pantalla. Eso es todo. No hay menús ocultos ni configuraciones complejas.
Este enfoque, basado en la app y no en el hardware, es clave. Significa que millones de personas podrían tener acceso a una inteligencia artificial más contextual, más útil, sin tener que cambiar de móvil. En un mundo donde la renovación tecnológica genera residuos y desigualdad, esta democratización del acceso a funciones avanzadas tiene un valor que va más allá del simple comodín publicitario.
¿Asistente o intruso?
Por supuesto, con cada avance llega la pregunta ¿hasta dónde debe ver la IA? Compartir pantalla implica confianza. Aceptar que una inteligencia artificial tenga acceso visual a lo que haces en otras apps es un salto en la relación usuario-sistema. Hoy mira una ficha de app. Mañana podría analizar un mensaje, un correo o un documento.
Pero también es una oportunidad. Para personas mayores, para quienes no dominan bien la tecnología, tener a alguien a algo que explique lo que ven en pantalla, que advierta de riesgos o simplifique decisiones, puede ser una herramienta de inclusión digital real.
La IA no sustituye al usuario. Pero poco a poco, aprende a mirar con sus ojos. Y eso, más que cualquier chip o algoritmo, es lo más humano que ha tenido hasta ahora.