Imagínese decirle a su celular: «Pídeme el mercado de la semana basándote en la lista que tengo en Notas, y cuando llegue, agéndame el parqueadero más cercano al gimnasio para la clase de mañana.» Cinco años después, esa frase no será para una película de Hollywood. Será para un Samsung Galaxy o un Pixel.
*Por: Redacción Tecnología / IA

Google presentó este martes, en el evento previo al Google I/O, una de las apuestas más grandes que ha hecho en años: Gemini Intelligence. No es una nueva aplicación. No es un modelo más de inteligencia artificial. Es algo distinto: una capa de IA que se mete directamente dentro de Android 17, el próximo sistema operativo, y convierte al celular entero en un asistente que actúa entre aplicaciones sin que el usuario tenga que abrirlas una por una.
La idea, en pocas palabras, es esta: Hoy en día usar el celular significa abrir una app, salir, abrir otra, copiar algo, pegarlo en una tercera. Lo hacemos cientos de veces al día sin pensarlo. Gemini Intelligence elimina esa parte. Usted le habla al teléfono, le dice qué quiere lograr y él se encarga de moverse entre las aplicaciones por su cuenta.
¿Necesita llevar la lista del mercado de Notas a Rappi o a la app del supermercado? Lo hace solo. ¿Quiere reservar parqueadero cerca del estadio donde es el evento que tiene agendado en el calendario? Lo busca, lo evalúa y lo reserva. ¿Tiene en Gmail un correo con el plan de un viaje a Cartagena y quiere convertir toda esa información en un widget en la pantalla principal? Le pide a Gemini que se lo arme, y aparece.
Para las acciones sensibles (compras, publicaciones en redes sociales, transferencias bancarias), el sistema pide confirmación antes de proceder. No es que el celular vaya a vaciar la cuenta sin avisar. Pero sí va a poder llegar hasta el último paso antes de pedirle un visto bueno.

Las cinco funciones más importantes
La más ambiciosa es la que llaman «agentic tasks» entre aplicaciones, que es justo eso que acabamos de describir: tareas de varios pasos coordinadas entre apps sin supervisión humana hasta el final.
La segunda es Rambler, integrada al teclado Gboard. Es la respuesta de Google a una queja que tienen los usuarios de Android desde hace años: el dictado de voz reconoce las palabras, pero entrega bloques sin puntuación y sin sentido. Rambler hace algo distinto. Usted le habla normal, con muletillas, titubeos, «eh», «esto», se corrige a mitad de frase, vuelve atrás, y el sistema le entrega un mensaje o correo formateado, con puntuación correcta y sin las imperfecciones. Es como dictarle a una secretaria experimentada.
La tercera son los widgets generados con prompts. Le dice al sistema en lenguaje natural qué información necesita ver en la pantalla principal del teléfono, y él crea el widget. «Muéstrame las próximas tres clases de mi hijo y el clima de mañana.» Listo. «Hazme un widget con las recetas altas en proteína de la semana.» Listo. Sin código, sin programar nada.
La cuarta es el auto-browsing en Chrome, que extiende la lógica de los agentes al navegador web. Gemini puede navegar páginas por usted, llenar formularios, comparar precios y reservar servicios. Al comienzo solo estará disponible para suscriptores AI Pro y AI Ultra en Estados Unidos, pero la expansión a otros países empezará a finales de junio.
Y la quinta es Personal Intelligence, una función opcional que permite que Gemini aprenda sus datos personales (número de cédula, pasaporte, tarjeta de fidelización del supermercado) para llenar formularios solo cuando los detecte. Es útil, pero también es la función que más preguntas genera sobre privacidad. Google insiste en que es «opt-in» y desactivable, pero no ha dado detalles técnicos sobre cuánto tiempo guarda esos datos en sus servidores ni qué uso adicional pueden tener.

Gemini Intelligence llegará primero a los Samsung Galaxy S26 y a los Google Pixel más recientes a partir del verano boreal del 2026, es decir, entre junio y septiembre. Después se expandirá al resto de Android compatibles. Las funciones de Chrome requieren Android 12 o superior, lo que cubre prácticamente todos los celulares de gama media en Colombia comprados en los últimos cuatro años.
Hace dos semanas contábamos en esta sección que OpenAI prepara un teléfono propio con un asistente de IA que va a eliminar las aplicaciones individuales. Lo que Google está anunciando ahora es la versión de esa misma idea, pero sin esperar al 2027 y sin tener que comprar un aparato nuevo. La misma filosofía, en el sistema operativo más usado del mundo.
La pregunta de fondo ya no es si los celulares van a funcionar con inteligencia artificial integrada. Esa pregunta se la respondieron en silencio en los laboratorios de Cupertino y de Mountain View hace cinco años. La pregunta hoy es otra: ¿cuánto vamos a estar dispuestos a dejarle hacer a una IA en nuestro nombre? ¿Hasta qué punto la comodidad pesa más que el control? Y esa respuesta, esta vez, no la van a dar las empresas. La vamos a dar nosotros, una por una, cuando aceptemos o rechacemos cada nueva función que vaya llegando al teléfono.
La entrada Gemini Intelligence: la IA de Google que ya no será un asistente, será el cerebro de Android se publicó primero en Boyacá 7 Días.




![[Infografía] El 29 de junio de 1958 la selección de Brasil, con Pelé como delantero, se enfrentó a Suecia](https://www.ondasdelporvenir.com/wp-content/uploads/2026/05/image-37-jSqLqQ-643x675.png)






0 comentarios