Si el Google de los 2000 era el equivalente digital del bibliotecario que te traía el libro exacto, el Google de 2025 quiere ser más como Jarvis: un asistente proactivo que no espera tus preguntas, sino que las predice y ejecuta por ti. Y eso no es una metáfora: en su evento anual Google I/O 2025, la compañía desplegó una estrategia ambiciosa que lo cambia todo – y desató la locura en el mundo de la IA.
El centro del espectáculo fue Gemini 2.5 Pro, el modelo de lenguaje más avanzado que ha creado la empresa hasta ahora. Puede razonar, pensar en voz alta, hablar con naturalidad y —sí— también corregirse cuando se equivoca. ¿La novedad más llamativa? Un modo llamado «Deep Think», que le permite evaluar múltiples hipótesis antes de darte una respuesta. Algo así como una IA que, antes de hablar, respira profundo.
Pero Gemini 2.5 Pro no vino solo. Google presentó también Project Astra, un asistente visual y auditivo que responde en tiempo real a lo que estás viendo. ¿Apuntas tu cámara a una bicicleta? Astra te dice la marca, el precio promedio, dónde la venden, y si hay una más barata cerca. Es como tener a un experto sobre el hombro… que no se calla (literalmente).
Junto a esto, aparece Mariner, un copiloto digital que automatiza tareas del día a día: buscar un hotel, organizar correos, pedir comida o ayudarte a estudiar. Más que asistentes, parecen clones digitales con autonomía parcial. Tanto que hasta en Google Meet ahora podrás tener una traducción simultánea de tu propia voz en otros idiomas.
AI Mode en el buscador: Google se vuelve conversacional
Otro gran cambio viene directamente desde su producto más icónico: el buscador. Google anunció el nuevo AI Mode, un sistema conversacional que no solo te suelta resultados, sino que resume, compara, analiza y te da varias perspectivas en una sola respuesta. Como si compararas Google con ChatGPT… y ganara Google.
Todo esto, por supuesto, potenciado por Gemini 2.5 Pro y su versión Flash, optimizada para velocidad, tareas simples y consumo reducido. Porque sí, incluso las inteligencias artificiales tienen versiones “light” – y la verdad que funciona bastante bien, aunque se sigue equivocando.
Y mucho más…
Y como si todo esto no bastara, Google también presentó su nueva plataforma de realidad extendida: Android XR, con soporte para gafas inteligentes, y un nuevo sistema de comunicación entre dispositivos llamado Google Beam. La idea es simple (y escalofriante): tu IA te acompaña siempre, te ve, te escucha, te responde… y te conoce más que tú mismo. (Si esto no te da miedo, no sé qué lo hará).
Todo esto puede sonar futurista, pero es ya parte de una visión clara: Google no quiere que busques, quiere que pienses menos. Quiere anticiparse. Que tu experiencia sea fluida, sin barreras, sin texto, sin comandos. Solo tú, tu entorno… y Gemini tomando el control silencioso.
El modelo de creación de vídeos Veo3, ahora con capacidad para crear escenas con diálogos sincronizados y sonido ambiente con un realismo superior a Sora de OpenAi; Flow, que promete cambiar el cine y la televisión generando secuencias completas, la nueva Imagen FX 4 para la creación más detallada de imágenes, además de funciones de clonación de voz y creación de música, convierten a Google en un todo en uno, difícil de igualar.
Como en Black Mirror, la tecnología deja de ser herramienta para convertirse en contexto. Como en Blade Runner, el asistente no solo entiende tus palabras, sino tus emociones. Y como en la vida real… empezamos a preguntarnos si vale la pena delegar tanto.
El Google de 2025 ya no quiere que escribas “cómo hacer una presentación”. Quiere prepararla por ti. Quiere sugerirte la música, enviarte el resumen por correo y reservarte la sala. La promesa es eficiencia. El desafío es no olvidar qué significa ser autónomos en una era donde la inteligencia —artificial— lo hace prácticamente todo.
Instagram, Twitter y Threads: @willmarf
Fuente de TenemosNoticias.com: www.analitica.com
Publicado el: 2025-05-25 11:15:00
En la sección: Tecnología archivos – Analitica.com