Las novedades de Google en inteligencia artificial para revolucionar la comunicación y la búsqueda
Los avances incluyen desde plataformas de comunicación 3D hasta asistentes capaces de navegar por la web en nuestro nombre, además de importantes cambios en la búsqueda o la generación de contenidos multimedia
Lo último de Google DeepMind es AlphaEvolve, una IA que aprende sin profesores

Google ha abierto este martes su conferencia anual de desarrolladores, I/O 2025, con una presentación en la que a lo largo de dos horas la compañía ha ido desgranando todas las novedades relacionadas con la inteligencia artificial que irá lanzando en las próximas semanas o meses y, en muchos casos, hoy mismo.
Una sesión que se encargó de abrir sobre el escenario de Mountain View el CEO de la tecnológica, Sundar Pichai, que tras plasmar en gráficos el despunte de las consultas e interacciones relacionadas con la IA (especialmente relacionadas con la propia, Gemini), pasó a detallar todas y cada una de esas innovaciones que, en palabras del directivo, transformarán la forma en que nos comunicamos, buscamos información y realizamos tareas cotidianas.
Estas tecnologías, que incluyen desde plataformas de comunicación 3D hasta asistentes capaces de navegar por la web en nuestro nombre, marcan lo que el gigante tecnológico considera una nueva era en la interacción entre humanos y máquinas.
Google Beam: videoconferencias en 3D realistas
Una de las novedades destacadas es Google Beam, una evolución del anterior Project Starline, que lleva las videoconferencias a un nuevo nivel de realismo tridimensional. Esta plataforma utiliza un conjunto de seis cámaras y modelos avanzados de IA para transformar el vídeo 2D tradicional en una experiencia 3D inmersiva mediante pantallas de campo de luz.
"Beam ofrece un seguimiento de la cabeza prácticamente perfecto, con precisión milimétrica a 60 fotogramas por segundo en tiempo real", explicó Pichai. El resultado, según el directivo, es una conversación que se siente mucho más natural, como si ambos interlocutores estuvieran físicamente en la misma habitación.
Los primeros dispositivos Google Beam, desarrollados en colaboración con HP, estarán disponibles para clientes seleccionados a finales de este año.
Traducción simultánea en Google Meet
Google también ha integrado tecnología de traducción automática en su plataforma Meet, permitiendo conversaciones en diferentes idiomas casi en tiempo real. Esta función no solo traduce las palabras, sino que simula el timbre, el tono de voz e incluso las expresiones del hablante original.
"Esto acerca las videollamadas a una conversación natural y fluida entre personas que hablan diferentes idiomas", destacó Pichai. La traducción entre inglés y español ya está disponible en versión beta para los suscriptores de Google AI Pro y Ultra, con planes de añadir más idiomas en las próximas semanas.
"El resultado es una conversación auténtica y natural, incluso en diferentes idiomas, ya sean nietos angloparlantes charlando sin esfuerzo con sus abuelos hispanohablantes o colegas de todo el mundo conectados desde diferentes continentes", indica Google en un comunicado oficial. La empresa ha confirmado que esta herramienta "pronto estará disponible para empresas", además de para los suscriptores actuales de sus planes premium.
De Project Astra a Gemini Live: un asistente que entiende el mundo
El Project Astra, presentado anteriormente como un prototipo, ha evolucionado hasta convertirse en Gemini Live, un asistente de IA capaz de comprender el entorno del usuario a través de cámaras y pantallas compartidas. Esta tecnología ya está disponible para todos los usuarios de Android y comienza su despliegue en iOS.
"Los usuarios están encontrando aplicaciones prácticas muy interesantes, como prepararse para entrevistas o entrenar para maratones", afirmó Pichai, quien también anunció que estas capacidades se integrarán en otros productos de Google, como el buscador.
Agentes de IA: Project Mariner y Modo Agente
Quizás el avance más revolucionario presentado por Google es el desarrollo de agentes de IA capaces de controlar un ordenador y realizar acciones en internet. El proyecto inicial, denominado Project Mariner, ha evolucionado significativamente desde su lanzamiento experimental en diciembre.
"Los agentes son sistemas que combinan la inteligencia de modelos avanzados de IA con el acceso a herramientas, permitiéndoles realizar acciones bajo el control del usuario", explicó Pichai. Entre las nuevas funcionalidades destaca el método "enseñar y repetir", mediante el cual el sistema aprende a realizar tareas similares después de que el usuario le muestre el proceso una sola vez.
Google ofrecerá estas capacidades a los desarrolladores a través de la API de Gemini y ha anunciado compatibilidad con el Protocolo de Contexto del Modelo (MCP) introducido por Anthropic, así como con su propio protocolo abierto Agent2Agent para la comunicación entre agentes.
Para los usuarios finales, Google integrará el Modo Agente en Chrome, la Búsqueda y la aplicación Gemini. "Si estás buscando un piso, te ayudará a encontrar anuncios según tus criterios, ajustar filtros e incluso concertar visitas", ejemplificó Pichai. Una versión experimental de esta función estará disponible próximamente para los suscriptores de Gemini.
Entre las aplicaciones prácticas, Google ha anunciado un agente de IA capaz de realizar compras cuando un producto alcance el precio deseado por el usuario. "Ahora puede decir: 'Oye, quiero esos zapatos, pero tienen que ser talla 8 y los quiero en este color en particular'. Si el producto baja de precio, recibe notificación para que confirme que aún quiere que lo compre por usted. El agente irá al sitio web del vendedor con la talla, el color o lo que le haya indicado, lo agregará a su carrito y lo comprará en su nombre", explicó Lilian Rincon, vicepresidenta de producto de compras para el consumidor de la empresa.
Contexto personal: IA adaptada a cada usuario
La personalización será otro de los pilares del nuevo ecosistema de IA de Google. Con el consentimiento del usuario, los modelos de Gemini podrán utilizar información personal relevante de las aplicaciones de Google para ofrecer respuestas y recomendaciones adaptadas.
Un ejemplo concreto son las nuevas Respuestas Inteligentes personalizadas en Gmail. "Si un amigo te pide consejos sobre un viaje por carretera que hiciste en el pasado, Gemini puede buscar en tus correos y archivos de Google Drive para sugerir una respuesta con detalles específicos", ilustró Pichai. El sistema incluso emulará el estilo de escritura del usuario, adaptándose a su tono habitual y palabras favoritas. Esta función estará disponible para suscriptores a finales de año.
La transformación de Google Search: Vista Creada con IA y Modo IA
La búsqueda de Google, su producto insignia, también está experimentando una profunda transformación gracias a la IA. La Vista Creada con IA, que ofrece respuestas generadas por inteligencia artificial a las consultas de los usuarios, ya ha llegado a más de 1.500 millones de personas en 200 países y territorios.
"Es uno de los lanzamientos más exitosos de la Búsqueda en la última década", subrayó Pichai, destacando que en mercados como Estados Unidos e India está impulsando un crecimiento superior al 10% en las búsquedas donde se utiliza.
Para quienes buscan una experiencia completamente basada en IA, Google ha presentado el nuevo Modo IA, "una reinvención total de la Búsqueda". Este modo permite realizar preguntas más largas y complejas, con los primeros usuarios realizando consultas entre dos y tres veces más extensas que las búsquedas tradicionales. El Modo IA está disponible para todos los usuarios estadounidenses desde hoy.
Según Rincon, el Modo IA es capaz de "buscar inspiración visual" a la hora de hacer una compra, presentando un mosaico de productos e imágenes entre los que se distribuyen anuncios, aunque la empresa ha indicado que la monetización es ahora algo secundario, priorizando ser "lo más útiles posible para los consumidores".
Prueba virtual de ropa con IA
Entre las novedades orientadas al comercio electrónico, Google ha lanzado una revolucionaria herramienta llamada Try it on (Pruébatelo) que permite a los usuarios probarse virtualmente prendas de ropa tras subir una foto de cuerpo entero.
Disponible desde hoy en Search Labs en Estados Unidos, esta función utiliza un modelo de Gemini específicamente entrenado en moda, capaz de comprender el cuerpo humano y los matices de la ropa, como la forma en que diferentes materiales se doblan, estiran y adaptan a distintos tipos de cuerpo.
"El propósito no es tanto que quede bien. La clave es poder ver cómo queda", explicó Rincon, aclarando que la herramienta no garantiza que las prendas se ajusten perfectamente al cuerpo del usuario, pero sí ofrece una idea visual muy aproximada del resultado. Los usuarios podrán "probarse miles de millones de prendas de la base de Shopping Graph" sin necesidad de introducir su peso o altura.
Gemini 2.5: potencia y eficiencia
En cuanto a los modelos que sustentan todas estas innovaciones, Google ha presentado Gemini 2.5 Flash, que según Pichai "ha sido increíblemente popular entre los desarrolladores por su velocidad y bajo coste". La nueva versión mejora en razonamiento, multimodalidad, código y manejo de contexto largo, situándose en segunda posición en el ranking de LMArena, solo por debajo de Gemini 2.5 Pro.
El modelo Pro recibirá a su vez una mejora con Deep Think, un modo de razonamiento avanzado que incorpora las últimas investigaciones en pensamiento paralelo.
Herramientas creativas potenciadas por IA
Para los creadores de contenido, Google ha presentado Veo 3, su modelo de vídeo más avanzado hasta la fecha. Josh Woodward, vicepresidente de Google Labs y Gemini, destacó que "estamos adentrándonos en una nueva era de creación" al presentar esta herramienta, que por primera vez puede generar no solo vídeo sino también audio (música, efectos especiales y diálogo).
Según la compañía, Veo 3 mejora la calidad de su predecesor, Veo 2 (lanzado este año para competir con modelos similares de OpenAI), y permite crear escenas con elementos sonoros integrados: ruidos de tráfico de fondo en una escena callejera, pájaros cantando en un parque e incluso diálogos entre personajes.
En el ámbito de la generación de imágenes, Google presentó Imagen 4, cuya principal novedad es la capacidad para recrear texto con precisión, algo que hasta ahora resultaba complicado para los sistemas de IA generativa.
"Imagen 4 puede crear imágenes en diversas relaciones de aspecto y con una resolución de hasta 2K, incluso mejor para impresión o presentaciones. Además, es mucho mejor en ortografía y tipografía, lo que facilita la creación de tarjetas personalizadas para celebraciones, pósteres e incluso cómics", explica la empresa en un comunicado.
Para el sector cinematográfico, Google lanzó Flow, que describe como "una herramienta de cine con IA que te permite crear clips, escenas e historias cinematográficas". Flow permite a los cineastas elaborar clips cinematográficos y extender clips cortos para convertirlos en escenas más largas. Esta herramienta ya está disponible en Estados Unidos para los suscriptores de los nuevos planes Google AI Pro y Google AI Ultra.
Una mirada al futuro
Pichai concluyó su presentación con una reflexión sobre el alcance de estas tecnologías: "La oportunidad que ofrece la IA no podría ser mayor. Que sus ventajas lleguen al mayor número de personas posible dependerá de esta ola de desarrolladores, creadores de tecnología y catalizadores de innovación".
El CEO de Google señaló que la investigación actual en áreas como robótica, computación cuántica, AlphaFold y Waymo sentará las bases para innovaciones futuras aún más revolucionarias.
Con estos anuncios, Google reafirma su apuesta por la inteligencia artificial como motor de transformación de sus productos y servicios, en un momento en que la competencia en este sector se intensifica con empresas como Microsoft, Meta y OpenAI presentando también avances significativos en sus respectivas tecnologías de IA.
También te puede interesar
Lo último