- Apple prepara traducción en tiempo real para AirPods con iOS 26, permitiendo comunicarte con personas que hablan otros idiomas de manera fluida.
- La traducción simultánea llegará primero a ciertas apps y posteriormente se integrará directamente con los AirPods y llamadas, sin necesidad de mirar el iPhone.
- La función no ha sido oficialmente presentada en la keynote y se espera que debute en actualizaciones posteriores de iOS 26 a finales de año.
- El nuevo sistema aprovechará la inteligencia artificial de Apple para ofrecer traducciones precisas y una experiencia más sencilla y privada.

Apple continúa evolucionando sus herramientas de inteligencia artificial con el lanzamiento de iOS 26. A pesar de que la compañía presentó sus novedades más llamativas en la WWDC 2025, todavía quedan funciones relevantes por conocer. Una de ellas, según diversos analistas y filtraciones, apunta a la llegada de un sistema de traducción en tiempo real integrado en los AirPods, que promete cambiar la forma en la que los usuarios se comunican cuando hay barreras idiomáticas de por medio.
Distintas fuentes, como Mark Gurman (Bloomberg) y medios especializados, coinciden en que esta novedad no fue anunciada oficialmente durante la conferencia debido a la nueva estrategia de Apple de no presentar funciones que no estén completamente listas para su lanzamiento inicial. Sin embargo, se espera que la traducción simultánea con los AirPods debute en alguna de las primeras actualizaciones de iOS 26, previsiblemente antes de que acabe el año.
Traducción en tiempo real con AirPods: ¿en qué consiste la función?

La próxima funcionalidad de iOS 26 permitirá que los usuarios de AirPods puedan escuchar en su idioma una conversación mantenida con otra persona que hable en una lengua diferente, sin tener que estar pendientes del teléfono. El sistema detectará automáticamente el idioma extranjero, realizará la traducción casi instantánea y enviará el resultado directamente a los auriculares. Así, será posible participar en charlas presenciales, entrevistas o preguntar direcciones en el extranjero con mayor comodidad.
Hasta ahora, Apple había integrado la traducción simultánea para llamadas, iMessage o FaceTime, pero requería usar el móvil o tener la pantalla a la vista. Con esta integración directa en los AirPods, el proceso se simplifica al máximo y gana en privacidad, ya que la traducción se escucha en el oído y no es necesario compartir el teléfono.
Este avance coloca a Apple a la altura de otros fabricantes que ya habían explorado la traducción por auriculares usando inteligencia artificial, pero aplicado de manera transversal en el ecosistema de la marca para maximizar la integración con iPhone y otros dispositivos.
Disponibilidad: modelos compatibles y previsión de lanzamiento

Por el momento, la función estaría en desarrollo y pendiente de confirmación sobre los modelos de AirPods compatibles. Según la información filtrada, la traducción simultánea podría estar disponible en los AirPods 4 y AirPods Pro 2, e incluso aprovechar la llegada de futuros modelos como los AirPods Pro 3, cuya aparición se espera para otoño junto al lanzamiento de los iPhone 17.
No obstante, todavía no hay detalles oficiales sobre si será necesario actualizar el hardware o si podrá utilizarse con modelos actuales mediante actualización de software. Apple suele reservar información sobre compatibilidad hasta el lanzamiento definitivo de la función.
Se espera que la traducción en tiempo real se active en una de las primeras actualizaciones menores de iOS 26, posiblemente con la llegada de iOS 26.1 a partir de octubre o, a más tardar, en iOS 26.2.
Otras funciones relacionadas de iOS 26

Junto a la traducción en tiempo real, iOS 26 pone el foco en otras mejoras para el ecosistema Apple. Entre estas se incluye la sincronización automática de datos de inicio de sesión en redes Wi-Fi públicas entre dispositivos. Esta utilidad facilitará la conexión en lugares como hoteles, aeropuertos o cafeterías, ya que los datos introducidos una sola vez podrán compartirse entre iPhone, iPad y Mac, ahorrando tiempo y evitando repeticiones innecesarias.
Adicionalmente, la inteligencia artificial de Apple se emplea para mejorar la experiencia en llamadas y mensajería, permitiendo traducir textos y voz en directo a través de Teléfono, FaceTime y Mensajes. El sistema muestra subtítulos en pantalla y ofrece respuestas traducidas aunque el otro interlocutor no tenga un iPhone, aumentando la versatilidad de los usuarios del ecosistema.
Las actualizaciones de iOS 26 están orientadas a ofrecer una interacción más natural y sencilla, poniendo la tecnología de IA al servicio de la comunicación y la accesibilidad para todo tipo de usuarios.
Nueva estrategia de Apple: cautela y una integración total

La decisión de Apple de mantener en secreto esta característica durante la keynote responde, en parte, a la experiencia vivida en años anteriores donde funciones presentadas con antelación acabaron posponiéndose por dificultades técnicas. En esta ocasión, la compañía quiere asegurarse de que la traducción en tiempo real y el resto de novedades lleguen a los usuarios de forma estable y completa.
El objetivo principal es garantizar una integración perfecta entre el software, los dispositivos como los AirPods y la inteligencia artificial, facilitando la traducción automática en cualquier contexto, desde reuniones profesionales hasta viajes turísticos. La fiabilidad y la privacidad durante todo el proceso han sido prioritarios en el desarrollo de esta función.

De este modo, la traducción en tiempo real aspira a convertirse en una de las funciones estrella de iOS 26 para la vida diaria de los usuarios de Apple. No solo facilitará la comunicación en viajes o entornos multilingües, sino que también refuerza el compromiso de la marca con poner la inteligencia artificial al servicio de necesidades concretas y cotidianas.