- Apple perfila una nueva generación de wearables con inteligencia visual integrada para interpretar el entorno en tiempo real.
- Las gafas inteligentes sin pantalla serán el eje del ecosistema, apoyadas en el iPhone y en una Siri mucho más contextual.
- La compañía trabaja también en un colgante con cámara y AirPods con sensores avanzados para aportar más ojos y oídos a la IA.
- Privacidad, regulación europea y utilidad cotidiana marcarán la acogida de estos dispositivos en España y el resto de Europa.

Apple está preparando un giro importante en su estrategia de productos, poniendo el foco en una nueva generación de wearables con inteligencia visual capaces de entender lo que ocurre alrededor del usuario. La compañía quiere que sus próximos dispositivos no solo escuchen órdenes de voz, sino que también vean, analicen y reaccionen al entorno físico en tiempo real.
Esta apuesta llega en un momento en el que muchos perciben cierto frenazo en sus planes de IA generativa, con una nueva Siri avanzada que no se espera hasta 2026. Sin embargo, lejos de quedarse quieta, la empresa está moviendo ficha hacia un ecosistema de accesorios inteligentes -gafas, colgante y AirPods- donde la visión computacional y el contexto visual prometen tener tanto peso como el propio iPhone.
En los últimos meses, el CEO de Apple, Tim Cook, ha ido dejando pistas bastante claras sobre esta dirección. Según el periodista Mark Gurman, de Bloomberg, conocido por adelantar con frecuencia los planes internos de la compañía, Cook se muestra especialmente volcado en lo que internamente se denomina Visual Intelligence, una rama de la IA que combina cámaras, sensores y modelos avanzados para analizar imágenes y escenas del mundo real.
El patrón, según Gurman, recuerda a lo que ocurrió antes del lanzamiento del Apple Watch o del visor Vision Pro: declaraciones aparentemente aisladas que, con el tiempo, encajan en una estrategia clara. Ahora, ese hilo conductor es una familia de dispositivos wearables de IA destinados a acompañar al usuario durante todo el día, aportando una capa de comprensión del entorno que vaya más allá de lo que ofrece el móvil.
La primera prueba pública de esta filosofía ya se ha dejado ver en el iPhone 16 Pro, donde la función de inteligencia visual integrada en Apple Intelligence permite extraer información a partir de fotos y capturas. Inicialmente, esta capacidad se apoya en modelos desarrollados junto a OpenAI, pero Bloomberg adelanta que Apple está trabajando en sus propios modelos visuales para reducir dependencias externas y adaptar mejor estas funciones a su ecosistema.
Internamente, Cook insiste en que la inteligencia visual se ha convertido en una de las características más utilizadas por los usuarios que ya la tienen disponible. Con una base instalada de más de 2.500 millones de dispositivos activos, la compañía confía en tener una ventaja clave a la hora de lanzar una nueva categoría de producto en la que la IA no sea solo un asistente conversacional, sino un sistema capaz de observar, comprender y guiar al usuario en el mundo físico.
Apple desplaza el foco hacia nuevos wearables de IA
Buena parte del esfuerzo de la compañía se está desviando progresivamente desde los visores de realidad mixta, como el Apple Vision Pro, hacia dispositivos más discretos y fáciles de llevar a diario. Los sucesores de ese casco no parecen ser una prioridad inmediata, mientras que los proyectos relacionados con gafas, colgantes y auriculares con IA ganan peso dentro de la hoja de ruta.
Uno de los frentes más avanzados afecta a los AirPods. La empresa estudia incorporar funciones avanzadas para ayudar al usuario a desplazarse por espacios físicos sin depender constantemente de la pantalla del móvil. Esto implicaría aprovechar sensores, micrófonos y, en algunos prototipos, cámaras o sensores infrarrojos para entender mejor la escena y ofrecer indicaciones más naturales.
Además, la estrategia contempla nuevos dispositivos sobre los que ya se habían filtrado rumores, como las primeras gafas inteligentes de Apple orientadas a competir con propuestas como las Meta Ray-Ban. A diferencia de estas, el enfoque de Apple parece más centrado en el audio, la visión computacional y la integración profunda con el iPhone que en mostrar información en pantalla todo el tiempo.
Dentro de esta misma familia aparece también un proyecto de wearable que se lleva alrededor del cuello, una especie de colgante que utiliza cámaras y otros sensores para funcionar como un “segundo par de ojos” asistido por IA. Su función principal no sería grabar vídeo de manera tradicional, sino aportar datos al sistema de inteligencia visual para que pueda entender mejor lo que está mirando el usuario.
Entre los casos de uso descritos por Gurman destacan ejemplos muy cotidianos: obtener indicaciones de navegación basadas en edificios u objetos reales, identificar los ingredientes de un plato de comida con solo mirarlo o lanzar recordatorios contextuales, como sugerir que recojas el correo cuando detecta que has abierto la puerta de casa.
Todo este movimiento coincide con una primera oleada de lanzamientos de hardware que Apple prepara para principios de marzo, en un formato poco habitual para la compañía. En lugar de una única keynote, se contemplan anuncios repartidos en tres días con eventos presenciales en ciudades como Nueva York, Londres y Shanghái. Entre los productos esperados se barajan un MacBook de entrada rediseñado, el iPhone 17e y nuevas versiones de MacBook Air, MacBook Pro y iPad, aunque estos lanzamientos serían solo el preludio de la gran apuesta por los wearables de IA.

Gafas inteligentes sin pantalla: el eje de la inteligencia visual
Dentro de esa nueva categoría, las protagonistas parecen ser unas gafas inteligentes de Apple sin pantalla en los cristales. Aquí la compañía se alejaría por completo del formato de casco de realidad mixta que representan las Vision Pro y se acercaría a algo que, a simple vista, se parezca más a unas gafas de sol o de vista convencionales.
El objetivo es que este dispositivo se pueda llevar puesto durante todo el día sin resultar aparatoso ni llamar demasiado la atención. Las gafas permitirían hacer llamadas, escuchar música, invocar a Siri y realizar acciones guiadas por lo que el usuario está viendo, todo ello apoyándose en la potencia de procesamiento y conectividad del iPhone, que seguiría actuando como cerebro central.
Para lograr un producto atractivo también desde el punto de vista estético, Apple estaría diseñando internamente las monturas en diversos tamaños y colores. Los primeros prototipos partían de marcos comerciales modificados con cámaras añadidas, pero esa etapa habría quedado atrás. La intención ahora es ofrecer un diseño propio que pueda competir sin complejos con marcas ópticas tradicionales en mercados especialmente exigentes, como el europeo.
Las filtraciones apuntan a que las versiones actuales de prueba ya integran batería y componentes electrónicos en la propia montura, eliminando la necesidad de cables o paquetes de baterías externos. Esta integración es clave para que el dispositivo sea cómodo y práctico en el uso diario, algo especialmente relevante de cara a su posible adopción en países como España, donde el aspecto y la ligereza pueden marcar la diferencia entre un gadget puntual y algo que de verdad se usa a diario.
Lejos de buscar una experiencia de realidad aumentada plena, estas gafas se centrarían en una combinación de audio, cámaras y sensores que, apoyados en la IA, permitan comprender la escena y responder al usuario de forma contextual. La gracia no estaría en ver ventanas flotando delante de los ojos, sino en que el sistema “sepa” qué tienes delante en cada momento.
Dos cámaras, visión por ordenador y Siri como intérprete
El corazón tecnológico de estas gafas sería un sistema de doble cámara alimentado por visión por ordenador. Los prototipos descritos incluyen una lente de mayor resolución, orientada a capturar fotos y vídeos con calidad suficiente, y una segunda cámara más especializada en el análisis del entorno: medir distancias, identificar objetos, leer texto o detectar movimientos relevantes.
A partir de esa información, la nueva Siri -integrada en Apple Intelligence- podría interpretar lo que el usuario está mirando en cada instante. Esto abre la puerta a usos tan variados como pedir detalles sobre un monumento al pasear por una ciudad europea, consultar los alérgenos de un plato en un restaurante simplemente enfocándolo o pedir al asistente que lea el contenido de un cartel y lo convierta directamente en una nota o un evento del calendario.
Otra función muy comentada es la de asistente de navegación contextual. En vez de limitarse a instrucciones genéricas del tipo “gira a la derecha en 200 metros”, el sistema podría referirse a puntos de referencia reales, como “gira al llegar al edificio rojo de la esquina” o “sigue recto hasta el puente que ves delante”. En ciudades con cascos urbanos complejos, como Madrid, Barcelona, París o Roma, este enfoque podría resultar especialmente práctico.
La tecnología de inteligencia visual que Apple ya utiliza en algunos iPhone serviría de base, pero adaptada a un dispositivo que está captando constantemente lo que ocurre alrededor. Más allá del reconocimiento de alimentos o textos, la idea es crear un asistente que genere recordatorios contextuales o sugerencias cuando detecta situaciones concretas: por ejemplo, avisarte de que compres leche si ve que estás en la sección de lácteos del supermercado y lo tenías en la lista de la compra.
En este planteamiento, las gafas funcionarían como un compañero de IA vinculado al iPhone, que interpreta en tiempo real la escena y responde a preguntas de manera natural. La interacción principal sería por voz, aunque se exploran posibilidades basadas en pequeños gestos o en la orientación de la cabeza para captar mejor la intención del usuario, siempre intentando mantener una experiencia lo más discreta posible.
Apple Intelligence, nueva Siri y hoja de ruta del lanzamiento
Todo este ecosistema de wearables depende directamente de la evolución de Apple Intelligence y de la nueva Siri en la que la empresa lleva tiempo trabajando. El objetivo es que el asistente deje de ser un sistema rígido de comandos para convertirse en un interlocutor capaz de entender el contexto, manejar peticiones complejas y cruzar la información visual con las necesidades del usuario.
Distintos informes apuntan a que Apple se está apoyando en modelos de lenguaje desarrollados en colaboración con Google, basados en Gemini, para ofrecer respuestas más ricas y naturales mientras sigue entrenando sus propios modelos. La combinación de tecnología propia y alianzas puntuales permitiría acelerar el desarrollo sin renunciar a un alto control sobre la experiencia final y la privacidad.
En cuanto al calendario, las previsiones más repetidas hablan del inicio de producción a partir de diciembre con la vista puesta en un lanzamiento comercial en torno a 2027. Algunas fuentes contemplan, no obstante, la posibilidad de que se deslice hacia 2028 si surgen complicaciones de diseño, autonomía o regulación. En paralelo, se estudian variantes futuras con pantallas integradas en los cristales, aunque esa fase llegaría más adelante.
Apple se enfrenta a un equilibrio delicado: llegar a tiempo al mercado de las gafas inteligentes, donde compañías como Meta ya han ganado visibilidad con sus modelos en colaboración con Ray-Ban, pero evitando repetir errores asociados a productos demasiado caros o de uso muy limitado, como ha ocurrido con ciertos visores de realidad mixta.
En Europa, el reto va más allá de la tecnología. La Unión Europea y los reguladores nacionales vigilan de cerca el uso de cámaras siempre activas en espacios públicos, lo que obliga a Apple a dejar muy claro cuándo están grabando los dispositivos, qué datos se almacenan y cómo se procesan. La gestión de la privacidad y la transparencia serán factores determinantes para la aceptación de estas gafas y del resto de wearables con IA en países como España.
Colgante con IA y AirPods con sensores: un ecosistema alrededor del iPhone
Aunque las gafas concentran la mayor parte de la atención, los planes filtrados dibujan un ecosistema de tres dispositivos que comparten filosofía: aprovechar la IA a través de cámaras y micrófonos que proporcionan contexto, siempre en coordinación con el iPhone. Junto a las gafas llegarían un colgante con IA y unos AirPods con sensores visuales o infrarrojos.
El colgante se describe como un accesorio del tamaño aproximado de un AirTag que se puede llevar colgado del cuello o enganchado a la ropa. Integraría una cámara y un micrófono orientados a capturar el entorno y permitir que el usuario hable con Siri sin necesidad de sacar el móvil del bolsillo. Algunos empleados lo han definido como los “ojos y oídos” permanentes del iPhone.
La idea no es sustituir al teléfono, sino complementarlo con una extensión ligera centrada en la inteligencia visual. El procesamiento más exigente seguiría ocurriendo en el iPhone, mientras que el colgante aportaría la entrada de vídeo y audio. Todavía habría dudas internas sobre si incluir un altavoz en el propio dispositivo o depender exclusivamente de los auriculares para la salida de sonido, y su ventana de lanzamiento suena menos firme que la de las gafas, con fechas que oscilan entre 2026 y 2027.
En paralelo, Apple trabaja en AirPods con cámaras de baja resolución o sensores infrarrojos. El propósito no sería grabar vídeos de alta calidad, sino captar gestos, detectar la escena y ajustar automáticamente ciertas funciones: por ejemplo, adaptar el sonido espacial según el entorno, mejorar la cancelación de ruido en función de lo que ocurre alrededor o añadir otra capa de información a la IA de Siri.
En conjunto, estos tres dispositivos apuntan a un futuro en el que la inteligencia artificial se reparte entre gafas, colgante y auriculares. El usuario podría interactuar con el sistema desde distintos puntos del cuerpo -cara, pecho, oídos- y la IA dispondría de múltiples fuentes sensoriales para interpretar mejor cada situación. El iPhone seguiría en el centro, pero rodeado de accesorios que amplían su radio de acción sin necesidad de mirar la pantalla.
Si los plazos se cumplen y los proyectos superan las pruebas internas, los próximos años podrían traer una oleada de wearables con IA centrados en el contexto visual, con las gafas inteligentes como pieza clave. La acogida en España y en el resto de Europa dependerá de si Apple logra equilibrar privacidad, diseño cómodo, autonomía razonable y una utilidad real en el día a día, más allá del efecto novedad.
