Siri con Gemini: así será el nuevo asistente de Apple impulsado por la IA de Google

Última actualización: 26/01/2026
Autor: Isaac
  • Apple y Google firman una alianza multianual para que Gemini impulse la nueva Siri y Apple Intelligence.
  • Las primeras funciones de Siri con Gemini llegarán con iOS 26.4 y una demostración prevista para la segunda mitad de febrero.
  • En iOS 27, Siri se convertirá en un chatbot conversacional integrado en todo el sistema y apoyado en modelos aún más avanzados.
  • La apuesta por Gemini abre dudas sobre privacidad, dependencia de la nube de Google y el papel de Apple en la carrera de la IA.

Siri con Gemini en dispositivos Apple

La carrera por liderar la inteligencia artificial aplicada a los asistentes virtuales ha dado un giro inesperado: Apple ha decidido apoyarse en la tecnología de Google para relanzar Siri. Tras años intentando evolucionar su asistente por su cuenta, la compañía de Cupertino ha firmado un acuerdo estratégico para que los modelos Gemini se conviertan en el motor de la nueva Siri.

Este movimiento marcará el día a día de cientos de millones de usuarios de iPhone, iPad y Mac en Europa y el resto del mundo. A corto plazo, se traducirá en nuevas funciones inteligentes con la llegada de iOS 26.4; a medio plazo, en una Siri completamente reformulada que se integrará como chatbot conversacional en iOS 27, iPadOS y macOS 27. Todo ello, en un contexto en el que Apple insiste en que seguirá priorizando la privacidad, incluso mientras se apoya en la infraestructura en la nube de Google.

Una alianza histórica: Siri se apoya en Gemini

El acuerdo entre ambas compañías se ha presentado como una colaboración estratégica multianual. Apple utilizará los modelos Gemini y la tecnología de nube de Google como base de sus llamados Apple Foundation Models, la familia de modelos de IA que sostendrá Apple Intelligence y la versión renovada de Siri.

Según la información adelantada por medios como Bloomberg, The Information y Portaltic, Apple concluyó que Gemini ofrecía la base técnica más sólida para acelerar su hoja de ruta en inteligencia artificial. La compañía evaluó alternativas como OpenAI, pero terminó inclinándose por Google al considerar que su tecnología se ajustaba mejor a las necesidades de escala, rendimiento y despliegue que exige un asistente como Siri.

Alianza Apple y Google con Gemini

El resultado es un escenario de “coopetencia” en el que dos rivales históricos se convierten en socios. Apple obtiene acceso a modelos avanzados de IA para reforzar su ecosistema; Google amplía el alcance de Gemini colocándolo en el corazón de uno de los asistentes virtuales más extendidos del mercado.

La propia Google ha explicado que los próximos modelos fundacionales de Apple se basarán en Gemini y en su infraestructura de nube, lo que permitirá impulsar futuras funciones de Apple Intelligence, incluida una Siri más personalizada que irá llegando a lo largo de este año.

Primera parada: la nueva Siri llega con iOS 26.4

Las primeras consecuencias prácticas de esta alianza se notarán con iOS 26.4. Apple prepara una actualización que, según las filtraciones, entrará en fase de pruebas en febrero y se desplegará de forma generalizada entre marzo y abril, también en el mercado europeo.

En paralelo, la compañía planea presentar públicamente las primeras funciones de la nueva Siri en la segunda mitad de febrero. Se trataría de una demostración centrada en enseñar cómo se integran los modelos impulsados por Gemini en el asistente, con ejemplos de uso real y un enfoque muy puesto en las mejoras de contexto y comprensión del lenguaje.

  Morgan Stanley revoluciona la valoración de Indra: ¿por qué es el nuevo referente del sector defensa español?

Presentación de la nueva Siri con IA

Internamente, Apple ha bautizado estos modelos como Apple Foundation Models versión 10. Funcionan con alrededor de 1,2 billones de parámetros y se ejecutan desde centros de datos privados de Apple, aunque se apoyan en la tecnología de Gemini y, en algunos casos, en la infraestructura de Google. El objetivo declarado es que la experiencia se perciba como “IA de Apple”, aunque el músculo técnico venga en buena parte de Mountain View.

Con iOS 26.4 no se verá todavía la gran revolución conversacional, pero sí un primer salto en capacidades: mejor comprensión de lo que ocurre en pantalla, más contexto sobre el usuario y respuestas más precisas en tareas concretas. Será, en la práctica, el banco de pruebas de la nueva arquitectura de Siri con Gemini.

Qué va a poder hacer Siri con Gemini en el día a día

La integración de Gemini no se limita a hacer que Siri “suene” mejor. La idea de Apple es convertir el asistente en un agente capaz de entender la intención del usuario y coordinar acciones complejas entre varias apps, en lugar de limitarse a ejecutar comandos aislados.

Entre las capacidades que se esperan con las primeras oleadas de funciones destacan varias áreas clave que impactarán en el uso cotidiano del iPhone y otros dispositivos:

  • Más contexto personal: Siri tendrá una visión más amplia de lo que ocurre en el dispositivo (calendario, recordatorios, mensajes, correo) para adaptar mejor sus respuestas.
  • Comprensión de la pantalla: el asistente podrá “leer” lo que hay en pantalla para ofrecer ayuda relevante, ya sea en Safari, Mensajes, Salud, Música o TV.
  • Acciones dentro de las apps: se podrán pedir tareas menos rígidas, como “recuérdame este correo cuando llegue al trabajo” o “guarda esta web para leerla el fin de semana”, sin necesidad de comandos exactos.
  • Automatizaciones encadenadas: Siri será capaz de enlazar pasos entre aplicaciones, por ejemplo, detectar un archivo recibido, guardarlo en una carpeta concreta y crear un recordatorio asociado.

La portavoz de Apple Jacqueline Roy ya adelantó que el objetivo es que Siri ayude a los usuarios a encontrar lo que necesitan y hacer cosas rápidamente, con una conversación más natural, menor rigidez en los comandos y una interpretación de voz mejorada.

Uso diario de Siri con Gemini

Todo esto se integrará dentro de Apple Intelligence, el paraguas bajo el que Apple está reagrupando sus funciones de IA. La compañía insiste en que buena parte del procesamiento se hará en el dispositivo y, cuando haga falta recurrir a la nube, se hará mediante su sistema Private Cloud Compute, diseñado para minimizar el acceso a datos personales.

El gran salto de 2027: Siri como chatbot conversacional en iOS 27

Lo que llegará con iOS 26.4 es solo el aperitivo. La gran transformación está prevista para iOS 27, iPadOS 27 y macOS 27, versiones que Apple desvelará en detalle en la conferencia de desarrolladores WWDC y que incorporarán una Siri mucho más ambiciosa.

  La nueva actualización del Explorador de Windows 11 reduce consumo de RAM y ordena su menú contextual

Con nombre en clave Campos, esta versión convertirá a Siri en un auténtico chatbot integrado en el sistema, similar a Veritas. En lugar de un asistente limitado a órdenes de voz, el usuario tendrá acceso a una interfaz conversacional similar a la de otros chatbots de IA generativa, pero conectada a las apps y servicios de Apple.

Entre las capacidades previstas para esta etapa se encuentran funciones propias de los modelos de lenguaje más avanzados:

  • Búsqueda y análisis de información: consultará la web, cruzará fuentes y será capaz de resumir largos documentos o páginas web abiertas en Safari.
  • Generación de contenidos: redactará textos, preparará borradores de correos, ayudará con trabajos académicos o propuestas profesionales y generará imágenes en determinados contextos.
  • Apoyo a la programación: ofrecerá asistencia para escribir o revisar código, algo especialmente relevante para desarrolladores que trabajen en macOS.
  • Interacción profunda con las apps: ajustará parámetros del sistema, gestionará archivos y automatizará flujos complejos sin que el usuario tenga que ir app por app.

Para soportar este salto, Apple recurrirá a modelos más potentes, identificados internamente como Apple Foundation Models versión 11. Gurman apunta a que estos modelos se sitúan en un nivel competitivo con Gemini 3 y que, debido a su complejidad, Apple se plantea ejecutar parte de la nueva Siri completamente en infraestructura de Google con hardware especializado (unidades Tensor).

Siri conversacional con Gemini

La hoja de ruta que se maneja en estos momentos dibuja un escenario en el que, hacia otoño, Siri ya funcionará como un chatbot disponible en iPhone, iPad y Mac, con capacidad para competir de forma más directa con propuestas como ChatGPT u otros asistentes generativos basados en la web.

Privacidad, servidores y el papel de Google en la sombra

Una de las cuestiones más delicadas de esta alianza es el papel que jugará Google en la infraestructura que da servicio a Siri. Para que los modelos más avanzados de Gemini puedan funcionar con fluidez, Apple tendrá que recurrir a servidores de alto rendimiento, muchos de los cuales forman parte de la propia nube de Google.

Eso significa que una parte de las consultas de los usuarios, sobre todo las que requieran modelos de mayor tamaño, se procesará en los centros de datos de Google antes de devolver la respuesta al dispositivo. Este punto choca con el discurso que Apple había sostenido en los últimos años, especialmente tras WWDC 2024, donde insistió en que la IA del nuevo Siri se ejecutaría, siempre que fuera posible, en el iPhone para garantizar la máxima privacidad.

Para mitigar dudas, Apple repite que Private Cloud Compute será la pieza clave: un sistema que, en teoría, restringe el acceso a los datos y evita que la información personal quede almacenada de forma identificable, incluso cuando el procesamiento se traslada a la nube. Pese a ello, parte de la comunidad tecnológica observa con cautela la dependencia de infraestructuras ajenas en un terreno tan sensible.

Desde la perspectiva de Google, el acuerdo es una victoria estratégica. No solo posiciona a Gemini como el motor de IA detrás de Siri, sino que además le da acceso, aunque sea de forma indirecta y limitada, a un volumen enorme de tráfico y patrones de uso procedentes de la base de usuarios de Apple, tradicionalmente vista como un segmento “premium”.

  Avances y retos en la integración de la inteligencia artificial en la educación hondureña

Este escenario plantea también interrogantes regulatorios, especialmente en Europa, donde la Comisión Europea y las autoridades de competencia ya vigilan de cerca las prácticas de ambas compañías. El precedente del acuerdo para mantener Google como buscador predeterminado en iOS, cuestionado judicialmente en Estados Unidos y observado con lupa en la UE, hace pensar que la colaboración en IA podría analizarse con similar escrutinio.

Cambios internos en Apple y el reto de no quedarse atrás

El giro hacia Gemini no se entiende sin mirar a lo que ha pasado dentro de Apple en los últimos años. La compañía venía de varios tropiezos con Apple Intelligence y con la evolución de Siri: funciones anunciadas y retrasadas, promesas incumplidas y la sensación de que la competencia se movía más rápido en modelos generativos.

Este contexto ha derivado en reorganizaciones de calado en el equipo de inteligencia artificial y de Siri. Se han producido cambios en la cúpula responsable del área, con nuevos responsables que, según diversas fuentes, han optado por un enfoque más pragmático: si la tecnología propia no llega a tiempo, mejor apoyarse en un socio externo que seguir acumulando retrasos.

De hecho, se sabe que Apple exploró en su momento acuerdos con OpenAI para complementar Siri, pero fue finalmente Google quien se llevó el contrato. Las cifras económicas nunca se han confirmado oficialmente, aunque diversos medios han apuntado a cifras cercanas a los mil millones de dólares anuales por el licenciamiento de Gemini y el uso de su infraestructura.

En paralelo, Apple ha revisado otros proyectos de IA. Un ejemplo es el plan para lanzar un Safari reforzado con funciones avanzadas de análisis de fiabilidad de documentos y verificación automática de información. Ese proyecto se ha puesto en pausa al asumirse que los modelos propios no llegaban al nivel esperado. En su lugar, la estrategia pasa ahora por que sea la nueva Siri, apoyada en Gemini, la que sirva como punto central de inteligencia también dentro del navegador.

Este cambio de rumbo ilustra hasta qué punto Apple ha pasado de apostar por una IA casi exclusivamente propia a abrazar un modelo más híbrido, donde Gemini actúa como base sobre la que se construyen experiencias “marca Apple”. El desafío será demostrar que esa capa de personalización y diseño aporta un valor diferencial claro frente a usar directamente otros servicios de IA.

El panorama que se dibuja, por tanto, es el de un Siri que deja atrás su papel de asistente limitado para convertirse en el eje de la estrategia de inteligencia artificial de Apple, con Gemini como aliado principal. Si las promesas se cumplen, los usuarios en España y Europa verán en los próximos meses un cambio notable en cómo interactúan con sus dispositivos, con un asistente más capaz, más conversacional y mejor integrado en las apps del ecosistema, pero también con nuevas preguntas sobre privacidad, dependencia de terceros y el reparto de poder en la industria de la IA.

integración de Gemini en Siri
Artículo relacionado:
Integración de Gemini en Siri: así será la nueva era de Apple Intelligence