Fotónica e inteligencia artificial: el círculo virtuoso de la luz

Última actualización: 27/11/2025
Autor: Isaac
  • La fotónica aporta sensores avanzados, computación óptica y chips neuromórficos que aceleran y hacen más eficiente la inteligencia artificial.
  • La IA impulsa el modelado, el diseño inverso y la optimización de dispositivos fotónicos, desde metasuperficies a redes neuronales ópticas integradas.
  • Proyectos como BE-LIGHT y PHOTOART demuestran el potencial conjunto de luz e IA en biomedicina, industria y hardware especializado para la era del Big Data.

fotónica e inteligencia artificial

La fotónica y la inteligencia artificial se han convertido en una pareja tecnológica de lo más prometedora. En los últimos años han pasado de ser disciplinas avanzadas pero “de nicho” a situarse en el centro de la innovación en salud, industria, defensa, ciencia de datos o entretenimiento, creando lo que muchos investigadores ya llaman un auténtico círculo virtuoso entre IA y luz.

Por un lado, la fotónica proporciona sensores, comunicaciones y computación ultrarrápida basados en luz; por otro, la IA ofrece algoritmos de aprendizaje automático y profundo capaces de exprimir al máximo esos dispositivos y diseñar nuevos componentes ópticos imposibles de concebir solo con intuición humana. Cuando ambas se combinan, el resultado son diagnósticos médicos precoces, chips fotónicos que ejecutan redes neuronales a velocidad de nanosegundos y cámaras que comprimen imágenes a velocidad de la luz con ayuda de modelos generativos.

Qué es la fotónica y cómo se relaciona con la IA

La fotónica es la rama de la ciencia y la ingeniería que se encarga de la generación, guiado, control y detección de la luz, desde el infrarrojo hasta el ultravioleta, utilizando dispositivos como láseres, fibras ópticas, moduladores o sensores avanzados. Es la base tecnológica de las telecomunicaciones ópticas, la imagen médica, los sistemas LIDAR o la realidad aumentada.

La inteligencia artificial, en cambio, se centra en desarrollar algoritmos capaces de aprender a partir de datos y tomar decisiones o realizar tareas complejas: reconocimiento de imágenes, traducción automática, conducción autónoma, optimización industrial o generación de contenido, entre otras muchas aplicaciones.

Durante décadas ambos campos han avanzado en paralelo, pero ahora se está consolidando un escenario donde la fotónica impulsa a la IA y la IA impulsa a la fotónica. La luz permite que los algoritmos se ejecuten de forma mucho más rápida y eficiente que con electrónica pura, mientras que la IA ayuda a diseñar y controlar dispositivos ópticos cada vez más complejos, desde metasuperficies nanométricas a redes neuronales implementadas en chips de silicio.

Este bucle de beneficios mutuos es lo que se conoce como círculo virtuoso de la fotónica y la IA: cada avance en uno de los campos facilita nuevos progresos en el otro, generando una espiral tecnológica que afecta a sectores como la biomedicina, la metrología, la robótica, la seguridad o las comunicaciones cuánticas.

fotónica e inteligencia artificial aplicada

Cómo la fotónica potencia a la inteligencia artificial

La contribución de la fotónica al desarrollo de la IA suele agruparse en tres grandes frentes: adquisición de datos, procesamiento y ejecución de algoritmos. En cada uno de ellos, usar luz en lugar de (o junto a) la electrónica clásica aporta ventajas claras de velocidad, sensibilidad y consumo energético.

Captura de datos: sensores e imagen de alta precisión

Los sistemas de IA actuales dependen de cantidades ingentes de información. Aquí, la fotónica aporta sensores ópticos e instrumentos de imagen con altísima resolución espacial y temporal, que permiten entrenar modelos con datos mucho más ricos que los procedentes de sensores convencionales.

En el ámbito médico, por ejemplo, técnicas como la tomografía de coherencia óptica (OCT), la imagen multiespectral, la optoacústica o la imagen térmica hacen posible observar tejidos y estructuras biológicas que antes eran inaccesibles o extremadamente difíciles de analizar. Cuando esas imágenes se combinan con algoritmos de IA, se obtienen herramientas capaces de detectar patologías en fases muy iniciales.

Un caso paradigmático es el del proyecto europeo BE-LIGHT, coordinado por la Universitat Politècnica de Catalunya (UPC) y respaldado con 2,5 millones de euros del programa Horizon Europe (acciones Marie Skłodowska-Curie). Su objetivo es crear nuevas herramientas basadas en fotónica e IA para el diagnóstico temprano y el tratamiento de enfermedades oculares, cardiovasculares y neurodegenerativas.

Dentro de este consorcio participan siete instituciones académicas, tres hospitales y siete empresas de países como Alemania, Francia, Polonia, Suiza y España. Gracias a esta colaboración, se están desarrollando sistemas de imagen avanzados combinados con redes neuronales profundas para analizar con gran detalle la córnea, el vítreo, la retina y otras estructuras del ojo, detectando de forma precoz enfermedades visuales y trastornos de los movimientos oculares.

Procesamiento: computación óptica e híbrida para IA

El segundo gran bloque donde la fotónica marca la diferencia es el del procesamiento de datos y la ejecución de redes neuronales. Los chips electrónicos tradicionales, basados en la arquitectura de von Neumann, se topan con el conocido “cuello de botella de la memoria”: mover datos entre memoria y procesador se vuelve lento y costoso en energía a medida que los modelos crecen.

La computación fotónica integrada busca superar este límite aprovechando que la luz puede realizar, de manera natural, operaciones matemáticas como la multiplicación de matrices y la convolución. Al implementar estas operaciones en guías de onda ópticas, divisores de haz y moduladores, se pueden construir redes neuronales que procesan información a velocidades imposibles para la electrónica pura.

  ChatGPT abre su chat a aplicaciones de terceros: funciones, disponibilidad y privacidad

Un avance muy relevante en esta línea viene de un equipo liderado por investigadores del MIT, que tras una década de trabajo ha desarrollado un chip fotónico capaz de realizar todos los cálculos esenciales de una red neuronal profunda usando únicamente luz dentro del propio chip. El resultado: latencias de menos de medio nanosegundo para tareas de clasificación y precisiones superiores al 92 % e incluso al 96 % durante el entrenamiento, comparables a las de hardware digital tradicional.

El dispositivo está compuesto por módulos interconectados que forman una red neuronal óptica coherente. Primero se codifican en luz los parámetros del modelo, y después se usan divisores de haz programables para realizar la multiplicación de matrices. Las funciones no lineales, imprescindibles en cualquier red neuronal, se implementan mediante unidades ópticas no lineales que desvían una pequeña porción de la señal hacia fotodiodos, donde se transforma en corriente eléctrica y se aplica la no linealidad con un consumo mínimo.

La clave es que todo el procesamiento se mantiene en el dominio óptico hasta prácticamente el final, reduciendo al máximo las conversiones óptico-electrónicas que suelen penalizar el rendimiento. Además, el chip se fabrica con los mismos procesos de fundición que se usan para la tecnología CMOS convencional, lo que abre la puerta a una producción masiva y a su integración con cámaras, sistemas de telecomunicaciones o sensores LIDAR.

En paralelo, proyectos como PHOTOART, financiado por la Agencia Estatal de Investigación, exploran el desarrollo de hardware neuromórfico fotónico sobre silicio específicamente orientado a IA. El objetivo es crear dispositivos activos que actúen como bloques básicos de redes neuronales integradas: matrices de pesos, moduladores de amplitud y fase, y funciones de activación no lineales.

Para ello se emplean materiales avanzados como los materiales de cambio de fase (PCM), capaces de mantener estados de memoria a largo plazo con consumo casi nulo, y los óxidos transparentes conductores (TCO), que permiten modulación ultrarrápida y efectos no lineales eficientes. Estas estructuras híbridas sobre base de silicio facilitan arquitecturas coherentes que pueden manejar números complejos, aprovechar la multiplexación por longitud de onda (WDM) y construir redes neuronales ópticas de alta densidad y eficiencia energética.

Implementación directa de algoritmos en luz

Más allá del mero “acelerador” de IA, la fotónica también permite implementar directamente funciones típicas de la inteligencia artificial, como el reconocimiento de patrones, la clasificación o la inferencia, mediante redes neuronales ópticas.

Estas redes se diseñan de forma análoga a las redes neuronales artificiales clásicas, pero en lugar de operar con corriente eléctrica en transistores lo hacen con luz que se propaga por guías de onda, interferómetros y elementos de fase. Los pesos sinápticos se codifican en moduladores y divisores de haz, mientras que las salidas se leen en fotodetectores, lo que posibilita procesar enormes flujos de datos ópticos en tiempo real con un coste energético mínimo.

Este enfoque resulta especialmente atractivo en aplicaciones donde la señal ya es óptica de origen, como telecomunicaciones de alta velocidad, sistemas de navegación, sensores LIDAR o instrumentación científica. Si el procesamiento se realiza directamente en el dominio de la luz, se elimina gran parte de la latencia y del consumo asociados a las conversiones y al procesamiento electrónico.

Cómo la inteligencia artificial acelera la investigación en fotónica

La otra cara del círculo virtuoso es el papel de la IA en el diseño, simulación y optimización de sistemas fotónicos. Muchas estructuras ópticas avanzadas, especialmente a escala nano, tienen espacios de diseño enormes y comportamientos muy complejos que resultan difíciles de abordar con métodos analíticos tradicionales.

Modelado y simulación con aprendizaje automático

La IA ofrece técnicas de aprendizaje automático, aprendizaje profundo y modelos generativos que pueden capturar el comportamiento de dispositivos fotónicos a partir de datos de simulación y, cada vez más, de datos experimentales. Estos modelos permiten predecir respuestas ópticas con gran precisión y menor coste computacional que las ecuaciones diferenciales y los métodos numéricos de toda la vida.

En lugar de resolver desde cero complejos problemas electromagnéticos cada vez que se cambia un parámetro, se entrena una red neuronal que aprende el mapa entre geometría y propiedades ópticas. Después, basta con evaluarla para obtener rápidamente la respuesta esperada, acelerando el ciclo de diseño y facilitando la exploración de configuraciones muy diversas.

Este enfoque es especialmente útil en la nanofotónica, donde pequeñas variaciones en dimensiones y materiales pueden cambiar radicalmente la respuesta de una estructura. Gracias a la IA, los investigadores cuentan con herramientas de simulación más rápidas, precisas y flexibles, capaces de lidiar con múltiples escalas y fenómenos no lineales o dispersivos.

Diseño inverso y optimización de estructuras nanofotónicas

Una de las aplicaciones más potentes es el llamado diseño inverso: en lugar de partir de una estructura y estudiar qué hace, se parte de las propiedades ópticas deseadas (por ejemplo, ciertas bandas de resonancia, transmisión o reflexión) y se busca automáticamente la geometría que las produzca.

Aquí entran en juego técnicas como la optimización evolutiva, los algoritmos genéticos y las metaheurísticas, a menudo combinadas con redes neuronales profundas. Un ejemplo emblemático es el trabajo de Yuebing Zheng, profesor en la Universidad de Texas en Austin, que ha aplicado IA al diseño inverso de metasuperficies nanofotónicas multicapa.

  Renderización con inteligencia artificial en arquitectura: usos reales y ventajas

Su equipo utiliza una técnica de fabricación llamada litografía de nanoesferas Muaré (MNSL), que consiste en apilar capas alternas de nanoesferas de sílice y oro formando patrones periódicos con diferentes orientaciones y escalas. Estas metasuperficies pueden exhibir múltiples bandas de resonancia óptica, útiles para dispositivos multifuncionales.

Mediante un algoritmo de optimización genética desarrollado por ellos, ajustan de forma automática la disposición de las nanoesferas para lograr propiedades ópticas muy concretas, como una transmisión específica, una reflexión determinada o un comportamiento de dispersión deseado. El resultado son dispositivos fotónicos sintonizables con gran flexibilidad y precisión, cuya complejidad sería difícil de alcanzar sin ayuda de la IA.

En este contexto, la IA no solo ayuda a encontrar diseños más eficientes, sino que a menudo descubre soluciones contraintuitivas que no habrían surgido de la experiencia o la intuición del diseñador humano. Esa capacidad de explorar espacios de diseño enormes es clave para la próxima generación de componentes fotónicos.

Fotónica e inteligencia artificial en biomedicina: el proyecto BE-LIGHT

La biomedicina es uno de los campos donde la combinación de fotónica e IA más impacto puede tener a corto y medio plazo. El proyecto BE-LIGHT es un buen escaparate de esta tendencia, ya que reúne universidades, centros de investigación, hospitales y empresas de varios países europeos en torno a la idea de usar luz e inteligencia artificial para mejorar el diagnóstico y el tratamiento de enfermedades complejas.

Uno de los focos principales del consorcio es el estudio de la retina y las enfermedades oculares. Mediante técnicas como la imagen multiespectral, la OCT y la optogenética, se pretende comprender mejor el funcionamiento de las neuronas retinianas y su intercambio de información. Las redes neuronales profundas se encargan de analizar los datos y generar modelos cuantitativos que permitan detectar alteraciones patológicas en fases muy tempranas.

Otro objetivo es desarrollar instrumental clínico capaz de obtener imágenes de vasos sanguíneos y estructuras oculares con gran detalle, utilizando tomografía óptica, optoacústica e imagen térmica. Estos dispositivos, combinados con algoritmos de IA, deberían facilitar la detección precoz de placas de arterioesclerosis de forma no invasiva, así como de otras patologías cardiovasculares asociadas.

La evaluación mediante IA de los patrones de movimientos oculares, fuertemente controlados por distintas regiones del cerebro, abre también la puerta a nuevas herramientas diagnósticas para enfermedades neurológicas como el Alzheimer o la COVID persistente. Analizando cómo se mueven los ojos en tareas concretas, los algoritmos pueden descubrir alteraciones sutiles que el ojo humano pasaría por alto.

En el ámbito de las enfermedades raras, la Unidad de Microscopía Confocal e Imagen Celular del Institut de Recerca Sant Joan de Déu participa en BE-LIGHT bajo la coordinación de la Dra. Mònica Roldán. Su trabajo se centra en estudiar células de pacientes con patologías minoritarias, donde el número de casos y los datos disponibles son muy limitados.

Para solventar esa escasez de datos, el equipo combina microscopía de superresolución de fluorescencia e inteligencia artificial con técnicas de aumento de datos en aprendizaje automático. El objetivo es identificar elementos clave en las estructuras biológicas para construir pipelines de análisis robustos que puedan generalizarse a distintas enfermedades poco frecuentes.

La investigadora Cristina Masoller, de la UPC, subraya además que las técnicas de microscopía de superresolución combinadas con IA permitirán obtener imágenes de proteínas y estructuras inferiores al nanómetro, incluyendo proteínas relacionadas con la enfermedad de Parkinson y otras patologías raras. Esto abre posibilidades de diagnóstico mucho más precisas a nivel molecular.

El proyecto también trabaja en nuevas herramientas de aprendizaje automático para tratar arritmias cardíacas con luz, como alternativa a las técnicas actuales basadas en impulsos eléctricos. Mediante fotónica y algoritmos avanzados, se aspira a controlar y modular la actividad cardíaca de manera más selectiva y menos invasiva.

Por último, BE-LIGHT incorpora una dimensión formativa importante: se ofrecerán plazas para 11 investigadores en formación doctoral, que recibirán entrenamiento específico en fotónica, IA, aprendizaje automático, imagen computacional y modelado. De este modo, el proyecto contribuye también a crear una nueva generación de especialistas en la intersección entre ambos campos.

Fotónica e IA para comprimir y reconstruir imágenes a alta velocidad

Más allá del diagnóstico clínico, la combinación de fotónica e IA también está revolucionando la captura, compresión y procesado de imágenes en general. Una línea de trabajo especialmente llamativa es la de los llamados codificadores fotónicos analógicos integrados para procesamiento de imagen de baja potencia y alta velocidad.

El problema de fondo es conocido: las cámaras actuales generan fotografías y vídeos con una resolución y un nivel de detalle enormes, pero procesar y comprimir todo ese caudal de datos tiene un coste energético y computacional muy alto. Cada imagen puede requerir entre 100 y 1000 operaciones por píxel para eliminar ruido, corregir aberraciones y aplicar compresión (por ejemplo con formatos como JPEG).

Para superar estos límites, un artículo publicado en Nature Communications propone el uso de un codificador fotónico analógico integrado en circuitos de silicio, combinado con modelos de IA generativa, para realizar la compresión de imágenes de manera mucho más eficiente. La idea es delegar en la óptica buena parte del trabajo pesado de codificación, y dejar que la IA reconstruya después el contenido.

  Leyes de la física y materia oscura: nuevos desafíos y hallazgos recientes

El esquema del sistema es híbrido: se parte de una cámara de alta calidad que captura la imagen original, y se pasa esa información a un conjunto de fuentes láser coherentes que convierten cada píxel o bloque de píxeles en una señal de luz. Esa luz se inyecta en múltiples guías de onda monomodo, cada una asociada a un píxel o grupo de píxeles, donde moduladores específicos codifican la intensidad correspondiente.

A continuación, todas esas señales se combinan en una guía de onda multimodo. En esta etapa aparece el elemento más ingenioso: una región de dispersión aleatoria formada por agujeros de aire en el silicio que actúa como una matriz de dispersión física. Esta zona implementa de forma pasiva las primeras capas de una red de codificación, que en la práctica no resultan críticas para la calidad final de la compresión, pero sí para reducir la dimensionalidad de los datos.

La compresión se produce de manera natural al diseñar el sistema para que haya menos canales de salida que de entrada. Los detectores de luz recogen la señal comprimida y la convierten en datos electrónicos, de tamaño mucho menor que la imagen original. Esa representación comprimida hace las veces de “espacio latente”, similar al utilizado por los modelos generativos de difusión.

En la última etapa entra en juego una red neuronal generativa, entrenada para reconstruir imágenes de alta calidad a partir de las versiones comprimidas producidas por el codificador fotónico. El proceso se asemeja al de los modelos de difusión utilizados para eliminar ruido y generar imágenes realistas: a partir de una entrada degradada, el modelo va refinando progresivamente el contenido hasta obtener una imagen nítida.

Los resultados publicados indican que las imágenes reconstruidas conservan más del 90 % de similitud estructural con la original, con el potencial de procesar flujos de datos a velocidades de terapíxeles por segundo. Además de la enorme velocidad, la ventaja clave es la eficiencia energética: al delegar la compresión en la óptica, la cantidad de operaciones electrónicas necesarias se reduce drásticamente.

Este enfoque recuerda a otros proyectos donde la luz se utiliza para acelerar operaciones matemáticas básicas, como la multiplicación de matrices, y luego se combinan esos resultados con IA para tareas complejas. La idea común es aprovechar la velocidad y el paralelismo natural de la luz en la fase física y reservar la electrónica para las etapas donde la flexibilidad de los algoritmos digitales resulta imprescindible.

Aplicaciones industriales y nuevas oportunidades tecnológicas

El impacto de la fotónica y la IA no se limita al ámbito académico. Sectores como la producción industrial, la inspección de calidad, la agricultura de precisión o la tecnología medioambiental están adoptando cada vez más soluciones basadas en sensores ópticos inteligentes y algoritmos de aprendizaje automático.

Ferias especializadas como Laser World of Photonics han empezado a dedicar jornadas completas a la interacción entre IA y fotónica, reuniendo a empresas, centros de investigación y usuarios finales para mostrar cómo la combinación de ambas tecnologías abre nuevas posibilidades en automatización, monitorización en tiempo real y soluciones de ahorro energético.

En la industria, por ejemplo, los sistemas de visión artificial basados en cámaras hiperespectrales y algoritmos de deep learning permiten detectar defectos en líneas de producción con una precisión y velocidad inalcanzables con métodos tradicionales. En agricultura, los drones equipados con sensores fotónicos avanzados y modelos de IA ayudan a monitorizar cultivos, optimizar el uso de agua y fertilizantes y anticipar plagas o enfermedades.

En paralelo, el desarrollo de hardware neuromórfico fotónico como el que persigue PHOTOART promete chips específicos para IA mucho más eficientes para tareas de clasificación, reconocimiento y control, lo que puede transformar la forma en que se diseñan equipos industriales, robots, sistemas de vigilancia o dispositivos de Internet de las Cosas (IoT) que procesan datos en el borde de la red.

Los desafíos no son menores: hace falta generar grandes cantidades de datos fotónicos experimentales de alta calidad para entrenar modelos robustos, así como diseñar algoritmos de IA capaces de generalizar entre diferentes dispositivos, condiciones de iluminación y entornos de trabajo. También es clave asegurar la interoperabilidad entre hardware óptico y plataformas de software estándar.

Aun así, la tendencia es clara: la sinergia entre luz e inteligencia artificial se está convirtiendo en uno de los motores tecnológicos de la nueva era del Big Data, con aplicaciones que abarcan desde la comunicación cuántica a la realidad aumentada, pasando por la robótica colaborativa, la seguridad o la metrología de alta precisión.

Mirando todo este panorama, se aprecia cómo la fotónica proporciona la “autopista física” de altísima velocidad y eficiencia, mientras que la inteligencia artificial ofrece la “capa cognitiva” que interpreta, decide y diseña nuevos dispositivos; juntos conforman un ecosistema tecnológico en evolución constante que, si se sigue alimentando con datos reales, nuevos materiales y algoritmos más potentes, promete cambiar de arriba abajo la forma en que vemos, medimos, diagnosticamos y procesamos el mundo que nos rodea.