Cómo la inteligencia artificial impulsa la desinformación: retos, riesgos y respuestas

Última actualización: 05/07/2025
Autor: Isaac
  • La inteligencia artificial amplifica y acelera la desinformación en redes sociales y medios digitales.
  • Deepfakes y voces sintéticas complican la detección de bulos y plantean desafíos legales.
  • Los sesgos de la IA pueden difundir o reforzar prejuicios y errores en ámbitos sensibles como la salud.
  • Nuevas iniciativas como chatbots especializados y legislación buscan frenar el impacto negativo de la desinformación alimentada por IA.

IA y desinformación

La irrupción de la inteligencia artificial ha acelerado y multiplicado la circulación de bulos y noticias falsas en todo el mundo. Plataformas digitales y redes sociales han convertido la desinformación en un fenómeno cotidiano que afecta a sectores como la ciencia, la salud y la política, alterando la confianza ciudadana y el consenso social en cuestiones fundamentales.

Expertos en comunicación, divulgadores y periodistas coinciden en que esta nueva ‘normalidad’ supone un riesgo social relevante. Las dinámicas actuales favorecen la rapidez y alcance con el que se propagan relatos tergiversados, afectando tanto a la percepción pública como a la toma de decisiones informadas.

La ‘autopista’ digital de la desinformación

La adopción de inteligencia artificial en medios digitales y redes sociales ha dado lugar a un entorno donde la desinformación puede viajar a «hipervelocidad». Según estudios recientes, alrededor de un 20% de la población española ha recibido información falsa sobre salud y ciencia, siendo las plataformas sociales el principal canal de difusión.

Los bulos relacionados con la salud abundan: desde teorías que aseguran la existencia de remedios milagrosos para el cáncer hasta propuestas insólitas como la inyección de ozono para curar enfermedades graves. Estas informaciones buscan socavar la credibilidad de los datos científicos y fomentar una desconfianza generalizada hacia los medios y las instituciones.

  España, en el epicentro de los ataques de ransomware: repunte de amenazas en 2025

La prioridad para quienes difunden estos engaños es sembrar dudas sobre la realidad y erosionar la confianza en la información verificada. Solo un 31% de los españoles expresa confianza en los medios, lo que refleja un desgaste institucional provocado por la desinformación digital.

Sesgos e impacto de la inteligencia artificial

La IA no solo acelera la difusión de bulos, sino que puede introducir sesgos y errores graves. Los modelos de lenguaje y algoritmos aprenden a partir de datos históricos, muchas veces incompletos o discriminatorios, lo que puede derivar en predicciones injustas o relatos erróneos. Por ejemplo, herramientas de diagnóstico médico basadas en IA pueden no identificar enfermedades en ciertos grupos por falta de diversidad en sus datos de entrenamiento.

Esta tendencia a reforzar prejuicios también se observa en la generación de contenidos sintéticos. Los chatbots o asistentes virtuales pueden adoptar sesgos de género, raza o ideología según cómo y quién los entrene. Un caso reciente que ilustra este peligro es el plan de reentrenar modelos de IA con información «politicamente incorrecta» seleccionada de forma subjetiva, generando controversia por el riesgo de amplificar discursos discriminatorios o falsos.

La responsabilidad de los usuarios es clave para evitar la propagación de desinformación. Confiar ciegamente en las respuestas de la IA puede generar un ‘sesgo de automatización’, asumiendo que lo que dice una máquina es siempre cierto. Contrastar la información con fuentes fiables sigue siendo fundamental para prevenir errores y trampas de desinformación.

Deepfakes y voces sintéticas: el nuevo rostro de los bulos

La inteligencia artificial generativa permite crear imágenes, vídeos y audios completamente falsos pero visualmente y sonoramente fieles a la realidad, conocidos como ‘deepfakes’. Estas tecnologías dificultan notablemente la detección de fraudes y representan un desafío tanto para la ciudadanía como para las autoridades.

  Cómo los Cobots y la Inteligencia Artificial Están Transformando la Automatización y Sectores Clave

Entre los ejemplos más frecuentes están vídeos manipulados de figuras públicas y audios sintéticos que atribuyen falsas declaraciones a políticos. Reconocer estos contenidos requiere atención a detalles como pausas antinaturales, cambios de entonación y fallos en textos visuales. Aunque ya existen herramientas para identificarlos, todavía no hay sistemas infalibles.

Es tal la preocupación que países como Dinamarca han impulsado leyes para prohibir la difusión de deepfakes, y otros estados refuerzan la regulación sobre la publicación de contenidos manipulados. El avance de estas tecnologías supera la capacidad legal para regularlas eficazmente.

Iniciativas contra la desinformación y educación digital

Ante este escenario, se han implementado diferentes proyectos y colaboraciones internacionales para verificar información con ayuda de inteligencia artificial, siempre bajo supervisión humana. Por ejemplo, existen chatbots especializados impulsados por verificadores de datos que identifican bulos en distintos idiomas y áreas geográficas de modo rápido y eficiente.

Al mismo tiempo, la educación mediática y científica surge como una prioridad. Potenciar las capacidades críticas de la ciudadanía resulta esencial para fortalecer la resiliencia ante mensajes manipuladores y engañosos.

La colaboración entre periodistas, científicos y tecnólogos es fundamental para seguir innovando en métodos de detección, verificación y prevención de los efectos nocivos de la desinformación impulsada por la inteligencia artificial.

desinformación y redes sociales-0
Artículo relacionado:
La desinformación y redes sociales: Impacto, retos y consejos para no caer en bulos

Deja un comentario