- Reino Unido plantea exigir a Apple y Google que bloqueen por defecto las imágenes de desnudos desde el propio sistema operativo.
- El acceso a contenido sexualmente explícito exigiría verificación de edad y quedaría vetado para delincuentes sexuales infantiles.
- La propuesta busca reducir la exposición de menores a pornografía y acoso, y se enmarca en las políticas contra la violencia hacia mujeres y niñas.
- Apple y Google ya cuentan con filtros y alertas de contenido sensible, pero el nuevo enfoque sería más amplio y profundo.

La idea de que el móvil o el ordenador bloqueen automáticamente imágenes con desnudos sin que haga falta tocar nada en las apps ya no es ciencia ficción. Varios gobiernos europeos, con Reino Unido como punta de lanza, están explorando cambios legales para que esta protección venga activada de serie en los sistemas operativos, y no solo en servicios concretos como la mensajería.
El objetivo pasa por que las fotos sexualmente explícitas estén vetadas por defecto a quienes no hayan demostrado ser adultos, reduciendo así la exposición de niños y adolescentes a la pornografía y a posibles situaciones de acoso. En este escenario, empresas como Apple y Google tendrían que ir bastante más allá de los filtros actuales que ya ofrecen en iOS, Android y otros dispositivos.
Qué propone Reino Unido para el bloqueo de imágenes de desnudos
Según la información adelantada por medios británicos de referencia, el Gobierno del Reino Unido prepara una propuesta para que los fabricantes de sistemas operativos móviles y de escritorio apliquen un bloqueo generalizado de imágenes con desnudos y contenido sexual explícito. La idea es que estas imágenes no puedan verse ni enviarse a menos que el usuario se haya validado como adulto mediante un sistema de verificación de edad.
Esta iniciativa se enmarca en la estrategia contra la violencia hacia las mujeres y las niñas, un marco más amplio que no solo se fija en el consumo de pornografía, sino también en cómo se usan las imágenes íntimas para el acoso y la extorsión. Se trata de actuar en la base del sistema, en el propio núcleo del software del teléfono y del ordenador, en lugar de ir aplicación por aplicación.
Una de las claves del planteamiento británico es que el bloqueo se activaría por defecto para todos los usuarios que no hayan demostrado ser mayores de edad. Esto implicaría que, al sacar una foto con desnudos, guardarla, enviarla o recibirla, el sistema operativo detectara el contenido y lo bloquease o lo difuminase automáticamente si el perfil está configurado como menor o no verificado.
Las fuentes consultadas por la prensa anglosajona apuntan a que la prioridad inicial está en los teléfonos móviles, donde se concentra el mayor uso de mensajería y redes sociales por parte de menores. No obstante, el plan contemplaría extender el modelo también a ordenadores y otros dispositivos, de forma que el ecosistema completo quedase cubierto.
En casos especialmente sensibles, como los de delincuentes sexuales infantiles ya identificados por la justicia, el bloqueo no se levantaría ni siquiera con verificación de edad. Es decir, el sistema mantendría un veto permanente a la creación y gestión de imágenes con desnudos para estos perfiles.
Del bloqueo por app al control desde el sistema operativo
Hasta ahora, la mayor parte de los mecanismos de control de contenido explícito han funcionado a nivel de aplicación concreta: plataformas de mensajería, redes sociales, servicios de almacenamiento o navegadores web. Cada empresa aplica sus propios filtros, políticas de moderación y sistemas de denuncia, lo que genera un panorama muy fragmentado y fácil de esquivar por parte de los menores más avezados.
Lo que se plantea ahora es un cambio de paradigma: que las protecciones se integren directamente en el sistema operativo, tanto en iOS como en Android y otros entornos, de forma transversal. Esto implicaría que cualquier app instalada en el dispositivo se viera afectada por las mismas reglas básicas de bloqueo o difuminado de imágenes con desnudos.
El enfoque de sistema permitiría, por ejemplo, que al recibir una foto con contenido sexual en cualquier aplicación, el propio sistema operativo la detectase y la mostrase borrosa o directamente la bloquease si el usuario es menor. De igual modo, se podrían establecer límites para hacer fotos, guardarlas en la galería o compartirlas cuando se trate de desnudos u otro contenido sensible.
Para que el sistema sepa a quién dejar ver ese tipo de contenido, el Gobierno británico y otras autoridades europeas están estudiando modelos de autenticación como adulto verificado. No se han concretado aún los detalles técnicos, pero la idea general es que solo tras superar con éxito una verificación de edad fiable el usuario pueda desactivar el bloqueo general de desnudos.
La medida tiene implicaciones notables en términos de privacidad, seguridad y libertad de expresión, cuestiones que previsiblemente se debatirán en profundidad tanto en Reino Unido como en el resto de Europa. Aunque el foco declarado son los menores, el hecho de actuar a nivel de sistema operativo añade una capa de sensibilidad adicional al debate.
Qué hacen ya Apple y Google para detectar contenido sensible
Aunque la propuesta británica supondría un salto importante, lo cierto es que tanto Apple como Google cuentan ya con funciones de protección frente a imágenes de desnudos, sobre todo pensadas para cuentas de menores. Son herramientas que usan inteligencia artificial para identificar contenido sexual explícito y reducir su impacto.
En el caso de Apple, la compañía ha incorporado en sus dispositivos una función conocida como seguridad en las comunicaciones, pensada para cuentas infantiles y juveniles y como parte de las opciones de control parental. Cuando el sistema detecta una foto o un vídeo con desnudos, la imagen se difumina de forma automática antes de que el menor pueda verla en claro, tanto si la recibe como si intenta enviarla.
Esta función de Apple está disponible en iPhone, iPad, macOS, Mac, Apple Watch y Vision Pro, y se integra con varias aplicaciones de la propia compañía, como iMessage, AirDrop y FaceTime. Además de difuminar el contenido, el sistema ofrece recursos para pedir ayuda a un adulto o comprender mejor por qué se ha activado el aviso, aunque en último término el menor puede decidir seguir adelante y ver la imagen.
Google, por su parte, ha desplegado en la app Mensajes de Android un sistema de alertas de contenido sensible que se centra específicamente en las imágenes de desnudos. Cuando un usuario, especialmente si es menor de 18 años, recibe, envía o reenvía una foto de este tipo, el sistema la difumina y muestra una advertencia explicando la situación.
Junto con la imagen borrosa, Google incluye opciones para buscar ayuda o bloquear el número de teléfono desde el que se ha enviado la foto, de modo que el usuario tenga herramientas para cortar la comunicación si se siente incómodo. Como en el caso de Apple, la persona puede optar por ver igualmente el contenido si lo desea, de ahí que los gobiernos busquen ahora un control más rígido a nivel de sistema operativo.
En Europa y España, estas medidas se observan con interés, ya que encajan con el impulso regulatorio comunitario en materia de protección digital de la infancia. Si el modelo británico prospera, no sería extraño ver propuestas similares debatidas en instituciones europeas o adaptadas a la normativa comunitaria vigente.
El debate que se abre en torno al bloqueo de imágenes de desnudos desde el sistema operativo combina protección de menores, lucha contra el acoso y uso responsable de la tecnología, pero también plantea dudas sobre la gestión de la privacidad y el alcance del control que pueden tener los gobiernos y las grandes tecnológicas; la discusión sobre cómo equilibrar esos intereses está todavía en fase inicial, pero el movimiento del Reino Unido apunta a que el tema va a seguir muy presente en la agenda digital europea.