Skip to content
DiarioDigitalRD

Grok desata tormenta por imágenes de abuso sexual

| | 3 min read
Grok desata tormenta por imágenes de abuso sexual. Millones de contenidos sexualizados exponen fallas legales y regulatorias

Millones de contenidos sexualizados exponen fallas legales y regulatorias

La inteligencia artificial vuelve a situarse en el centro de la polémica tras revelarse que una funcionalidad de Grok, integrada en la red social X, permitió generar tres millones de imágenes sexualizadas en apenas 11 días. Entre ellas, más de 23.000 correspondían a menores de edad, creadas a un ritmo de una cada 41 segundos.

La herramienta, activada con simples comandos como “ponla en bikini” o “quítale la ropa”, facilitó la producción masiva de desnudos sintéticos con un solo clic. La plataforma tardó ocho días en imponer los primeros límites y once en bloquear funciones críticas, tiempo suficiente para que el contenido se viralizara.

Imágenes sintéticas, delitos tipificados

Expertos en derecho penal advierten que, en el caso de menores, la legislación es contundente. Desde 2015, el Código Penal español castiga la pornografía infantil, incluso cuando las imágenes son virtuales o generadas por IA. La creación, posesión y difusión de este material constituye un delito público perseguible sin necesidad de denuncia de la víctima.

El problema, sin embargo, radica en la dificultad forense de distinguir imágenes reales de las sintéticas. Organismos como UNICEF han alertado de que la tecnología ha alcanzado tal grado de realismo que resulta casi imposible determinar si el menor representado existe realmente. Esta ambigüedad puede favorecer la impunidad si la normativa no equipara claramente ambos supuestos.

Cuando la víctima es adulta, el vacío legal es más evidente. No existe un tipo penal específico que sancione la creación de desnudos falsos a partir de imágenes públicas. Las figuras de injurias o delitos contra la intimidad resultan limitadas y, en muchos casos, insuficientes. Juristas plantean la aplicación del delito de trato degradante, que contempla penas de hasta dos años de prisión si se acredita daño moral.

Industrialización digital del abuso

El caso de Grok no es aislado. La Internet Watch Foundation reportó en 2025 un aumento exponencial en la detección de material de abuso generado por IA, con un 65% clasificado en la categoría más extrema. La automatización ha convertido el abuso en un fenómeno de escala industrial.

Más allá de la naturaleza “falsa” de las imágenes, el impacto en las víctimas es real. Ansiedad, vergüenza, angustia y estigmatización social forman parte de las consecuencias psicológicas. A ello se suma la victimización terciaria: el juicio social que culpa a la persona afectada por haber publicado previamente fotografías en redes.

Ante la magnitud del escándalo, la Unión Europea abrió un expediente contra X en virtud de la Ley de Servicios Digitales (DSA). La investigación podría derivar en multas de hasta el 6% de la facturación global de la compañía por no mitigar adecuadamente los riesgos de su herramienta.

El debate trasciende la tecnología. Se trata de responsabilidad corporativa, actualización normativa y educación digital. Porque, aunque la imagen sea generada por algoritmos, el daño humano no es artificial.

Pablo Romero, profesor de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) e investigador del grupo VICRIM aportó su experticia en este artículo

Share:
DiarioDigitalRD

DiarioDigitalRD

DiarioDigitalRD es un medio de noticias generales que se origina en Santo Domingo, República Dominicana. Para contacto 809-616-6354 Cel. 809-980-6500 y 809-6081130. editor@diariodigitalrd.com.

Artículos relacionados