Regulación digital

La UE investiga a X por Grok y pone bajo la lupa la IA por imágenes sexualizadas sin consentimiento

Compartí esta noticia !

La Comisión Europea abrió una investigación formal contra la red social X por las funcionalidades de su inteligencia artificial, Grok, tras la difusión de imágenes sexualizadas y desnudos sin consentimiento. El foco está puesto en el cumplimiento de la Ley de Servicios Digitales y en los riesgos sistémicos que la plataforma podría estar generando dentro de la Unión Europea.

Bruselas activó un nuevo frente regulatorio contra X, la red social propiedad de Elon Musk, al anunciar este lunes la apertura de una investigación por el uso de Grok, su sistema de inteligencia artificial, para la creación y difusión de imágenes sexualizadas, incluidas representaciones de desnudos sin consentimiento. La Comisión Europea evaluará si la compañía cumple con las obligaciones previstas en las leyes digitales europeas, en particular con la Ley de Servicios Digitales (DSA, por sus siglas en inglés), que impone deberes reforzados a las grandes plataformas digitales.

Según informó el Ejecutivo comunitario en un comunicado, la investigación analizará si X examinó y mitigó adecuadamente los riesgos asociados al lanzamiento de Grok en la Unión Europea, incluyendo la posible circulación de contenido ilegal, como imágenes manipuladas sexualmente explícitas que incluso podrían encuadrarse como material de abuso sexual infantil.

El foco en la Ley de Servicios Digitales y los riesgos sistémicos

Desde Bruselas señalaron que los riesgos derivados del uso de Grok “parecen haberse materializado”. En ese marco, la Comisión investigará si X cumplió con sus obligaciones de evaluar y mitigar riesgos sistémicos, así como de producir y remitir un informe de riesgos ad hoc sobre aquellas funcionalidades de Grok que alteran de manera significativa el perfil de riesgo de la plataforma antes de su puesta en marcha en territorio europeo.

Incluso antes de anunciar formalmente la apertura de la investigación, la Comisión Europea ya había ordenado a X conservar toda la documentación interna vinculada a Grok durante 2026, en el marco de otra causa en curso que analiza las políticas de la red social frente a los contenidos ilegales. Esa decisión se tomó en plena controversia por la difusión de imágenes de niños y mujeres desnudas generadas por la inteligencia artificial en las últimas semanas.

El caso escaló a nivel institucional luego de que el Gobierno francés denunciara a X ante los tribunales, una situación que se suma a antecedentes recientes, como la publicación por parte de la IA de la plataforma de contenidos vinculados al blanqueo del Holocausto a finales del año pasado.

Una investigación prioritaria y sin plazos definidos

Fuentes comunitarias reconocieron que X adoptó algunas medidas para frenar la circulación de este tipo de imágenes tras la polémica pública y el aumento de la presión regulatoria desde Bruselas. Sin embargo, advirtieron que la investigación abierta “va más allá” de los episodios puntuales de imágenes sexualizadas y apunta a un problema más estructural, relacionado con la arquitectura de la red social y el funcionamiento de su inteligencia artificial.

La Comisión Europea considera que, de confirmarse las alegaciones, X podría estar infringiendo varios artículos de la Ley de Servicios Digitales, especialmente aquellos vinculados a la evaluación y mitigación de riesgos sistémicos para los ciudadanos europeos. Aunque el proceso no tiene un calendario ni fechas límite establecidas, desde Bruselas adelantaron que, debido a la gravedad potencial de los riesgos asociados a Grok, la causa se tramitará “de manera prioritaria”.

Antecedentes recientes y presión regulatoria creciente

El nuevo expediente se suma a una serie de acciones regulatorias previas contra X. En diciembre de 2025, la Comisión Europea multó a la plataforma con 120 millones de euros por incumplir sus obligaciones de transparencia bajo la Ley de Servicios Digitales. En ese caso, el Ejecutivo comunitario sancionó a la empresa por el “diseño engañoso” de su sistema de verificación azul, la falta de transparencia en su repositorio publicitario y las restricciones al acceso de investigadores a datos públicos.

En paralelo, Bruselas decidió prorrogar este lunes otra investigación abierta en 2023, que examina si X cumple con sus obligaciones de gestión de riesgos en sus sistemas de recomendación de contenidos. Ese análisis ahora incorporará el impacto del reciente cambio hacia un sistema basado en la inteligencia artificial de Grok, tal como anunció la propia compañía.

El avance de estas investigaciones confirma que el uso de inteligencia artificial en plataformas digitales se ha convertido en un eje central de la política regulatoria europea, con implicancias directas para el modelo de negocios de las grandes tecnológicas y para la protección de los derechos digitales dentro del bloque.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin