×

Demanda colectiva a xAI por nudes no consentidos creados con Grok

Tres jóvenes de Tennessee han presentado una demanda colectiva contra xAI, alegando que funciones de Grok permitieron generar y distribuir imágenes sexuales de ellas cuando eran menores

En una nueva demanda colectiva presentada en una corte federal de California, tres jóvenes de Tennessee acusan a xAI y a su chatbot Grok de haber contribuido a la creación y difusión de imágenes y videos sexuales de ellas cuando eran menores.

Según la querella, esas representaciones fueron producidas por un usuario que empleó una aplicación respaldada por el algoritmo de xAI para transformar fotografías reales —como fotos de año escolar y retratos compartidos— en material explícito y no consentido. Las demandantes aparecen como Jane Does 1, 2 y 3 para proteger su identidad.

Las jóvenes relatan que descubrieron el contenido a través de mensajes anónimos y servidores privados donde los archivos se intercambiaban entre usuarios. La demanda afirma que los resultados generados eran tan detallados que parecían reales y que no estaban etiquetados como creación de inteligencia artificial. Las imágenes y videos implican a al menos 18 menores adicionales, y el individuo responsable fue detenido, según el expediente.

Cómo se alega que se generaron y distribuyeron las imágenes

La presentación legal describe un patrón en el que un conocido de una de las víctimas recopiló fotografías públicas y privadas —incluyendo material enviado directamente por la propia víctima— y las procesó con una aplicación que utilizaba la tecnología de xAI. El resultado habría sido la creación de archivos pornográficos que luego se compartieron en plataformas como Discord y Telegram, donde se intercambiaban por otras imágenes. Este método de producción y comercio de contenido sexual infantil es central en la demanda, que sostiene que las creaciones, al no estar marcadas como AI, pasaron por reales ante los consumidores.

Las acusaciones contra xAI y la respuesta del sector

Los demandantes sostienen que xAI conocía los riesgos asociados a las funciones añadidas a Grok, especialmente tras el lanzamiento de lo que la empresa promocionó como modos más atrevidos para generar imágenes. La querella argumenta que esas capacidades se diseñaron para impulsar el uso de la herramienta y la actividad en la red social que aloja el chatbot. Además, se acusa a la compañía de licenciar su tecnología a desarrolladores de aplicaciones fuera de Estados Unidos, lo que, según la demanda, habría servido para diluir responsabilidades legales.

Licencias, marcas de agua y responsabilidad

Una diferencia técnica relevante es que otras grandes compañías de IA implementaron marcas digitales para identificar creaciones sintéticas; Google y OpenAI, por ejemplo, añadieron mecanismos que revelan el origen artificial de imágenes. La demanda subraya que xAI no adoptó esa práctica generalizada, y que su falta de salvaguardas habría facilitado la circulación de material dañino. Los abogados de las víctimas piden que la corte impida que Grok siga generando este tipo de contenido y reclaman compensaciones por el trauma y la invasión a la privacidad.

Investigaciones y legislación en curso

El caso se inscribe en un contexto de escrutinio regulatorio y legal: organismos como la Comisión Federal de Comercio, la Comisión Europea y supervisores nacionales han examinado funciones de generación de imágenes. Además, políticas y leyes recientes han ampliado vías de reclamación: el Senado aprobó una ley que permite demandas por deepfakes no consentidos, y la llamada Take It Down Act fue firmada en 2026, con entrada en vigor prevista para mayo, para penalizar la difusión de deepfakes no consentidos. Estas iniciativas ilustran la convergencia entre acciones judiciales privadas y respuestas públicas.

Implicaciones prácticas y próximas etapas

Más allá de la dimensión individual del daño, la demanda plantea preguntas sobre la gobernanza de herramientas de inteligencia artificial que pueden manipular la apariencia de personas reales. Los abogados de las jóvenes buscan no solo indemnizaciones económicas, sino cambios en las decisiones de negocio que consideren la seguridad y la dignidad humana como límites innegociables para funciones comerciales. En palabras de su representación legal, la intención es que las empresas de IA no encuentren atractivo comercial en características que permitan abusos sexuales contra menores.

Qué piden las demandantes y qué puede pasar

Las jóvenes solicitan reparaciones por el daño emocional y la pérdida de privacidad, y piden una orden judicial que prohíba a xAI producir y difundir contenido sexual de menores mediante Grok. El proceso judicial deberá evaluar responsabilidad por diseño defectuoso, negligencia en pruebas de seguridad y prácticas de licenciamiento. Mientras tanto, la discusión pública y regulatoria sobre marcas de agua, controles de acceso y responsabilidades de plataformas continúa avanzando, con potencial impacto en cómo se despliegan herramientas de IA en el futuro.

El caso será seguido de cerca por empresas tecnológicas, reguladores y defensores de la infancia, pues combina aspectos técnicos, legales y éticos de la inteligencia artificial. En el centro están tres jóvenes que buscan reparación y cambios estructurales, y una industria que enfrenta la presión de demostrar que puede proteger a usuarios frente a procesos de creación y abuso digital.


Contacto:
Mariano Comotto

Especialista en el arte de ser encontrado online, desde los motores de búsqueda tradicionales hasta las nuevas IAs como ChatGPT y Perplexity. Analiza cómo la inteligencia artificial está cambiando las reglas de la visibilidad digital.