Grok genera imágenes íntimas y de abuso sexual infantil por fallas de seguridad, admite la IA de X

Grok genera imágenes íntimas y contenido sexualizado de menores y mujeres debido a fallas en sus medidas de seguridad, admitió el chatbot de inteligencia artificial de X, lo que ha encendido alertas sobre abuso sexual infantil, violencia digital y la falta de controles efectivos en herramientas de IA.

Grok genera imágenes íntimas

Por

2 minutos, 50 segundos

Grok genera imágenes íntimas y contenido sexualizado de menores y mujeres debido a fallas en sus medidas de seguridad, admitió el chatbot de inteligencia artificial de X, lo que ha encendido alertas sobre abuso sexual infantil, violencia digital y la falta de controles efectivos en herramientas de IA.

Grok genera imágenes íntimas pese a que su propia política lo prohíbe. El chatbot de inteligencia artificial de X, propiedad de Elon Musk, reconoció que fallas en sus medidas de seguridad permitieron la creación y difusión de imágenes sexualizadas de menores de edad, así como contenidos íntimos no consensuados de mujeres adultas, lo que ha encendido alertas globales sobre violencia digital, abuso sexual infantil y la falta de controles efectivos en la IA generativa.

La admisión se dio luego de múltiples denuncias de usuarios que documentaron cómo Grok respondía a solicitudes para generar imágenes de niñas y adolescentes con ropa mínima, además de fotografías falsas de mujeres reales en bikini o lencería, creadas a partir de imágenes auténticas publicadas en la red social X.

Grok reconoce fallas y admite que el abuso sexual infantil es un delito

En una serie de publicaciones difundidas esta semana, Grok aseguró haber “identificado fallas en las salvaguardas” y afirmó que trabaja de manera urgente para corregirlas. El propio chatbot subrayó que el material de abuso sexual infantil (CSAM, por sus siglas en inglés) es ilegal y está prohibido, y que su generación y distribución puede acarrear consecuencias penales y civiles.

Durante varios días, sin embargo, Grok genera imágenes íntimas de menores en respuesta a solicitudes de usuarios, infringiendo directamente su política de uso aceptable, que prohíbe cualquier tipo de sexualización infantil. La herramienta afirmó que las imágenes ofensivas fueron eliminadas posteriormente.

Una Una IA más permisiva y el papel del “Modo Picante”

xAI, la empresa que desarrolla Grok y opera X, ha posicionado este modelo como más permisivo que otros sistemas de inteligencia artificial. En el verano de 2025 lanzó una función llamada Modo Picante, que permite desnudos parciales de adultos y contenido sexualmente sugerente.

Aunque el servicio prohíbe la pornografía con personas reales y el contenido sexual con menores (cuya creación y distribución son delitos), especialistas advierten que este enfoque más laxo facilita abusos. El propio caso de Grok muestra cómo grok genera imágenes íntimas al margen de sus filtros cuando estos pueden ser manipulados.

Hasta ahora, los representantes de xAI no han respondido a solicitudes de comentarios sobre estos hechos.

El crecimiento alarmante del abuso sexual infantil generado con IA

El caso de Grok se inserta en una tendencia global preocupante. La Internet Watch Foundation (IWF) reportó que las imágenes de abuso sexual infantil generadas con inteligencia artificial aumentaron 400 por ciento en el primer semestre de 2025.

La organización advierte que estas imágenes son cada vez más realistas y extremas, y que en muchos casos las herramientas de IA se utilizan para retirar digitalmente la ropa de niños, niñas o adolescentes y crear versiones sexualizadas.

Investigaciones previas también revelaron que conjuntos de datos masivos utilizados para entrenar generadores de imágenes de IA incluían más de mil casos de material de abuso sexual infantil, lo que evidencia fallas estructurales en el desarrollo de estas tecnologías.

¿Cómo se comparan otras empresas de IA?

A medida que la generación de imágenes con IA se vuelve más popular, las principales compañías del sector han reforzado sus políticas. OpenAI prohíbe cualquier material que sexualice a menores de 18 años y veta de forma permanente a los usuarios que intenten generarlo o subirlo. Google mantiene restricciones similares sobre imágenes modificadas de menores identificables en conductas sexualmente explícitas.

Meta Platforms también recibió críticas en 2025, luego de que una investigación de Reuters revelara que su chatbot podía mantener conversaciones “románticas” con niños, lo que obligó a la empresa a actualizar sus políticas internas.

Violencia sexual digital contra mujeres

Además del caso de menores, Grok ha sido señalado por facilitar violencia sexual digital contra mujeres adultas. En los últimos días, cientos de usuarios en X han pedido a la herramienta que genere imágenes eróticas falsas a partir de fotografías reales, sin consentimiento.

Uno de los casos más visibles fue el de la periodista mexicana Karina Velasco. Minutos después de anunciar que denunciaría penalmente a X, un usuario pidió a Grok que editara una foto suya para ponerle un bikini. La imagen fue generada y publicada de forma casi inmediata. Luego, otra solicitud pidió cambiar el bikini por lencería erótica, lo que también fue atendido.

Como ella, decenas de mujeres han denunciado que Grok genera imágenes íntimas no consensuadas, sin que existan mecanismos eficaces para impedir su creación o lograr su retiro inmediato, incluso cuando se reportan.

Serendipia es una iniciativa independiente de periodismo de datos. Puedes apoyarnos compartiendo nuestras notas, suscribiéndote en YouTube o ayudarnos de otras maneras .

Comentarios

0 comentarios en la nota: Grok genera imágenes íntimas y de abuso sexual infantil por fallas de seguridad, admite la IA de X


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *