La inteligencia artificial Grok, integrada en la plataforma social X, se encuentra en el centro de una fuerte controversia tras detectarse que sus herramientas permiten crear y difundir imágenes sexualizadas de mujeres y menores de edad sin su consentimiento. El problema se intensificó tras el lanzamiento de una función de edición que permite a los usuarios modificar fotografías reales mediante comandos de texto, lo que ha facilitado la generación de contenido explícito o denigrante de forma masiva.

Organismos de control en la Unión Europea, el Reino Unido y Brasil han expresado una profunda preocupación, calificando el hecho de “espantoso” e ilegal. Según informes recientes, se han analizado miles de imágenes generadas por la herramienta, encontrando que un porcentaje significativo representa a personas en situaciones comprometidas o con vestimenta sugerente generada de forma artificial. La falta de filtros de seguridad efectivos ha permitido que indicaciones para “quitar la ropa” o “poner en bikini” se ejecuten sin restricciones adecuadas.
Por su parte, la empresa xAI ha reconocido la existencia de fallos en sus salvaguardias y asegura estar trabajando en correcciones urgentes. Sin embargo, la postura del propietario de la red, Elon Musk, ha sido criticada por minimizar la gravedad del asunto en sus publicaciones personales. Mientras la legislación sobre deepfakes avanza en diversos países para proteger la privacidad y la integridad digital, este caso resalta la urgente necesidad de regulaciones globales que obliguen a las empresas de tecnología a implementar medidas de moderación más estrictas para prevenir la violencia digital de género.
