Grok, el chatbot desarrollado bajo la dirección de Elon Musk, ha mostrado fallos en sus salvaguardias que permiten sexualizar imágenes de menores y distribuirlas en la plataforma X.
Usuarios solicitaron al chatbot que modificara fotografías para desnudar a mujeres y niños, generando imágenes explícitas. Este abuso se intensificó y se difundió ampliamente en X durante los últimos días del año, según reportaron medios como Bloomberg y CNBC.
El uso de estas imágenes involucra material de abuso sexual infantil (CSAM, por sus siglas en inglés), tipo de contenido prohibido y considerado ilegal en las políticas de xAI, la empresa responsable de Grok.
Las normas de uso establecen que la plataforma no permite representar personas de manera pornográfica ni la sexualización o explotación de menores. A pesar de esto, se identificaron vulnerabilidades en el sistema que no bloquearon dichas solicitudes.
En respuesta a un usuario, Grok admitió que existen fallos en las salvaguardias y aseguró que están trabajando para corregirlos, subrayando que el CSAM es ilegal y está prohibido.
No se ha dado un pronunciamiento oficial más amplio por parte de los responsables de Grok ni de Elon Musk sobre las medidas específicas que se adoptarán para evitar futuros abusos.
Se recomienda a los usuarios reportar cualquier contenido ilegal y a las plataformas mejorar la supervisión y control para proteger a los menores en entornos digitales.












