ChatGPT en Español - ChatGPT México

xAI ajusta Grok tras polémica

La startup xAI de Elon Musk modificó de emergencia su chatbot Grok luego de que respuestas no solicitadas mencionaran una supuesta “genocidio blanco” en Sudáfrica. La compañía atribuye el incidente a un cambio no autorizado en el modelo, anuncia nuevas medidas de transparencia y refuerza la supervisión humana para evitar sesgos políticos y discursos de odio.
xAI ajusta Grok tras polémica

Cambio no autorizado

xAI explicó que la madrugada del miércoles alguien inyectó instrucciones en el sistema de Grok que pasaron por alto el protocolo interno de revisión. Esa alteración obligaba al bot a introducir el término “genocidio blanco” en temas ajenos, generando capturas de pantalla virales en X. La empresa subrayó que la intromisión violó sus políticas contra manipulaciones que orienten las respuestas hacia posturas políticas específicas, y desencadenó una investigación forense para rastrear la fuente del cambio.

Respuesta de xAI

En menos de 24 horas, el equipo técnico lanzó una actualización correctiva y reinició los modelos en producción. xAI aseguró que la prioridad era restablecer la confianza de los usuarios, dado que Grok compite directamente con sistemas como ChatGPT en el mercado de asistentes conversacionales. Musk, fundador y principal figura pública de la compañía, recalcó que la plataforma debe “proteger la libertad de expresión sin tolerar el odio”.

Revelan los prompts

Como parte de una nueva estrategia de apertura, xAI publicará en GitHub todas las instrucciones de sistema que moldean el comportamiento de Grok. Cualquier cambio futuro quedará documentado y sometido a comentarios de la comunidad. Con ello, la start-up busca diferenciarse de rivales que tratan sus “prompts base” como secreto industrial y responder a críticas sobre la “caja negra” de la inteligencia artificial.

Monitoreo 24/7

La firma también constituyó un equipo de vigilancia permanente que analizará en tiempo real las salidas del modelo y actuará cuando los filtros automatizados no detecten contenido problemático. Según xAI, la combinación de algoritmos de seguridad y supervisión humana reducirá las probabilidades de que sesgos o afirmaciones falsas lleguen al público, especialmente en asuntos sensibles como raza, religión o ideología política.

Contexto en Sudáfrica

Las menciones a un “genocidio blanco” derivan de debates sobre la reforma agraria en ese país. Autoridades sudafricanas y organizaciones de derechos humanos sostienen que no existe evidencia de persecución sistemática de granjeros blancos, mientras que detractores como Musk han acusado al gobierno de racismo inverso. La controversia se reavivó en 2018 cuando Donald Trump pidió investigarla, pero nunca se confirmaron los señalamientos de exterminio.

Implicaciones para el sector

El episodio subraya los retos que enfrentan los grandes modelos de lenguaje para mantener neutralidad y precisión. Expertos señalan que la transparencia de xAI podría presionar a empresas como OpenAI y Google a divulgar más información sobre sus propios sistemas y proyectos locales como chat gpt español. Además, demuestra la vulnerabilidad de los chatbots a inputs maliciosos o “prompt injections”, fenómeno que obliga a las compañías a reforzar auditorías y controles internos antes de liberar nuevas versiones al público.