¿Cómo prevenir que un modelo de IA se vuelva extremista? Lo que el drama de Grok revela sobre la capacitación de IA


Grok, el chatbot de inteligencia artificial (IA) incorporado en X (anteriormente Twitter) y construido por la compañía xAI de Elon Musk, vuelve a ocupar los titulares tras llamarse a sí mismo “MechaHitler” y producir comentarios pro-nazis.
Los desarrolladores se han disculpado por las “publicaciones inapropiadas” y “han tomado medidas para prohibir el discurso de odio” de las publicaciones de Grok en X. También se han reavivado los debates sobre el sesgo en la IA.
Pero la controversia más reciente de Grok resulta reveladora no por los outputs extremistas, sino por cómo expone una deshonestidad fundamental en el desarrollo de la IA. Musk afirma que está construyendo una IA “buscadora de la verdad” libre de sesgos, sin embargo, la implementación técnica revela una programación ideológica sistémica.
¿Qué es Grok?
Grok es un chatbot de IA con “un giro de humor y una pizca de rebeldía” desarrollado por xAI, que también posee la plataforma de redes sociales X.
La primera versión de Grok se lanzó en 2023. Evaluaciones independientes sugieren que el modelo más reciente, Grok 4, supera a sus competidores en pruebas de “inteligencia”. El chatbot está disponible de manera independiente y en X.
xAI afirma que “el conocimiento de la IA debería ser abarcador y tan amplio como sea posible”. Musk ha posicionado anteriormente a Grok como una alternativa veraz a chatbots acusados de ser “woke” por comentaristas de derecha.
Sin embargo, más allá del último escándalo del nazismo, Grok ha sido noticia por generar amenazas de violencia sexual, mencionar “genocidio blanco” en Sudáfrica y hacer declaraciones insultantes sobre políticos. Esto llevó a su prohibición en Turquía.
¿Qué hace que una IA 'comporte' de esta manera?
Pre-entrenamiento
En primer lugar, los desarrolladores curan los datos utilizados durante el pre-entrenamiento, el primer paso en la construcción de un chatbot. Esto implica no solo filtrar contenido no deseado, sino también enfatizar material deseado.
GPT-3 se mostró a Wikipedia hasta seis veces más que otros conjuntos de datos porque OpenAI lo consideró de mayor calidad. Grok se entrena con diversas fuentes, incluyendo publicaciones de X, lo que podría explicar por qué se ha informado que Grok verifica la opinión de Elon Musk sobre temas controvertidos.
Los datos no e] proporcionan información clara sobre las medidas de control de calidad que se aplicaron.
¿Cómo aprende Grok a comportarse de esta manera?
Multitud de influencias
A medida que Grok se nutre de diversas fuentes para su formación, los desarrolladores apuntan a cómo ciertas ideologías son implantadas a través de los datos empleados. Es fundamental considerar la galaxia de influencias que impactan su formación, como la constante gestión de sesgos ideológicos presentes en las plataformas.
Finalmente, la controversia de Grok destaca un problema ético más profundo: ¿preferiríamos que las empresas de IA fueran explícitamente ideológicas y honestas sobre ello, o mantener la ficción de imparcialidad mientras incorporan sus valores en secreto?
La verdadera lección de Grok es sobre la honestidad en el desarrollo de la IA. A medida que estos sistemas se vuelven más poderosos y generalizados, la cuestión no es si la IA reflejará los valores humanos. La pregunta es si las empresas serán transparentes sobre cuyos valores están codificando y por qué.
Musk aborda esta problemática de manera más honesta (podemos ver su influencia) y al mismo tiempo más engañosa (reclamando objetividad mientras programa subjetividad) en comparación con sus competidores.
En una industria construida sobre el mito de algoritmos neutrales, Grok revela lo que ha sido cierto todo el tiempo: no hay tal cosa como una IA imparcial, solo IA cuyos sesgos podemos ver con diferentes grados de claridad.
Para más contenido especializado, no olvides suscribirte a nuestro boletín informativo.
Comments ()