La Empresa de IA en la que Zuckerberg Invirtió $14 Mil Millones Es Supuestamente un Circo de Incompetencia Ridícula

Presumiblemente, cuando inviertes $14 mil millones en una compañía para adquirir un 49 por ciento de participación — como Meta acaba de hacer en Scale AI — estás seguro de que dicha compañía a) te ayudará a ganar mucho dinero y b) sabe lo que está haciendo.
Pero un nuevo informe de Inc Magazine sugiere que Scale AI — cofundada por el joven millonario de 28 años Alexandr Wang, cuyo primer nombre efectivamente carece de una letra "e" entre la "d" y la "r" — es un enorme circo detrás de escena.
En su momento, cuando trabajó con Google (los dos acaban de romper después de la adquisición de Meta), se informó que Scale AI estaba abarrotada de incontables “spammers” que estafaron a la compañía con trabajos fraudulentos, aprovechándose de sus risibles protocolos de seguridad y verificación — un episodio que resume sus luchas para satisfacer las exigencias de un gran cliente como Google.
Scale AI es básicamente un centro de anotación de datos que realiza el trabajo esencial para la industria de IA. Para entrenar un modelo de IA, necesitas datos de calidad. Y para que esos datos tengan significado, un modelo de IA necesita saber qué está observando. Los anotadores ingresan manualmente y agregan ese contexto.
Como es habitual en la América corporativa, Scale AI construyó su modelo de negocio sobre un ejército de trabajadores independientes extremadamente mal pagados, muchos de ellos en el extranjero. Las condiciones han sido descritas como “talleres digitales”, y muchos trabajadores han acusado a Scale AI de robo de salarios.
Resulta que este no era un entorno propicio para fomentar un trabajo de alta calidad.
Según documentos internos obtenidos por Inc, el programa “Bulba Experts” de Scale AI para entrenar los sistemas de IA de Google se suponía que iba a estar compuesto por autoridades en campos relevantes. Pero en su lugar, durante un caótico periodo de 11 meses entre marzo de 2023 y abril de 2024, sus dudosos “contribuyentes” inundaron el programa con “spam”, que fue descrito como “escribiendo sin sentido, información incorrecta, procesos de pensamiento generados por GPT.”
En muchos casos, los spammers, que eran contratistas independientes que trabajaban a través de plataformas de propiedad de Scale AI, como Remotasks y Outlier, siguieron recibiendo pagos por enviar tonterías completas, según excontratistas de Scale, ya que se volvió casi imposible atraparlos a todos. Y, incluso si eran atrapados, algunos volvían simplemente utilizando una VPN.
“La gente ganaba tanto dinero,” dijo un excontribuyente a Inc. “Simplemente contrataron a todos los que podían respirar.”
El trabajo a menudo requería títulos avanzados que muchos contribuyentes no tenían, dijo el excontribuyente. Y aparentemente, nadie estaba verificando quién estaba ingresando.
“No hubo verificaciones de antecedentes en absoluto,” comentó un exgerente de colas de Remotasks, quien estaba a cargo de revisar y aprobar el trabajo de los contribuyentes, a Inc. “Por ejemplo, los clientes tenían requisitos para las personas que trabajaban en proyectos de tener ciertos títulos. Pero no había verificaciones... A menudo eran personas que no eran hablantes nativos de inglés.”
Los spammers “podían salirse con la suya simplemente enviando un montón de basura y no había suficientes personas para rastrearlos,” añadió el exgerente de colas. También recordó cómo el equipo de Asignaciones de Scale AI, encargado de asignar contribuyentes, una vez “dumpió 800 spammers” en su equipo, quienes procedieron a spamear “todas las tareas.”
Los intentos de controlar la situación fueron rudimentarios. Según Inc, varios memorandos y pautas solicitaban denegar o eliminar a los contribuyentes de países específicos, incluyendo Egipto, Pakistán, Kenia y Venezuela.
El programa también tuvo un pequeño sabor de la tecnología que estaba ayudando a crear. Los spammers estaban presentando tanta basura generada por IA que se aconsejó a los supervisores utilizar una herramienta llamada ZeroGPT, destinada a detectar el uso de ChatGPT, para verificar las entradas.
Te hace preguntarte cuánta tontería se deslizó entre las grietas y terminó siendo internalizada por los modelos de IA de Google. Quizás esto podría explicar un poco sobre su infame característica de AI Overviews.
Por su parte, un portavoz de Scale AI desestimó las afirmaciones. “Esta historia está llena de tantas inexactitudes que es difícil mantenerse al día,” dijo el portavoz en un comunicado a Inc. “Lo que estos documentos muestran, y lo que le explicamos a Inc antes de publicar, es que teníamos salvaguardas claras para detectar y eliminar el spam antes de que cualquier cosa llegara a los clientes.”
Más sobre IA: WhatsApp despliega IA, para aquellos incapaces de comprender mensajes sencillos de sus amigos y familiares.
Comparte este artículo
Suscríbete a nuestro newsletter para más contenido especializado: Suscribirse
Comments ()