Manifestantes Acusan a Google de Romper Sus Promesas sobre la Seguridad en IA: 'Las Empresas de IA Tienen Menos Regulaciones que las Tiendas de Sándwiches'

Manifestantes Acusan a Google de Romper Sus Promesas sobre la Seguridad en IA: 'Las Empresas de IA Tienen Menos Regulaciones que las Tiendas de Sándwiches'

Los manifestantes se congregaron frente a la oficina de Google DeepMind en Londres el lunes para acusar a la empresa de incumplir una promesa clave sobre la IA.

Un drama judicial completo — con un juez que empuña un mazo y un jurado atento — se desarrolló el lunes en King's Cross, a solo unos pasos de la sede de Google DeepMind. Google estaba en juicio por acusaciones de incumplimiento de sus promesas sobre la seguridad de la IA.

Los participantes de esta producción ficticia fueron los protestantes de PauseAI, un grupo activista preocupado porque las empresas tecnológicas están avanzando en la IA sin tener en cuenta la seguridad. El lunes, el grupo se reunió cerca de la estación de King's Cross para exigir que Google sea más transparente sobre las verificaciones de seguridad que está llevando a cabo en sus modelos de inteligencia artificial más avanzados.

PauseAI argumenta que Google rompió una promesa hecha durante la Cumbre de Seguridad de IA de 2024 en Seúl, Corea, cuando la compañía acordó considerar evaluaciones externas de sus modelos y publicar detalles sobre cómo las partes externas, incluidos los gobiernos, estaban involucradas en la evaluación de los riesgos.

Cuando Google lanzó Gemini 2.5 Pro, su último modelo de frontera, en abril, no hizo ninguna de esas cosas. La compañía dijo que era porque el modelo aún estaba "en fase experimental". Unas semanas después, lanzó una "tarjeta del modelo" con algunos detalles de seguridad, que algunos expertos criticaron por ser muy escasa en detalles, como se informó anteriormente en TechCrunch. Aunque el informe de seguridad hacía referencia a evaluadores externos de terceros, no especificó quiénes eran.

Para PauseAI, esto no es suficiente. Más importante aún, la organización dijo que se trata de no dejar que pase ninguna falta y permitir que Google establezca un precedente. "Si dejamos que Google se salga con la suya rompiendo su palabra, envía una señal a todos los otros laboratorios de que las promesas de seguridad no son importantes y los compromisos con el público no necesitan ser cumplidos", dijo la directora organizativa de PauseAI, Ella Hughes, dirigiéndose a la multitud, que había ido creciendo gradualmente hasta alrededor de 60 personas.

"En este momento, las empresas de IA están menos reguladas que las tiendas de sándwiches."

Protestor en Londres frente a las oficinas de DeepMind

Hay mucho de qué preocuparse cuando se trata de IA. Disrupción económica. Desplazamiento laboral. Información errónea. Deepfakes. La aniquilación de la humanidad tal como la conocemos.

Enfocarse en el problema específico del informe de seguridad de Google es una forma en que PauseAI busca impulsar un cambio específico y alcanzable a corto plazo.

Aproximadamente 30 minutos después de la protesta, varios transeúntes intrigados se unieron a la causa. Después de un discurso apasionado de Hughes, el grupo se dirigió a las oficinas de Google DeepMind, donde tuvo lugar la producción de un falso tribunal. Algunos empleados de Google que salían a esa hora parecían desconcertados mientras resonaban los gritos de "Detengan la carrera, es inseguro" y "Prueben, no adivinen".

"La regulación de IA a nivel internacional se encuentra en un lugar muy malo", le dijo a Business Insider el fundador de PauseAI, Joep Meindertsma, señalando cómo el vicepresidente de EE. UU., JD Vance, advirtió contra la sobre-regulación de la IA en la Cumbre de Acción de IA.

El lunes fue la primera vez que PauseAI se reunió por este tema en específico, y no está claro qué sucederá a continuación. El grupo está en contacto con miembros del parlamento del Reino Unido que llevarán estas preocupaciones a la atención correspondiente, pero Meindertsma se muestra reacio a decir mucho sobre cómo Google está tratando con el grupo y sus demandas (un portavoz de Google no respondió a una solicitud de comentario para esta historia).

Meindertsma espera que el apoyo crezca y hace referencia a encuestas que sugieren que el público en general está preocupado de que la IA se esté moviendo demasiado rápido. El grupo el lunes estaba formado por personas de diferentes antecedentes, incluidos algunos que trabajan en tecnología. Meindertsma, por su parte, dirige una empresa de desarrollo de software y utiliza regularmente herramientas de IA de Google, OpenAI y otros.

"Sus herramientas son increíblemente impresionantes", dijo, "lo que es lo que más me preocupa".

¡Suscríbete a nuestro boletín para obtener más contenido especializado!