Colaborador: La IA no está solo de espectador. Está actuando

Colaborador: La IA no está solo de espectador. Está actuando

El proyecto Mariner de Google tiene como objetivo llevar la IA más allá de responder consultas y entrar en el ámbito de actuar en nombre de las personas, o potencialmente en contra de ellas.(Jeff Chiu / Associated Press)

Justo dos años y medio después de que OpenAI sorprendiera al mundo con ChatGPT, la IA ya no solo está respondiendo preguntas — está tomando acciones. Ahora estamos entrando en la era de los agentes de IA, en la que los grandes modelos de lenguaje de IA no solo proporcionan información pasivamente en respuesta a tus consultas, sino que activamente se adentran en el mundo y hacen cosas por — o potencialmente en contra — de ti.

La IA tiene el poder de escribir ensayos y responder preguntas complejas, pero imagina si pudieras ingresar un comando y hacer que programara una cita médica basada en tu calendario, o reservar un vuelo familiar con tu tarjeta de crédito, o presentar un caso legal para ti en una corte de reclamos menores.

Un agente de IA envió esta columna de opinión. (Sin embargo, escribí la columna yo mismo porque pensé que el Los Angeles Times no publicaría una pieza generada por IA, y además puedo incluir referencias aleatorias como si fuera un fan de los Cleveland Browns porque ninguna IA lo admitiría.)

Instruí a mi agente de IA para que averiguara qué dirección de correo electrónico utiliza el Times para las presentaciones de columnas de opinión, los requisitos para la presentación, y luego redactar el título del correo electrónico, redactar un párrafo cautivador, adjuntar mi columna y enviar el paquete. Presioné "retornar", "monitorizar tarea" y "confirmar". El agente de IA completó las tareas en unos minutos.

Unos minutos no son rápidos, y estas no eran solicitudes complicadas. Pero con cada mes que pasa, los agentes se vuelven más rápidos e inteligentes. Utilicé Operator de OpenAI, que está en modo de vista previa de investigación. El Proyecto Mariner de Google, que también es un prototipo de investigación, puede realizar tareas similares a las de un agente.

Pronto los agentes de IA realizarán tareas más complejas y estarán ampliamente disponibles para el público. Esto plantea una serie de problemas significativos y no resueltos. Anthropic realiza pruebas de seguridad de sus modelos y publica los resultados. Una de sus pruebas mostró que el modelo Claude Opus 4 podría notificar potencialmente a la prensa o a los reguladores si creía que estabas haciendo algo moralmente reprobable. ¿Debería comportarse un agente de IA como un empleado leal, o como un empleado concienciado?

OpenAI publica auditorías de seguridad de sus modelos. Una auditoría mostró que el modelo o3 participaba en engaños estratégicos, que se definieron como un comportamiento que persigue intencionalmente objetivos desalineados con la intención del usuario o del desarrollador. Un modelo de IA pasivo que engage en engaños estratégicos puede ser preocupante, pero se vuelve peligroso si ese modelo realiza tareas en el mundo real de manera autónoma. Un agente de IA rebelde podría vaciar tu cuenta bancaria, realizar y enviar videos incriminatorios falsos de ti a la ley, o divulgar tu información personal en la web oscura.

A principios de este año, se realizaron cambios de programación en el modelo Grok de xAI que hicieron que insertara información falsa sobre el genocidio blanco en Sudáfrica en respuestas a consultas de usuarios no relacionadas. Este episodio mostró que los grandes modelos de lenguaje pueden reflejar los sesgos de sus creadores. En un mundo de agentes de IA, también debemos tener cuidado de que los creadores de los agentes pueden tomar control de ellos sin tu conocimiento.

El gobierno de EE. UU. está muy atrasado en lidiar con los riesgos potenciales de la IA avanzada y poderosa. Como mínimo, deberíamos exigir que las empresas que implementen modelos de lenguaje grandes a gran escala revelen las pruebas de seguridad que realizaron y los resultados, así como las medidas de seguridad incorporadas en el sistema.

El Grupo de Trabajo bipartidista de la Cámara sobre Inteligencia Artificial, en el que serví, publicó un informe unánime el diciembre pasado con más de 80 recomendaciones. El Congreso debe actuar sobre ellas. No discutimos los agentes de IA de propósito general porque realmente no eran una cosa aún.

Para abordar los problemas significativos y no resueltos que plantea la IA, que se magnificarán a medida que proliferan los agentes de IA, el Congreso debería convertir el grupo de trabajo en un Comité Selecto de la Cámara. Un comité especializado podría poner a los testigos bajo juramento, celebrar audiencias en público y emplear un personal dedicado para ayudar a afrontar una de las revoluciones tecnológicas más significativas de la historia. La IA se mueve rápidamente. Si actuamos ahora, aún podemos ponernos al día.

Si quieres más contenido especializado, no olvides suscribirte al boletín de noticias.