La IA Actual Podría Aumentar 5 Veces la Probabilidad de Pandemias

La IA Actual Podría Aumentar 5 Veces la Probabilidad de Pandemias

Fecha de publicación: 1 de julio de 2025

Los recientes desarrollos en IA podrían significar que las pandemias causadas por humanos son cinco veces más probables que hace solo un año, según un estudio de predicciones de expertos de alto nivel compartido exclusivamente con TIME.

Los datos reflejan preocupaciones planteadas por las empresas de IA OpenAI y Anthropic en los últimos meses, ambas advirtieron que las herramientas de IA actuales están alcanzando la capacidad de ayudar de manera significativa a actores malintencionados que intentan crear armas biológicas.

Leer más: Exclusivo: El nuevo modelo Claude activa las salvaguardas de bio-riesgo en Anthropic

Durante diciembre de 2024 y febrero de 2025, el Instituto de Investigación de Pronóstico preguntó a 46 expertos en bioseguridad y 22 "superprevisores" (individuos con una alta tasa de éxito en la predicción de eventos futuros) para estimar el riesgo de una pandemia causada por humanos. El encuestado promedio predijo que el riesgo de que eso ocurriera en cualquier año dado era del 0.3%.

Crucialmente, los encuestadores hicieron otra pregunta: ¿cuánto aumentaría ese riesgo si las herramientas de IA pudieran igualar el rendimiento de un equipo de expertos en una prueba de resolución de problemas de virología difícil? Si eso fuera posible, dijo el experto promedio, el riesgo anual aumentaría al 1.5%, un incremento de cinco veces.

Lo que los pronosticadores no sabían era que Donoughe, un científico investigador en el nonprofit SecureBio, estaba probando sistemas de IA para esa misma capacidad. En abril, el equipo de Donoughe reveló los resultados de esas pruebas: los mejores sistemas de IA de hoy pueden superar a los virólogos con PhD en una difícil prueba de resolución de problemas.

En otras palabras, la IA ahora puede hacer exactamente lo que los pronosticadores advirtieron que aumentaría el riesgo de una pandemia causada por humanos cinco veces. (El Instituto de Investigación de Pronósticos planea volver a encuestar a los mismos expertos en el futuro para rastrear si su visión de los riesgos ha aumentado, como ellos dijeron que lo haría, pero señalaron que esta investigación tardará meses en completarse.)

Para estar seguros, existen un par de razones para ser escépticos sobre los resultados. La predicción es una ciencia inexacta y es especialmente difícil predecir con precisión la probabilidad de eventos muy raros. Los pronosticadores en el estudio también revelaron una falta de comprensión sobre la tasa de progreso de la IA. (Por ejemplo, cuando se les preguntó, la mayoría dijo que no esperaban que la IA superara el rendimiento humano en la prueba de virología hasta después de 2030, mientras que la prueba de Donoughe mostró que esa barra ya se había alcanzado). Pero incluso si los números se toman con un grano de sal, los autores del documento argumentan que los resultados en su conjunto apuntan en una dirección ominosa. “Parece que las capacidades de IA a corto plazo podrían aumentar significativamente el riesgo de una epidemia causada por humanos”, dice Josh Rosenberg, CEO del Instituto de Investigación de Pronósticos.

El estudio también identificó formas de reducir los riesgos de armas biológicas que plantea la IA. Estas mitigaciones se dividen en dos categorías amplias.

La primera categoría son las salvaguardas a nivel de modelo. En entrevistas, los investigadores acogieron con satisfacción los esfuerzos de empresas como OpenAI y Anthropic para evitar que sus IA respondan a solicitudes dirigidas a construir una arma biológica. El documento también identifica la restricción a la proliferación de modelos de “pesos abiertos” y la adición de protecciones para evitar que los modelos sean rompidos, como medidas para reducir el riesgo de que la IA se utilice para iniciar una pandemia.

La segunda categoría de salvaguardas implica imponer restricciones a las empresas que sintetizan ácidos nucleicos. Actualmente, es posible enviar a una de estas empresas un código genético y recibir materiales biológicos correspondientes a ese código. Hoy, estas empresas no están obligadas por ley a controlar los códigos genéticos que reciben antes de sintetizarlos. Eso es potencialmente peligroso porque estos materiales genéticos sintetizados podrían utilizarse para crear patógenos a pedido. Los autores del documento recomiendan que los laboratorios analicen sus secuencias genéticas para comprobar su peligrosidad y que implementen procedimientos de “conocer a su cliente”.

Teniendo en cuenta todo esto, si se implementan, todas estas salvaguardas podrían reducir el riesgo de una pandemia habilitada por IA al 0.4%, dijo el pronosticador promedio. (Solo ligeramente superior al 0.3% de referencia de donde creían que se encontraba el mundo antes de saber que la IA actual podría ayudar a crear una arma biológica).

“En general, parece que esta es una nueva área de riesgo que vale la pena tener en cuenta”, dice Rosenberg. “Pero hay buenas respuestas políticas a ello.”

Para más información, suscríbete a nuestro newsletter para contenido especializado.