Cómo Garantizamos el Futuro de la Inteligencia Artificial

Cómo Garantizamos el Futuro de la Inteligencia Artificial

Estamos anunciando un nuevo Programa de Recompensas por Vulnerabilidades de IA (AI Vulnerability Reward Program), una versión actualizada del Marco de IA segura 2.0 (Secure AI Framework 2.0) y el lanzamiento de CodeMender, nuestro nuevo agente impulsado por IA que mejora la seguridad del código de forma automática.

Un enfoque proactivo hacia la ciberseguridad

Si bien la IA representa un momento sin precedentes para la ciencia y la innovación, también es vista por actores maliciosos como una herramienta sin precedentes para los ataques. Ciberdelincuentes, estafadores y atacantes respaldados por Estados ya están explorando formas de usar la IA para dañar a las personas y comprometer sistemas en todo el mundo. Desde ataques más veloces hasta técnicas avanzadas de ingeniería social, la IA les brinda herramientas poderosas.

Creemos que no solo es posible contrarrestar estas amenazas, sino que la IA también puede convertirse en una herramienta transformadora para la defensa cibernética, capaz de otorgar una ventaja decisiva a quienes protegen los sistemas. Por eso, hoy compartimos nuevas formas en las que estamos inclinando la balanza a favor de una IA para el bien. Esto incluye el anuncio de CodeMender, un agente de IA diseñado para mejorar la seguridad del código de manera automática; el nuevo Programa de Recompensas por Vulnerabilidades de IA; y el Marco de IA segura 2.0 junto con su mapa de riesgos, que llevan enfoques de seguridad comprobados a la nueva era de la IA.

Defensa autónoma: CodeMender

En Google, diseñamos nuestros sistemas para que sean seguros desde el principio. Iniciativas basadas en IA como BigSleep han demostrado la capacidad de la IA para descubrir vulnerabilidades de día cero en softwares ampliamente utilizados. A medida que logramos más avances en el descubrimiento de vulnerabilidades mediante IA, será cada vez más difícil para los humanos hacerlo solos.

Por eso desarrollamos CodeMender, un agente impulsado por IA que utiliza las capacidades de razonamiento avanzado de nuestros modelos Gemini para corregir automáticamente vulnerabilidades críticas de código. CodeMender amplía la seguridad y acelera los tiempos de parcheo en el ecosistema de código abierto.

  • Análisis de causa raíz: utiliza Gemini y técnicas avanzadas, como fuzzing y demostradores de teoremas, para identificar con precisión la causa fundamental de una vulnerabilidad, no solo sus síntomas superficiales.
  • Parcheo autovalidado: genera y aplica códigos de parche de forma autónoma. Luego, estos son revisados por agentes especializados que validan rigurosamente la corrección, el impacto en la seguridad y la conformidad con los estándares de código antes de su aprobación final por un humano.

Reforzando la investigación: Programa de Recompensas por Vulnerabilidades de IA (AI VRP)

La comunidad global de investigación en seguridad es un socio indispensable, y nuestros programas de recompensas (VRP) ya han otorgado más de 430,000 dólares por hallazgos relacionados con IA. Para fortalecer esta colaboración, estamos lanzando un AI VRP dedicado, que aclara qué tipos de problemas de IA están dentro del alcance mediante un conjunto unificado de reglas y tablas de recompensas.

Protección de agentes de IA

Estamos ampliando nuestro Marco de IA segura hacia Marco de IA segura 2.0, para abordar los riesgos emergentes asociados con los agentes autónomos de IA. Esta nueva versión extiende nuestro marco probado con guías específicas sobre riesgos de seguridad en agentes y controles para mitigarlos.

De cara al futuro

Nuestro trabajo en seguridad con IA va más allá de mitigar amenazas: nuestra ambición es usar la IA para hacer del mundo un lugar más seguro. Mientras gobiernos y organizaciones civiles buscan apoyarse en la IA para contrarrestar las crecientes amenazas, en Google estamos comprometidos a liderar este camino.

Para más contenido especializado, ¡suscríbete a nuestro newsletter de Sabia!