ASML, SAP y Mistral Piden a la UE Retrasar la Aplicación de las Normas sobre IA

Empresas europeas, incluidas ASML Holding NV y Mistral AI, han instado a la Unión Europea a suspender la implementación de su histórica regulación sobre inteligencia artificial, sosteniendo que pone en riesgo las ambiciones de IA del continente.
En una carta firmada por representantes de más de 45 organizaciones, los líderes empresariales solicitaron a la presidenta de la Comisión Europea, Ursula von der Leyen, que posponga la aplicación de las normas que restringen los modelos de IA más potentes, pidiendo un enfoque regulatorio más “amigable con la innovación.”
“Este aplazamiento, combinado con un compromiso de priorizar la calidad regulatoria sobre la rapidez, enviaría a innovadores e inversores de todo el mundo una fuerte señal de que Europa toma en serio su agenda de simplificación y competitividad”, dice la carta.
Otras empresas que firmaron la carta incluyen Airbus SE, Mercedes-Benz Group AG, BNP Paribas, Deutsche Lufthansa, Publicis Groupe SA, Prosus NV y Siemens Energy AG. Solicitaron el retraso de dos conjuntos de normas que se aplican a los modelos de IA de propósito general y a los sistemas de IA de alto riesgo.
Las empresas se han quejado de que la Comisión no ha logrado entregar directrices y estándares clave, incluido un código de prácticas que proporciona instrucciones a las empresas de IA avanzadas para cumplir con la regulación. La redacción del código de práctica, que ya se retrasó después de que la Comisión lo programara originalmente para mayo, ha estado plagada de críticas. Las empresas tecnológicas lo han acusado de ir más allá de los límites de la Ley de IA de la UE y de crear su propio conjunto de normas onerosas. El gobierno de EE. UU. también ha intervenido y, en abril, envió cartas a la Comisión y a varios países europeos instando al bloque a descartar el código en su forma actual.
Ahora, estos retrasos amenazan con empujar la implementación del acta en su totalidad. Según el plazo escalonado de la UE para la ley, los modelos de IA más potentes, como el ChatGPT de OpenAI, deberían cumplir para agosto. Pero en julio, los grupos de trabajo de la Comisión, formados por desarrolladores de IA, académicos y activistas de derechos digitales, aún estaban elaborando orientaciones detalladas.
El Acta de IA, aprobada el año pasado, es un conjunto de controles diseñados para prevenir los peores abusos de la tecnología. Los desarrolladores de IA tendrán que proporcionar información sobre cómo se entrenan sus modelos y tener políticas que respeten la ley de derechos de autor. Los modelos más sofisticados deberán tomar medidas adicionales para mitigar el riesgo, reforzar la seguridad e informar sobre la arquitectura de su sistema. La ley también establece límites en ciertos tipos de uso, como restricciones en las herramientas que identificarían a personas en espacios públicos en tiempo real.
Aunque el código de prácticas es voluntario, proporciona un marco que ayudará a las empresas a mantenerse en cumplimiento con la ley. Incumplir esas reglas puede conllevar una multa de hasta el 7% de las ventas anuales de una empresa o el 3% para las empresas que desarrollan modelos de IA avanzados.
Lee más: Aquí se Explica Cómo la UE Regulamentará Modelos Avanzados de IA como ChatGPT
Hablando de forma virtual en un evento en Bruselas en febrero, el jefe de asuntos globales de Meta Platforms Inc., Joel Kaplan, calificó el código de práctica de “impracticable e inviable”, añadiendo que la empresa no lo firmará en su forma actual. Alphabet Inc. también ha criticado el libro de normas, y un ejecutivo dijo en una entrevista con Politico en febrero que las directrices que exigen pruebas de modelos por terceros y requerimientos alrededor de la protección de derechos de autor van demasiado lejos.
Estos desarrollos destacan un momento crítico para el futuro de la regulación de la inteligencia artificial en Europa, ya que un suspenso adicional podría afectar profundamente el ecosistema de innovación en la región.
Para contenido más especializado, suscríbete a nuestro boletín informativo.
Comments ()