Los Legisladores que Creen que la IA Puede Salvar la Economía Británica Deben Tener Precaución

Los Legisladores que Creen que la IA Puede Salvar la Economía Británica Deben Tener Precaución

Los responsables políticos que piensan que la IA puede ayudar a rescatar la economía británica en declive deberían tener cuidado

Heather Stewart

El escepticismo saludable es necesario porque el defecto es que los modelos de lenguaje grande siguen siendo propensos a inventar cosas.

Desde ayudar a consultores a diagnosticar cáncer, hasta ayudar a profesores a redactar planes de lección, y inundar las redes sociales con contenido derivado, la inteligencia artificial generativa está siendo adoptada en la economía a una velocidad vertiginosa.

Sin embargo, un número creciente de voces empieza a preguntar qué tan útil puede ser la tecnología para la economía británica, que es lenta. No al menos porque no se puede escapar de un defecto persistente: los modelos de lenguaje grande (LLMs) siguen siendo propensos a crear cosas de la nada.

Esta es una fenómeno conocido como “alucinación”. En un episodio reciente de su pódcast, el presentador Adam Buxton leyó fragmentos de un libro que había comprado en línea, que pretendía ser una compilación de citas y anécdotas sobre su propia vida, muchas de las cuales eran superficialmente plausibles, pero completamente ficticias.

El periodista escéptico de tecnología, Ed Zitron, argumentó en un blog reciente que la tendencia de ChatGPT (y de todos los demás chatbots) a “afirmar que algo es verdadero, cuando no lo es”, significa que es “una no opción para la mayoría de los clientes comerciales, donde (obviamente) lo que escribes debe ser verídico”.

Académicos de la Universidad de Glasgow han dicho que dado que los modelos no están configurados para resolver problemas, o para razonar, sino para predecir la oración que suena más plausible en base a la gran cantidad de datos que han recopilado, una mejor palabra para sus tropiezos fácticos no es “alucinaciones”, sino “tonterías”.

En un artículo del año pasado titulado “ChatGPT es una tontería”, Michael Townsen Hicks y sus colegas dicen: “Los modelos de lenguaje grande simplemente intentan replicar el habla o la escritura humana. Esto significa que su objetivo principal, en la medida en que tengan uno, es producir texto similar al de un humano. Lo hacen estimando la probabilidad de que una palabra en particular aparezca a continuación, dado el texto que la precede”.

En otras palabras, las “alucinaciones” no son fallos que probablemente se resolverán, sino que son parte integral de los modelos. Un artículo reciente en New Scientist sugiere que son cada vez más frecuentes.

Incluso las formas más avanzadas de IA conocidas como “modelos de razonamiento grande” sufren “colapso de precisión” cuando se enfrentan a problemas complejos, según un artículo muy compartido de Apple la semana pasada.

Nada de esto resta valor a la utilidad de LLMs para muchas tareas analíticas, y LLMs tampoco son la extensión total de la IA generativa; pero sí hacen arriesgado confiar en chatbots como autoridades, como encontraron esos abogados.

Si realmente los LLMs son más creativos que máquinas de razonamiento, eso tiene varias implicaciones profundas.

Primero, plantea preguntas sobre hasta qué punto la IA debería realmente reemplazar, en lugar de aumentar o asistir, a los empleados humanos, quienes son los que finalmente asumen la responsabilidad de lo que producen.

El ganador conjunto del premio Nobel de economía del año pasado, Daron Acemoglu, dice que, dado sus problemas de precisión, la IA generativa tal como se concibe actualmente solo reemplazará un conjunto de roles muy definidos en el futuro previsible. “Va a impactar una serie de trabajos de oficina que tratan de resumen de datos, comparación visual, reconocimiento de patrones, etc. Y esos son esencialmente alrededor del 5% de la economía”, dijo en octubre.

Él pide que se dirija más esfuerzo de investigación hacia la creación de herramientas de IA que los trabajadores puedan utilizar, en lugar de bots destinados a reemplazarlos por completo.

Si tiene razón, la IA es poco probable que venga al rescate de países, en particular del Reino Unido, cuya productividad nunca se ha recuperado de la crisis financiera global y algunos de cuyos responsables políticos están ardientemente esperando que el hada de la IA ayude a los trabajadores a hacer más con menos.

La mayor parte es que, cuanto más fragmentarios sean los beneficios de la IA, menores serán los costos que la sociedad deberá estar dispuesta a aceptar, y más deberíamos tratar de asegurar que sean soportados, y donde sea posible mitigados, por los creadores de los modelos.

Estos incluyen costos energéticos masivos pero también los obvios inconvenientes para la política y la democracia de inundar el ámbito público con contenido inventado. Como dijo recientemente Sandra Wachter, del Instituto de Internet de Oxford: “Todo el mundo simplemente tira sus latas vacías al bosque. Así que será mucho más difícil dar un agradable paseo por ahí porque está siendo contaminado, y porque esos sistemas pueden contaminar mucho más rápido de lo que los humanos podrían hacerlo”.

Los gobiernos deberían estar abiertos a adoptar nuevas tecnologías, incluida la IA, pero con un claro entendimiento de lo que pueden y no pueden hacer, acompañado de un sano escepticismo por algunas de las afirmaciones más extremas (y arriesgadas) de sus defensores.

Para el crédito de los ministros, la revisión de gastos de la semana pasada habló tanto de “digitalización” como de IA como una forma de mejorar los servicios públicos.

Los ministros son muy conscientes de que mucho antes de que una gran cantidad de funcionarios públicos sean reemplazados por chatbots, la ciudadanía británica cansada desearía poder escuchar a su médico en algún otro formato que no sea una carta.

ChatGPT y sus rivales tienen un poder asombroso: pueden sintetizar enormes cantidades de información y presentarla en el estilo y formato que desees, y son excelentes para descubrir la sabiduría acumulada de la web.

Pero como cualquier persona que haya conocido a un encantador engañador en su vida te dirá (y quién no ha tenido esa experiencia), es un error pensar que resolverán todos tus problemas, y es prudente mantener la inteligencia alerta.

Para contenido más especializado, suscríbete a nuestro boletín: https://www.theguardian.com/email-newsletters

Nota original: https://www.theguardian.com/business/2025/jun/15/policymakers-who-think-ai-can-help