Informe: La Herramienta de IA que Redacta Informes Policiales Requiere Mayor Supervisión y Transparencia

Según la Electronic Frontier Foundation, la herramienta Draft One de Axon carece de características para determinar qué partes de un informe policial fueron redactadas por un humano y cuáles fueron generadas por una máquina.
Por Keely Quinlan

Draft One de Axon, una herramienta de inteligencia artificial generativa que ayuda a los oficiales de policía a redactar informes basados en el audio de cámaras corporales, carece de mecanismos de supervisión y transparencia, según un informe publicado el jueves por la Electronic Frontier Foundation.
El informe sigue a una investigación realizada por la EFF utilizando registros públicos que la organización obtuvo de docenas de agencias de policía que utilizan Draft One, así como los manuales de usuario de la herramienta y otro material de marketing. Se encontró que la herramienta, aparentemente por diseño, carece de características de supervisión significativas, lo que podría permitirle eludir auditorías. La falta de supervisión, afirma el informe, podría dificultar la evaluación de cómo la herramienta afecta los resultados de justicia penal.
El uso de la herramienta se ha expandido después de que un puñado de agencias de policía y de aplicación de la ley comenzara a utilizar la tecnología el otoño pasado. La investigación de la EFF encontró que la Oficina del Sheriff del Condado de Palm Beach, que requiere una divulgación al final de cada informe policial si fue generado por IA, utilizó Draft One para generar más de 3,000 informes entre diciembre de 2024 y marzo de 2025.
La tecnología de IA generativa de Draft One se basa en una variante de ChatGPT de OpenAI para procesar el audio de cámaras corporales, y crea informes policiales basados únicamente en el diálogo capturado. El informe de la EFF señala que los informes policiales generados por Draft One presentan marcadores entre corchetes donde se alienta a los oficiales a agregar observaciones o información adicional, y que se espera que los oficiales editen el informe para corregir problemas causados por la falta de contexto, traducciones problemáticas u otros errores potenciales.
Cuando los oficiales terminan de revisar los informes generados por IA, deben firmar un reconocimiento de que el informe fue generado utilizando Draft One, y que han revisado el informe por precisión y realizado las ediciones necesarias. Los oficiales pueden copiar y pegar el texto en el informe oficial, pero al cerrar la ventana de trabajo de Draft One, el borrador desaparece y la herramienta no crea un registro de qué partes del informe final fueron generadas por la IA y cuáles fueron editadas por un oficial de policía posteriormente.
La EFF sostiene que la falta de tal registro es el problema más preocupante. Cuando hay errores, como lenguaje sesgado, inexactitudes, malas interpretaciones o mentiras, es imposible probar si fue el oficial o la IA. El gerente principal de producto senior de Axon para inteligencia artificial generativa, según el informe, dijo que la falta de conservación de registros fue intencional, ya que retener los registros "crearía más dolores de cabeza en términos de divulgación para nuestros clientes y las oficinas de abogado".
“La policía no debería estar utilizando IA para redactar informes policiales”, dijo Matthew Guariglia, analista de políticas senior de la EFF, en un comunicado de prensa. “Quedan demasiadas preguntas sin respuesta sobre cómo la IA traduciría el audio de situaciones, si la policía realmente editará esos borradores y si el público podrá alguna vez discernir qué fue escrito por un ser humano y qué fue escrito por una computadora. Esto antes de que lleguemos a la cuestión de cómo estos informes podrían generar problemas en un sistema de justicia penal ya injusto y poco transparente.”
Para más contenido especializado, no te olvides de suscribirte a nuestro boletín.
Comments ()