Tribunal de Georgia Anula Orden por Citar Jurisprudencia Inventada por IA

'Nos preocupa la citación de casos falsos en la orden del tribunal de primera instancia'
La Corte de Apelaciones de Georgia ha anulado una orden de un tribunal de primera instancia del estado porque se basaba en casos judiciales que no existen, presumiblemente generados por un modelo de IA.
Las citas erróneas, dijo la corte de apelaciones, parecen haber sido "redactadas utilizando IA generativa".
Los jueces ya han reprendido a abogados por citar falsedades de IA en los documentos legales, pero aquí en realidad revocaron la orden de un tribunal inferior.
El caso involucra a la esposa Nimat Shahid, quien intentó impugnar una orden de divorcio otorgada a su esposo Sufyan Esaam en julio de 2022. La decisión de un tribunal inferior en el caso incluía citas fabricadas por un modelo de IA, y Shahid apeló.
La Corte de Apelaciones de Georgia determinó que los casos falsos eran suficientes para anular la orden del tribunal de primera instancia.
"Nos preocupa la citación de casos falsos en la orden del tribunal de primera instancia", dijo la corte de apelaciones en su decisión [PDF], que ordena al tribunal inferior que revisite la petición de la esposa.
"Como tribunal de revisión, no realizamos hallazgos de hecho sobre cómo ocurrió esta impropiedad, observando solo que la orden supuestamente fue preparada por la abogada del esposo, Diana Lynch."
- Académicos cuelan frases en documentos para engañar a revisores de IA
- Juego, set, fallo: La arbitración de IA en Wimbledon se complica
- La destituida jefa de derechos de autor de EE.UU. argumenta que Trump no tuvo poder para destituirla
- Las empresas de la UE quieren una pausa en las regulaciones de IA
Los jueces de primera instancia a menudo confían en los abogados para redactar las órdenes judiciales propuestas. Lynch no respondió de inmediato a una solicitud de comentarios.
Los jueces de apelación señalaron que Lynch repitió las citas falsas en la orden del tribunal de primera instancia ante el tribunal de apelaciones y las amplió, incluso después de que Shahid desafiara los casos ficticios en la orden del tribunal de primera instancia. En total, el tribunal de apelaciones dijo que los escritos de apelación de Lynch contenían "11 citas de casos falsos de un total de 15, una de las cuales estaba en apoyo de una solicitud frívola de honorarios de abogado."
El tribunal de apelaciones multó a Lynch con $2,500 como penalización por presentar una moción frívola por honorarios de abogado.
La orden de apelación cita un informe de la Corte Suprema de EE.UU. como advertencia, señalando:
En su Informe de Fin de Año 2023 sobre el Poder Judicial Federal, el presidente del Tribunal Supremo, John Roberts, advirtió que "cualquier uso de la IA requiere cautela y humildad". Roberts notó específicamente que las aplicaciones de IA comúnmente utilizadas pueden ser propensas a "alucinaciones", lo que llevó a los abogados que usaban esos programas a presentar escritos con citas de casos inexistentes.
En ese momento, el presidente del Tribunal Supremo, Roberts, presumiblemente estaba al tanto de Mata v. Avianca, en el que se sancionó a los abogados del demandante por citar casos falsos, y quizás United States v. Hayes y United States v. Cohen, que también surgieron en 2023.
Desde entonces, el uso acrítico de la IA ha continuado, en casos como Concord Music Group vs. Anthropic, Wadsworth v. Walmart y Kohl's et al. v. Ellison, entre otros. Se han documentado al menos 200 instancias que involucran alucinaciones de IA en disputas legales.
¡No te pierdas nuestras noticias! Suscríbete a nuestro boletín para obtener contenido más especializado.
Comments ()