INTELIGENCIA ARTIFICIAL

Jurado multa a abogados que intentaron presentar un caso creado en ChatGPT

Dos abogados fueron condenados a pagar 5 mil dólares al intentar engañar a un juez norteamericano presentando una demanda creada por la inteligencia artificial

MUNDO

·
Los abogados fueron acusados de querer engañar al jurado.Créditos: Pexels

Un juez federal impuso multas de 5 mil dólares a dos abogados y a un bufete jurídico en un ejemplo sin precedentes en que se responsabilizó a ChatGPT por el hecho de que ellos presentaran investigaciones jurídicas ficticias en una reclamación por lesiones de aviación.

El juez P. Kevin Castel dijo que actuaron de mala fe, pero reconoció sus disculpas y los pasos tomados para remediar el daño al explicar por qué no era necesario aplicar sanciones más duras para asegurar que ellos u otros no vuelvan a permitir que herramientas de inteligencia artificial los impulsen a producir historias jurídicas falsas para usarlas en sus argumentaciones.

"Los avances tecnológicos son comunes y no hay nada inherentemente inadecuado con respecto a utilizar una herramienta confiable de inteligencia artificial para que proporcione apoyo, pero las normas existentes les imponen a los abogados un papel de verificación para asegurar la exactitud de sus declaraciones", escribió Castel.

El juez dijo que los abogados y su firma, Levidow, Levidow & Oberman, P.C., abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con declaraciones falsas y referencias creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron respaldando las opiniones falsas después de que órdenes judiciales pusieron su existencia en entredicho.

"Respetuosamente estamos en desacuerdo con el hallazgo de que alguien en nuestra firma actuó de mala fe. Ya hemos ofrecido disculpas a la corte y a nuestro cliente. Seguimos creyendo que, ante lo que incluso la corte reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una unidad de tecnología pudiese estar inventando casos sin basarse en hechos ni la realidad”, señaló el bufete jurídico en un comunicado de prensa.

Castel dijo que la mala fe fue resultante de las fallas de los abogados en responder adecuadamente al juez y a sus adversarios jurídicos cuando se observó que seis casos jurídicos enumerados para respaldar sus argumentos escritos del 1 de marzo no existían.

El juez citó explicaciones cambiantes y contradictorias ofrecidas por el abogado Steven A. Schwartz. Dijo que el abogado Peter LoDuca mintió cuando dijo que estaba de vacaciones y fue deshonesto con relación a confirmar la veracidad de las declaraciones presentadas ante Castel.

En una audiencia este mes, Schwartz dijo que usó el chatbot que funciona con inteligencia artificial para que le ayudara a hallar precedentes jurídicos que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión que sufrió en un vuelo de 2019.

El chatbot, que genera respuestas similares a ensayos a las solicitudes que le hacen sus usuarios, sugirió varios casos que involucraban percances de aviación que Schwartz no había podido hallar a través de los métodos usuales utilizados en su bufete jurídico. Varios de esos casos no eran reales, identificaban erróneamente a jueces o involucraban aerolíneas que no existían.

En una opinión escrita por separado, el juez desechó la reclamación subyacente de aviación, diciendo que el asunto ya había prescrito.