Vistas de página en total

sábado, 18 de enero de 2025

Los riesgos de usar descuidadamente en la redacción de escritos procesales la llamada "inteligencia artificial"

 

En esta ocasión nos apartamos un poco de la temática habitual de este blog para dar cuenta de un hecho recogido por la prensa especializada que pone de relieve que un uso no controlado de los aplicativos por los que se accede a los servicios de la llamada inteligencia artificial puede tener funestas consecuencias, en este caso en el ejercicio de la profesión de jurista.

Los hechos se relatan en el auto de la sala de lo civil y lo penal del Tribunal Superior de Justicia de Navarra de 4 de septiembre de 2024  en el que se examina si ha existido abuso de derecho o mala fe procesal en la conducta de una persona profesional del derecho por haber presentado un escrito procesal ante la Adminstración de Justicia española haciendo referencia a un precepto del código penal de Colombia, por haber asumido acríticamente una respuesta de un sistema de inteligencia artificial. 

El procedimiento se incoó después de la inadmisión de una querella criminal por los mismos hechos y en aplicación del artículo 247 de la Ley de enjuiciamiento civil, que establece que los intervinientes en todo tipo de procesos deben ajustarse en sus actuaciones a las reglas de la buena fe, y que en caso de conculcación por alguna de las partes de las reglas de la buena fe procesal, puede ser sancionada con una multa que podrá oscilar de ciento ochenta a seis mil euros, sin que en ningún caso pueda superar la tercera parte de la cuantía del litigio.

El detalle de los hechos se expone en el escrito de descargos presentado por la persona responsable, en el que se dice que

presentó escrito solicitando subsanación de error material grosero e involuntario padecido en la redacción de la página 36 del escrito rector de la querella, debiendo tener tal párrafo por no puesto por haber incurrido en completo, absoluto y grosero error material al corresponder el precepto citado en dicho escrito -que no correspondía al Código Penal del Reino de España sino al Código Penal de Colombia - al que fue facilitado por la inteligencia artificial, debido a un manejo inadecuado por parte de su despacho del sistema de inteligencia artificial CHATGPT 3, del que se excusó por escrito y por el que expuso al Tribunal las más sinceras excusas. 

El fragmento controvertido es el siguiente:

"La Sala segunda del Tribunal Supremo viene señalando que, de acuerdo con el artículo 454B del Código Penal, la conducta se describe en los siguientes términos: "El que para evitar que se use como medio cognoscitivo durante la investigación, o como medio de prueba en el juicio, oculte, altere o destruya elemento material probatorio de los mencionados en el Código de Procedimiento Penal, incurrirá en ..."

Como es sabido, ni existe tal artículo, ni la tipificación ni incluso el mismo código referenciado en el ordenamiento jurídico español. Ni la sala segunda del Tribunal Supremo -español- se ha pronunciado sobre ese inexistente precepto en el derecho positivo español.

Vale la pena reproducir las consideraciones del Tribunal, que advierten sobre los riesgos de la utilización sin reflexión y verificación posterior de los resultados que ofrecen los aplicativos de la inteligencia artificial:

El uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo. 

Law Society publicó nuevas orientaciones para la profesión en noviembre de 2023 sobre el uso de herramientas de inteligencia artificial generativa, en las que afirmaba que los abogados son responsables de los productos de trabajo generados utilizando «soluciones basadas en la tecnología» e instaba a los abogados a «revisar cuidadosamente el contenido y garantizar su exactitud». 

El Consejo de la Abogacía Europea (CCBE)también ha abordado la regulación de la inteligencia artificial en el ejercicio de la abogacía en el documento titulado "Consideraciones de CCBE sobre los aspectos legales de la inteligencia artificial"y, entre otras consideraciones, aboga por la supervisión humana efectiva en el uso de herramientas de IA en el ámbito de justicia como precondición de un sistema de justicia propio de un Estado de Derecho. 

Los riesgos de usar ChatGPT y otras herramientas similares con fines legales se cuantificaron recientemente en un estudio de enero de 2024: Matthew Dahl et. al., «Large Legal Fictions: Elaboración de perfiles de alucinaciones jurídicas en modelos lingüísticos de gran tamaño» (2024). El estudio encontró que las alucinaciones legales son alarmantemente prevalentes, ocurriendo entre el 69% del tiempo con ChatGPT 3.5 y el 88% con Llama 2. Además, constató que los modelos lingüísticos de gran tamaño a menudo no corrigen las suposiciones jurídicas incorrectas de un usuario en una configuración de preguntas contrafactuales, y que los modelos de lenguaje de gran tamaño (LLM) no siempre pueden predecir, o no siempre saben, cuándo están produciendo alucinaciones legales. El estudio afirma que «en conjunto, estos hallazgos advierten contra la integración rápida y sin supervisión de los LLM populares en las tareas legales».

Se hace referencia también a un caso de derecho comparado en que

un Juez de Distrito de Estados Unidos razonó en el año 2023 - caso Avianca- la imposición de una sanción económica de 5.000 dólares por el uso indebido de ChatGPT en los escritos procesales, clarificando que no hay nada intrínsecamente incorrecto en que los abogados utilicen la inteligencia artificial como ayuda, pero añadiendo a continuación que las normas deontológicas de la abogacía imponen a los abogados una función de control para garantizar la exactitud de sus presentaciones. 

Al final, la sangre no llegó al río, y el Tribunal, atendiendo a la pronta reacción del rsponsable advirtiendo del error y pidiendo excusas, acordó prudentemente archivar la pieza separada, 

sirviendo la presente -quizá- de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías.

No hay comentarios:

Publicar un comentario