Los 1.000 años de historia del sistema judicial de Inglaterra no fueron un impedimento para que se tomara la decisión de la que inteligencia artificial pueda ser usada por los jueces para apoyarse en la elaboración de sus sentencias.
El Poder Judicial de Cortes y Tribunales de Inglaterra ha dado la autorización para que los jueces empleen la IA en la producción y evaluación de fallos legales. Para que lo puedan hacer elaboraron una guía para mantener ciertos marcos y que no se exponga la información privada o se tomen decisiones dejando de lado la ética legal.
“La guía es el primer paso de un conjunto de trabajos futuros propuestos para apoyar al poder judicial en sus interacciones con la IA. Todo el trabajo será revisado a medida que la tecnología continúe desarrollándose”, publicaron en el informe.
Sin embargo, esta no ha estado exenta de cuestionamientos. El segundo juez de mayor rango en Inglaterra y Gales, Master of the Rolls Geoffrey Vos, destacó la importancia de un uso cuidadoso de la IA por parte de los jueces. Afirmó que, si bien los jueces pueden recurrir a esta herramienta, deben salvaguardar la confianza del público y “asumir la plena responsabilidad personal por todo lo que produzca” en la interacción con las herramientas disponibles.
Por su parte, Ryan Abbott, profesor de derecho en la Universidad de Surrey, señaló que la tecnología puede interrumpir el desarrollo de las decisiones judiciales, teniendo en cuenta que hay dudas sobre su implementación en otros ámbitos.
“La IA y el poder judicial es algo que preocupa especialmente a la gente, y es un lugar donde somos particularmente cautelosos a la hora de mantener a los humanos informados. Así que creo que la IA puede perturbar la actividad judicial más lentamente que en otras áreas y procederemos con más cautela allí”, dijo a AP.
Cómo se podrá usar la IA en las sentencias judiciales
Jueces y magistrados ahora pueden emplear herramientas como ChatGPT para redactar sentencias y fallos judiciales, con una guía establecida para su uso responsable.
En la guía, la Oficina Judicial ha enfatizado la importancia de proteger la información confidencial y privada al interactuar con plataformas de IA, instando a evitar el ingreso de datos no públicos en los chatbots y a desactivar el historial de chat cuando sea posible.
“Esa información luego está disponible para ser utilizada para responder a consultas de otros usuarios. Como resultado, cualquier cosa que escribas podría hacerse pública. Debes desactivar el historial de chat en los chatbots de IA si está disponible”, se detalla en el informe.
También, advierten sobre la posibilidad de divulgación involuntaria de información confidencial por parte de algunas plataformas de IA, resaltando la necesidad de rechazar permisos que otorguen acceso a información sensible en dispositivos móviles y la responsabilidad inmediata en caso de divulgación accidental.
La controversia se ha avivado aún más tras la revelación del juez Briss, miembro del Tribunal de Apelaciones de Inglaterra y Gales, usó ChatGPT para resumir teorías jurídicas. Aunque en algunos casos pueda ser un proceso efectivo, también pueden presentarse situaciones en las que se presenten fallos y sea contraproducente con el ámbito legal.
Por ese motivo, en la guía les piden a los jueces verificar “la precisión de las respuestas de la IA antes de tomar decisiones que alteren el curso de la vida de las personas”. Teniendo en cuenta que tanto ChatGPT como Bard advierten que los resultados que ellos generan nunca deben ser tomados como asesoramiento legal o quienes tomen las decisiones en casos judiciales, ya que estos chatbots solo ayudan a buscar información o a redactar textos.