Inteligencia artificial

¿Dejarías que una IA sea tu juez en los tribunales? España ya ha empezado a usar esta tecnología

Esto es lo que dice la normativa y también le consultamos a ChatGPT su opinión al respecto.

Inteligencia artificial
Ventajas y desventajas de una IA en el estradoDesigner/JSDesigner/JS

La inteligencia artificial ya no se queda solo en las empresas o en el ámbito privado, también se ha introducido en la administración pública y más recientemente en un área bastante polémica: la justicia. Y con diferentes resultados.

Uno de ellos es el proyecto AI4Justice, en Cataluña. Aquí se utiliza la IA para ayudar a los jueces en la redacción de sentencias, actuando básicamente como un buscador: busca palabras claves en jurisprudencia previa. Esta iniciativa ha permitido reducir el tiempo de redacción de sentencias de dos horas a aproximadamente 20 minutos.

Desde el mismísimo Ministerio de Justicia, señalan que se ha aprobado una política para mejorar la eficiencia del sistema judicial gracias al uso de la IA. El documento establece las “reglas de juego” para usar esta tecnología sin dejar de lado la parte ética.

Los beneficios son bastante evidentes. El uso de la IA permite una gestión administrativa más rápida y eficiente. También garantizaría consistencia en las decisiones judiciales, al prescindir de datos subjetivos. Finalmente, puede convertirse en un recurso legal muy potente para personas con menos recursos.

Pero no todo son buenas noticias. El primero de los riesgos es que una IA es una herramienta programada por humanos y aquí los sesgos pueden reflejar prejuicios que alteren un veredicto. Al mismo tiempo, es muy difícil comprender cómo una IA llega a una sentencia, lo que complica pensar en una apelación si no se sabe el camino que siguió este “juez”. Y a esto hay que sumarle dos aspectos estrictamente tecnológicos. El primero de ellos es que la justicia se deshumaniza, desaparecen los factores humanos en un ámbito que sí lo es. El segundo aspecto es que, si la IA comete un error… ¿Quién es el culpable?

Para saber qué piensa una IA en este sentido, consultamos a ChatGPT. Esta es su respuesta: “La IA podría ser una gran herramienta para apoyar el sistema judicial, pero no debería sustituir el juicio humano. Su mejor uso sería como un asistente que ayude a jueces y abogados, no como un ente que dicte sentencias. La justicia no es solo datos y reglas, también implica interpretación, equidad y empatía, aspectos en los que la IA todavía está muy lejos de los humanos”.

Respuesta de ChatGPT
Respuesta de ChatGPTChatGPTChatGPT

Lo interesante es que también le preguntamos sobre la diferencia entre los errores que puede cometer un humano y los que puede tener una IA y por qué comprendemos mejor los primeros.

“Esa es una excelente reflexión – explica ChatGPT -, y toca el corazón del debate sobre IA y justicia. ¿Por qué confiamos más en un juez humano, con sus sesgos y limitaciones, que en un algoritmo creado por humanos? Cuando un juez se equivoca, entendemos que los humanos son falibles. Podemos apelar, debatir y contextualizar su error. Pero cuando un algoritmo se equivoca, la sensación es diferente: lo percibimos como algo mecánico e inflexible, y lo peor es que puede cometer el mismo error de forma masiva y sistemática sin que nadie lo note a tiempo. Entonces, ¿podemos confiar en una IA en los tribunales?
Quizás la clave no sea "confiar o no confiar", sino definir su rol. La IA puede ser una herramienta para ayudar a los jueces, mejorar la eficiencia y detectar sesgos, pero no para sustituir el criterio humano”.