La Comisión Iberoamericana de Ética Judicial avaló el uso de la Inteligencia Artificial (IA) en las actividades jurisdiccionales de los Poderes Judiciales, aunque planteó la necesidad de que su uso sea “transparente y comprensible” para las personas juzgadas y la ciudadanía; y recomendó que no se utilice en “razonamientos complejos ni en el ejercicio de técnicas de ponderación en las decisiones judiciales”.
Esa fue una de las conclusiones de la última reunión de la comisión directiva de la CIEJ, que el ministro del Superior Tribunal de Justicia, Eduardo Fernández Mendía, integra en representación de la Argentina.
En la sesión, realizada vía Zoom, se aprobaron tres dictámenes. Uno sobre el uso ético de la inteligencia artificial en la labor jurisdiccional; otro acerca de la proyección pública de la vida privada de los jueces y su relevancia ética; y el restante documento acerca de las exigencias éticas frente a un exceso en la invocación de inhabilidades para juzgar.
“La implementación de los sistemas de IA puede mejorar la eficiencia y ser de ayuda en los procesos judiciales. No obstante, debe mantenerse la supervisión o revisión humana para prevenir cualquier funcionamiento indebido o desviado que pueda afectar a la adecuada prestación del servicio judicial”, indicó la Comisión a modo de resumen del primero de los documentos.
Además descartó su utilización para predecir la reincidencia. “No es prudente que las personas juzgadoras se dejen influir por este tipo de proyecciones a la hora de emitir sus sentencias, ya que ellas deben estar orientadas por la legislación y la valoración fáctica de cada caso concreto”, acotó.
En cambio, la CIEJ –que actualmente está integrada por representantes de Argentina, Brasil, Colombia, Uruguay, Costa Rica, Cuba, España, Paraguay, Portugal y República Dominicana– expresó que la IA puede colaborar en las “tareas repetitivas que generen patrones de un mismo comportamiento y así predicciones, tanto en el funcionamiento como en la clasificación de gestiones, el cumplimiento de requisitos, la cumplimentación de formularios y otras tareas de similar naturaleza”.
En tal sentido pidió que para transparentar su uso, “los desarrollos de la inteligencia artificial se basen en algoritmos de ‘cajas blancas’ – y no en ‘cajas negras’– que eviten la opacidad; es decir que deben guiarse por la explicabilidad y permitir la trazabilidad, lo que implica que a la persona usuaria se le informe y sepa cuándo interactúa con un sistema de IA”.
Además la CIEJ requirió la capacitación de jueces, juezas, funcionarios/as y empleados/as, la “protección de datos sensibles y restringidos de las personas usuarias” y el establecimiento de “sistemas de control y vigilancia informática para prevenir cualquier tipo de vulneración externa, facilitando la detención de hackers”.
En los otros dos dictámenes, la Comisión planteó la necesidad de seguir “fomentando y afianzando en los jueces y juezas una conducta ética que consolide la credibilidad de los ciudadanos en los sistemas de justicia” y sugirió no hacer un empleo desmedido de la excusaciones, más allá de que “el uso del derecho a la inhibición es un pilar que potencia la transparencia de la actuación de los sistemas de justicia”.