Artículo
Inteligencia artificial en la justicia latinoamericana: un asunto que es tanto público como privado
Lucía Camacho*
La justicia es quizá uno de los servicios públicos más críticos en el cual se desplegará la inteligencia artificial (IA). Es crítico, pues su funcionamiento en condiciones de independencia e imparcialidad, esenciales para la reparación de derechos que han sido vulnerados, puede verse en riesgo por la apropiación y despliegue de tecnologías digitales poco transparentes o imposibles de auditar, así como poco fiables o seguras.
Y ni hablar del riesgo que supone por sí mismo el despliegue de una tecnología sofisticada en un servicio crítico que también puede ser impactado por la desigualdad digital, tal y como lo demostró la pandemia sólo cuatro años atrás. La brecha digital —que persiste en nuestra región— puede suponer una barrera de acceso a la justicia para la ciudadanía en general, así como un eventual obstáculo para su prestación normalizada.
Para ser tomada en serio, la transformación digital de la justicia, en donde la IA es un componente entre tantos otros, implica ante todo una discusión central sobre los valores que van a irradiar a la justicia a la que aspiramos en países como los nuestros, profundamente desiguales y por lo mismo, en extremo dependientes de la satisfacción de derechos que se conquistan por la vía judicial.
La importancia de no perder de vista el verdadero foco de la discusión radica en que, ante el arribo sucesivo de una nueva o emergente tecnología, su adopción y despliegue no se convierta en un fin en sí mismo, sino en un eventual medio para garantizar, en últimas, la prestación de un servicio crítico para el reclamo y acceso a otros derechos.
Estado de la regulación de la IA en la justicia: vistazo a América Latina
En nuestra región, por ahora, hay más de una centena de proyectos de ley que cursan en los congresos de nuestros países con el fin de regular la IA, aunque casi ninguno presta especial atención a su despliegue en la justicia, sus actores y sus necesidades en razón del contexto local, etc.
Esto, sin duda, es tanto un llamado para los Consejos de la Magistratura o similares para que regulen sobre la materia, especialmente ahora que los Largos Modelos de Lenguaje (LLM) para la generación de texto (como ChatGPT o Google Gemini, entre otros) están al alcance de cualquiera en tanto que son servicios gratuitos y de fácil acceso en línea. Su uso acrítico en casos judiciales, que en Colombia, Perú y México se han tornado mediáticos, da cuenta de la urgencia de tomar cartas en el asunto.
Por ahora, en nuestra región, al menos tres países han avanzado a su manera en esa tarea.
En Brasil, el Consejo Nacional de Justicia expidió en 2020 una resolución y una ordenanza que, por una parte, resaltan la necesidad de la compatibilidad de los sistemas de IA con los valores de la justicia (igualdad, no discriminación, publicidad, transparencia, rendición de cuentas), y por otra, caracterizan algunos elementos imprescindibles en su adopción: seguridad; control por parte de las personas; su desarrollo, entrenamiento y auditabilidad en condiciones de diversidad, transparencia y participación; y la capacitación y entrenamiento de sus usuarios.
En Argentina, el Ministerio de Justicia adoptó en 2024 una resolución que crea el “Programa Nacional Integral de Inteligencia Artificial en la Justicia” enfocado en la creación de un comité consultivo, que tiene entre sus objetivos capacitar a los usuarios del poder judicial, así como advertir de las medidas dirigidas al control de riesgos en su despliegue, entre otros.
Y Perú, donde cursa un proyecto de ley que introduce una reforma constitucional que busca hacer de la IA “uno de los principios de la administración de justicia”, para que su uso sirva al impulso de las “acciones de mero trámite” judicial.
Aún cuando cada caso a su manera aporta elementos interesantes para la discusión, dejan otros fuera que son tanto o más críticos, como la discusión sobre el futuro del trabajo de los trabajadores de la Rama Judicial que se verán impactados por la automatización de sus tareas —y que amerita una columna en sí misma—, y el rol que tienen los actores del sector privado cuyas soluciones de IA busca apropiar el sector público de justicia.
Regular la IA en la justicia implica, ante todo, mirar al sector privado
Nuestros países son focos de recepción, más no de producción de los sistemas de IA sofisticados que existen en el mercado. Por tanto, urge reconocer que los sistemas de IA más avanzados que serán usados en nuestros sistemas de justicia serán, en buena medida, de origen privativo, es decir, creados por unos pocos actores del sector privado que tienen la capacidad técnica, financiera y operativa para su desarrollo y mantenimiento, razón por la que ocupan una posición dominante en la economía digital global.
Se trata de actores privados que se caracterizan, entre otros, por la poca rendición de cuentas asociada a sus operaciones y productos, por la práctica de “no pedir perdón ni permiso” cuando se trata del sacrificio de la privacidad y derechos de propiedad intelectual de terceros en el entrenamiento de sus herramientas, y por no buscar deliberadamente su alineación con las políticas regulatorias de los países en que operan. Por el contrario, acusan a la regulación de los países que lo intentan de generar incertidumbre, o influencian a los reguladores para que cualquiera que sea esa regulación, solo favorezca sus intereses.
Más aún, son actores que, por diversos tratados de libre comercio, estarían protegidos por acuerdos de propiedad intelectual ante eventuales pedidos de apertura del código de sus sistemas de IA, algo en lo que se fundamentan los pedidos para aumentar su transparencia y facilitar su auditoría.
Por lo que los esfuerzos de regulación de la IA en la justicia deben mirar a la realidad del entorno digital global para reconocer que en la ecuación de los sistemas de IA cuya implementación persiguen, sus creadores y desarrolladores juegan un rol esencial.
Es indispensable que se produzcan lineamientos que digan cómo y en qué casos pueden ser usados los sistemas de IA. Pero, ante todo, urgen regulaciones robustas que equilibren en favor de nuestros sistemas judiciales la balanza informativa y de poder que existe entre estos y los actores privados con los que se van a relacionar para que, en el evento en que algo salga mal, en que una IA arroje un resultado que ponga en tela de juicio la correcta imparticipación de justicia, o signifique la discriminación de una persona en su contratación como servidora judicial —por ejemplo—, la justicia pueda hacer rendir cuentas a los actores detrás de las soluciones en que hemos decidido depositar nuestra confianza.
Esta última es una tarea que sin duda corresponde a nuestros congresos. La pregunta es cómo y cuándo se avanzará en marcos regulatorios de ese tipo. Por ahora, estamos en manos de los Consejos de la Magistratura, de la Judicatura o similares, para que dicten lineamientos sobre apropiación de sistemas de IA en la justicia, ojalá mediando la participación ciudadana, la transparencia y publicidad de dichos procesos.
*Este artículo hace parte de nuestra serie de contenidos sobre el próximo XXIX Encuentro de Tribunales, Cortes y Salas Constitucionales de América Latina, que se llevará a cabo del 25 al 27 de septiembre de 2024 en Lima, Perú. Este último día, los jueces y las juezas constitucionales de la región se darán cita en el panel “Usos y desafíos de la inteligencia artificial en la justicia constitucional”.
Colombia
Lucía Camacho
Lucía Camacho es abogada colombiana, especialista en políticas públicas (CLACSO) y máster en derechos humanos (UNSAM); coordina políticas públicas en la organización Derechos Digitales y trabaja en la intersección entre derechos humanos, tecnologías y justicia social, desde hace más de 5 años.