Uso y limitaciones de las herramientas de Inteligencia Artificial en las decisiones judiciales
La Inteligencia Artificial (IA) se ha convertido en uno de los instrumentos más utilizadas por los seres humanos. Desde el ámbito personal al laboral e industrial, la IA es una gran herramienta de ayuda para simplificar tareas, obtener información e incluso generar imágenes, presentaciones o videos.
Sin embargo, existe un ámbito en el que el uso de este instrumento es muchísimo más restringido: el judicial. Al respecto, recientemente la Corte Constitucional conoció, en sede de revisión, de una acción de tutela en la cual el juez de segunda instancia reconoció que utilizó la herramienta ChatGPT en su versión 3.5 para obtener argumentos nuevos y ampliar los suyos propios, de manera que le permitiera darle mayor peso a su decisión.
Se trata de la Sentencia T-323 de 2024 (M.P. Juan Carlos Cortés González; Agosto 2 de 2024). En ésta, la Corte analiza si existió una posible vulneración del derecho al debido proceso, dado el uso de la herramienta ChatGPT por parte del ad quem para la motivación de la sentencia de segunda instancia.
La síntesis de la acción de tutela es la siguiente:
Emilio[1] es un menor de edad que presenta un diagnóstico de trastorno del espectro autista (TEA), por ende, requiere de terapias de rehabilitación. Su madre, Blanca, luego de haber radicado ciertas peticiones a la EPS de su hijo y que éstas fueran aparentemente ignoradas, elevó una acción de tutela solicitando que se ordenara a la EPS: (i) la exoneración del pago de cuotas moderadoras de salud y copagos, dada la situación de discapacidad de su hijo (fundamentándose en lo establecido en el art. 12 de la Ley 1306 de 2009 y la Circular 016 de 2014 del Ministerio de Salud y Protección Social) y (ii) que asumiera los gastos de transporte para poder asistir a las terapias de rehabilitación requeridas, por encontrarse ella clasificada en el SISBEN como pobreza extrema.
El 7 de diciembre de 2022, el Juzgado Municipal amparó los derechos a la salud y a la vida en condiciones dignas de Emilio, ordenando lo solicitado en la tutela. Sin embargo, esta decisión fue impugnada por la EPS, y, por consiguiente, le correspondió su conocimiento al Juzgado del Circuito. El 20 de enero de 2023, el ad quem resolvió confirmarla, señalando que tales circunstancias corresponden a una barrera de acceso a los servicios de salud que debe ser eliminada.
Llama la atención que el Juez del Circuito advirtió en la sentencia de segunda instancia que haría uso de las herramientas de inteligencia artificial generativas, para “extender los argumentos de la decisión adoptada”. Lo anterior con base en la Ley 2213 de 2022, la cual tiene como objeto “implementar el uso de las tecnologías de la información y las comunicaciones en las actuaciones judiciales y agilizar el trámite de los procesos judiciales ante la jurisdicción ordinaria”.
El Juez del Circuito le realizó una serie de preguntas[2] al sistema de IA ChatGPT, cuyas respuestas adjuntó y utilizó, pero asegurando que dichas consultas las hizo con posterioridad a que él mismo hubiese tomado la decisión del fallo, siguiendo los parámetros metodológicos establecidos.
La Corte en sus consideraciones se planteó las siguientes preguntas: ¿el que emitió la decisión fue un Juez de la República o una IA? ¿La decisión fue debidamente motivada o fue producto de respuestas o alucinaciones generadas por IA? ¿Dicho fallo violó el debido proceso?
Ahora bien, el derecho al debido proceso ha sido definido por la jurisprudencia constitucional como “el conjunto de garantías previstas en el ordenamiento jurídico, a través de las cuales se busca la protección del individuo incurso en una actuación judicial o administrativa, para que durante su trámite se respeten sus derechos y se logre la aplicación correcta de la justicia”. Dentro de tales garantías se encuentran: el derecho al juez natural, el derecho al debido proceso probatorio y el derecho al libre acceso a la administración de justicia (el cual incluye el derecho a obtener decisiones motivadas).
Para empezar a resolver las cuestiones que se suscitan en este caso, la Corte analizó qué son los sistemas de IA, llegando a la conclusión de que son sistemas que “tienen la capacidad para analizar el ambiente o entorno en el que están inmersos y así emprender acciones, con algún grado de autonomía, a efectos de alcanzar objetivos específicos”. Por su parte, respecto de ChatGPT, se especificó que, aunque es un sistema entrenado para generar respuestas (output) en función de las entradas (input) que recibe, las mismas no son confiables, pues la información puede variar dependiendo del contexto y de los datos que haya aprendido la máquina.
Respecto a la garantía al juez natural:
Es competente el juez humano a quién la constitución o la ley le ha atribuido el conocimiento de determinado asunto (art. 29 de la Constitución Política). Este componente es fundamental en lo relacionado con el racionamiento lógico humano que debe aplicar el juez, el cual consiste en interpretar hechos y pruebas, y con posterioridad llegar a una decisión a partir de éstas (teniendo la potestad de adoptarla).
Lo anterior lleva a la siguiente pregunta: ¿podría una herramienta de IA como ChatGPT razonar de manera lógica como un ser humano? Téngase en cuenta que este sistema se basa en patrones y datos que le han sido enseñados, lo cual no le permite comprender contextos sociales ni requerimientos humanos. Así, labores de creación de contenido, interpretación de hechos o pruebas y solución de casos llevarían a una suplantación del juez, lo que invalidaría la decisión tomada por la IA y vulneraría el derecho al debido proceso.
Aparte de la competencia, el juez debe tener independencia judicial e imparcialidad frente a los casos de los que conoce. Esto se traduce en la aplicación estricta de la ley sin influencias externas. Tal circunstancia configura la mayor problemática respecto al uso de la IA en la actividad judicial, en tanto estos sistemas se alimentan de múltiples bases de datos e información (las cuales pueden estar desactualizadas, descontextualizadas o propiamente desinformadas), por lo que es muy probable que tengan sesgos, lo que genera discriminación y vulnera derechos fundamentales y podría llevar al juez a caer en errores, y además, que varíen las respuestas dependiendo de quién pregunta, cómo pregunta, por qué pregunta y para qué pregunta.
Respecto a la garantía al debido proceso probatorio:
Al momento de decretar un medio probatorio, le corresponde al juez determinar que éste cumpla los requisitos legales y que su inclusión al proceso no vulnere derechos fundamentales. Por lo tanto, no es posible trasladar esta actividad a una IA, dado que ésta no llega a ser capaz de comprender las formalidades de un ordenamiento jurídico en específico (en este caso el colombiano), lo que puede producir que tergiverse disposiciones normativas y lleve erróneamente a la introducción o exclusión de una prueba.
Otro aspecto relacionado es la posible vulneración a la protección de datos personales, pues para su estudio, la herramienta de IA recibirá (input) la prueba en su estado natural, con el fin de entregar un resultado (output), lo que conlleva necesariamente a que se desvele información sensible de los sujetos procesales, afectando derechos fundamentales como el de habeas data. Esta situación se maximiza cuando estos sistemas son usualmente propiedad de un particular que los desarrolla, lo cual condicionaría a que toda la información que la IA reciba la conozca su propietario. Esto configura una carga de privacidad para el juez.
Respecto a la garantía de libre acceso a la administración de justicia:
De acuerdo con la Corte, la motivación del juez tiene la siguiente metodología: se establece la interpretación de las disposiciones normativas (siempre y cuando sean conformes a lo establecido en la Constitución Política), y se determina cómo, a partir de las pruebas y los hechos, se puede subsumir en caso concreto en el supuesto de hecho de una regla jurídica aplicable al caso. La motivación de una sentencia judicial en la que se usó una herramienta de IA puede convertirse en falsa, aparente o sofística, dada la incertidumbre de las respuestas generadas por ésta.
Asimismo, utilizar la IA en una decisión judicial implica para el funcionario una carga de transparencia, por la cual, además de informar que hizo uso de la IA, debe especificar en qué etapas del proceso lo hizo, qué resultados arrojó, cómo pueden impugnarse tales decisiones y qué mecanismos existen para proteger los derechos fundamentales de las partes procesales. Igualmente, es necesario que precise el conocimiento que tenga sobre el sistema de IA que usó y las capacidades y limitaciones de éste.
El anterior análisis le permitió a la Corte concluir que el funcionario judicial que encuentre necesario y pertinente recurrir a los sistemas de IA, deberá incurrir en un ejercicio valorativo de la información generada, e igualmente tendrá que contrastar la información que arroja el sistema, teniendo en cuenta que esta sea apropiada para el caso a analizar y que la misma puede ser riesgosa, por lo cual, acarrea una carga de responsabilidad.
Ahora bien, ¿en qué actividades sí puede ser fácilmente utilizada la IA en el sistema judicial?
Para los ámbitos de gestión judicial, administrativa y documental, corrección y síntesis de textos largos, discriminación de información y generación de predicciones, siempre y cuando se haga bajo la supervisión del funcionario o empleado de la Rama Judicial. Esto es útil para el manejo y aprovechamiento del tiempo, y se traduce en una mayor productividad.
Así las cosas, el funcionario judicial que utilice sistemas de IA siempre deberá tener en cuenta los presupuestos de: no sustitución de la racionalidad humana, transparencia, responsabilidad y privacidad. La Corte establece: “el juez incumple sus deberes legales cuando, habiendo utilizado IA en una decisión judicial, (i) la emplea en el ejercicio de funciones de raciocinio que son indelegables e irremplazables; (ii) no es transparente con el usuario de la administración de justicia revelando el uso de IA y, con ello, compromete la garantía efectiva de su derecho de contradicción;
(iii) no realiza de manera rigurosa la verificación de la fiabilidad de la información que soporta la motivación del fallo pudiendo comprometer la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA; y/o (iv) no adopta las cautelas necesarias para evitar la transgresión de derechos como el habeas data o la intimidad”.
En relación con el caso que motivó el presente estudio, la Corte encontró que no existió vulneración a las garantías del debido proceso, dado que el Juez del Circuito, antes de acudir a ChatGPT para complementar sus argumentos, ya había hecho un análisis propio correspondiente a la metodología de las decisiones judiciales (identificación de la tesis a sostener, de las normas constitucionales aplicables al caso y de los referentes jurisprudenciales por tener en cuenta y posteriormente la toma de decisión). Lo anterior valida la sentencia de segunda instancia y la legitima.
Por último, no siendo ajena a la realidad actual en la cual las tecnologías de la información (específicamente los sistemas de IA) son predominantes en el diario vivir, la Corte ordenó al Consejo Superior de la Judicatura que, “en el término de cuatro (4) meses, contados a partir de la notificación de esta providencia, divulgue una guía, manual o lineamiento en relación con la implementación de la IA generativa en la Rama Judicial, especialmente en cuanto al uso de la herramienta ChatGPT, regulación que deberá ser acorde con los aspectos establecidos en esta providencia (…)”.
[1] Se respetan los nombres elegidos por la Corte para la privacidad de los involucrados.
[2] Estas fueron: ¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias? ¿Las acciones de tutela en estos casos se deben conceder? ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud? ¿La jurisprudencia de la Corte Constitucional ha tomado decisiones favorables en casos similares?
