Primero debemos entender qué puede hacer la inteligencia artificial (IA) y qué no. Distingo tres tipos de uso apropiados de la IA en los sistemas de administración de justicia: las actuaciones mecánicas, como transcribir audiencias o resumir expedientes; las actuaciones proactivas, como alertas sobre plazos por vencer; y las actuaciones asistidas, esto es, borradores que el servidor judicial debe revisar y aprobar antes de convertirse en resolución. Lo relevante es que ninguno implica reemplazar al juez en su labor jurisdiccional, y ese es el punto central de esta reflexión: los sistemas asisten, pero no deciden.
En esa línea, la Comisión Europea para la Eficacia de la Justicia adoptó en 2018 una Carta Ética sobre el uso de la inteligencia artificial en sistemas judiciales, estableciendo cinco principios fundamentales: el respeto a los derechos fundamentales, incluido el debido proceso; la no discriminación, para prevenir que los algoritmos reproduzcan sesgos existentes; la calidad y la seguridad, que demanda entornos tecnológicos protegidos; la transparencia, que permite comprender cómo se llegó a un resultado; y el control humano, a mi juicio el más importante, que garantiza que el juez utilice la información como referencia, pero aplique siempre la sana crítica según las particularidades de cada caso.
Lo anterior cobra relevancia cuando miramos las limitaciones de los sistemas de inteligencia artificial, especialmente de la inteligencia artificial generativa y los grandes modelos de lenguaje (LLM) (como ChatGPT o Gemini). Una de las más conocidas son las alucinaciones: según OpenAI, algunos modelos generan información falsa entre el 33% y el 48% del tiempo, con una apariencia de certeza que confunde incluso a usuarios entrenados, por ejemplo, citando jurisprudencia o leyes que no existen. El problema no es que fallen, pues son modelos en constante perfeccionamiento; el problema es usar sus respuestas como fuentes infalibles.
En otras palabras, estos modelos no son buscadores, sino generadores de información. Esta distinción es clave. Un buscador, como Google, rastrea información existente y remite a fuentes; un modelo de lenguaje, como ChatGPT, predice la respuesta más probable según patrones aprendidos, sin verificar si es cierta. Por eso puede producir textos impecables en forma, pero inventados en contenido. Si no entendemos esa diferencia, la tecnología se vuelve una barrera para el acceso a la justicia y el debido proceso, en vez de una herramienta.
De allí se desprende el segundo límite, menos técnico y más institucional: la alfabetización tecnológica. Es difícil pedirle a quien no maneja herramientas informáticas básicas que use responsablemente la inteligencia artificial. Y el reto es mayor cuando, según cifras del Programa de Naciones Unidas para el Desarrollo, en América Latina apenas el 50% de los hogares cuenta con banda ancha fija. Por ello, pensar que la IA resolverá mágicamente la brecha digital o, peor aún, el rezago judicial, es ingenuo. Lo sensato es comenzar con lo básico: capacitaciones sobre cómo funciona y cómo emplear la tecnología para tareas concretas que hoy consumen horas, liberando tiempo para analizar hechos, interpretar normas y razonar cada caso en sus propios términos.
Y todavía falta un tercer frente igual de decisivo: la seguridad. Las bondades de la IA pueden convertirse en riesgos si no se administran con responsabilidad: hackeos, ransomware y robo de datos sensibles exigen previsión y protección reforzada, porque de nada sirve modernizar si dejamos la puerta abierta.
En síntesis, la IA puede ser una aliada útil si se le asigna un lugar correcto: apoyo operativo sin sustituir el razonamiento humano. Sin reglas, sin formación y sin seguridad, la tecnología no moderniza la justicia; solo la vuelve más vulnerable.
La autora es amiga de la Fundación Libertad.


