INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
Por Maximiliano Paulo Ernesto Parrón Baldoni
RESUMEN: Este trabajo analiza la relación entre la inteligencia artificial (IA) y el sistema judicial, a partir de una revisión crítica de su conceptualización y de su implementación en distintas experiencias jurídicas. Se describen diversos modelos de sistemas expertos aplicados en el derecho comparado y se examinan sus mecanismos de funcionamiento en el ámbito de la administración de justicia. Asimismo, se identifican las posibles transformaciones que la adopción de la IA podría provocar en la estructura del proceso judicial y en la configuración de la relación entre el Estado y la ciudadanía.
PALABRAS CLAVES: INTELIGENCIA ARTIFICIAL, SISTEMA JUDICIAL, SISTEMAS EXPERTOS, AUTOMATIZACIÓN JUDICIAL, SISTEMAS ALGORÍTMICOS.
ABSTRACT This paper analyzes the relationship between artificial intelligence (AI) and the judicial system, based on a critical review of its conceptualization and implementation across various legal experiences. It describes different models of expert systems applied in comparative law and examines their operational mechanisms within the administration of justice. Additionally, it identifies the potential transformations that the adoption of AI could bring about in the structure of judicial proceedings and in the configuration of the relationship between the State and its citizens.
KEY WORDS: ARTIFICIAL INTELLIGENCE, JUDICIAL SYSTEM, EXPERT SYSTEMS, JUDICIAL AUTOMATION, ALGORITHMIC SYSTEMS.

Artículo publicado bajo Licencia Creative Commons Atribución-No Comercial-Sin Derivar. © Universidad Católica de Córdoba
DOI: https://doi.org/10.22529/rbia.2025(7)03
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 41
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
INTRODUCCIÓN :
La automatización de los procesos en las distintas disciplinas ha traído múltiples interrogantes respecto a su implementación, generando debates en torno a sus resultados. El abordaje de la inteligencia artificial (en adelante IA) y su mayor sofisticación propició la discusión de cómo debería entenderse su correcto uso y si resulta aplicable a todas las disciplinas o bien, algunas merecen un estado de reserva. Esto es así, toda vez que estos sistemas se encargan de replicar y desarrollar procesos cognitivos de las personas a través de las computadoras, por lo que se llega a entender que piensan racionalmente y que actúan en ese sentido (Russell, S. J. y Norvig, P., 2004), es así como logran sintetizar y automatizar tareas que en principio son intelectuales.
Si bien el término inteligencia artificial fue acuñado formalmente por John McCarthy en el año 1956, quien la definió como aquella ciencia e ingenio de hacer máquinas inteligentes, la conceptualización dada por el Grupo de expertos de alto nivel sobre IA de la Comisión Europea (2019) resulta más comprensible debido a su actualidad y su proyección evolutiva.
El desarrollo de este conocimiento trajo consigo interrogantes en torno a sus implicancias éticas, sociales y filosóficas. Es así como se ha puesto como tema de discusión su aplicación en ciertas áreas, tales como las ciencias sociales, particularmente en lo que respecta al derecho.
Aunque son recientes los avances de la IA y el mundo jurídico, y más singular lo es en lo atinente a los procesos judiciales, se generaron múltiples debates en torno al uso de la IA en lo que refiere a su vinculación con los principios que rigen al campo del derecho e institutos que le son propios, siendo expuesto por destacados juristas quienes intentan satisfacer los cuestionamientos que emergen.
Cabe destacar la importancia de los documentos confeccionados por la Comunidad Europea a partir del año dos mil dieciocho, pioneros en la regulación y debido uso de esta tecnología, porque tienen por meta servir de punto de partida y abordar las consecuencias de su implementación, con sus consecuentes advertencias que destaquen los riesgos y límites de su implementación, exponiendo que se trata de una herramienta de alto riesgo para ser utilizada por las autoridades judiciales, la administración de justicia y procesos democráticos. Mientras que otros autores resaltan que su armonización con el sistema judicial puede conllevar múltiples beneficios, tales como Corvalán (2019; 2021) que muestra resultados positivos de la combinación de la IA y la administración pública debido a la economía de recursos destinados -de personal, económicos e inmediación de respuestas-, por lo que su réplica a otras áreas del derecho no debería resultar ajena.
Retomando lo expuesto en lo que respecta al tratamiento dado por conocedores de la materia, son numerosos los autores que analizan los riesgos de la utilización de la IA en el proceso judicial.
Esta temática resulta de suma trascendencia debido a las consecuencias que lleva consigo su aplicación de la IA en el sistema judicial.
Así, al comenzar este recorrido, se observa cómo se entrelazan estos tópicos, aunque antes resulta necesario definir en qué consiste este sistema y explicar las razones de su interrelación a través de los distintos programas utilizados en diversas experiencias del derecho comparado, para luego comprender la disrupción que implica su utilización.
Para esta explicación será necesario establecer su relación existente, por qué resulta necesario su estudio y si esto implica un proceso de cambio estructural en el modo de concebir al proceso judicial.
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 42
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
LA CONSTRUCCIÓN DE UNA DEFINICIÓN JURÍDICA DE LA INTELIGENCIA ARTIFICIAL EN EL ÁMBITO DE LA COMUNIDAD EUROPEA
La concepción “inteligencia” es vaga, a pesar de haber sido objeto de estudio de distintas disciplinas, por esto, el grupo de investigadores que estudia la IA alude con frecuencia a la idea de racionalidad. Esta se refiere a la capacidad de elegir la mejor acción posible en miras de un objetivo específico, contemplando el contexto y los recursos disponibles. La operativa cumple en percibir el entorno a través de sensores, recopilando e interpretando los datos, procesando dicha información y decidiendo en consecuencia la mejor acción que puede modificar el entorno (Grupo de expertos de alto nivel sobre IA, 2019).
El término inteligencia artificial debe ser entendido conforme al ámbito en el que se desarrolla, ya que cada definición responde a objetivos diferentes. La idea de que se trata de un sistema cuya serie de combinación de algoritmos permite imitar, analogar o superar las propias capacidades humanas (Villalba, J.F., 2020) pareciera ser comprensiva de las distintas áreas en las que se ejecuta.
Goretty C. Martínez Bahena (2012) explica que la IA es una rama de la informática jurídica que tiene por finalidad realizar con máquinas tareas que puede hacer un ser humano en el que aplica razonamiento, es decir, se trata de la automatización de actividades vinculadas al proceso de pensamiento. Por tanto, fija que se trata de un sistema inteligente que exhibe comportamientos similares a los practicados por los hombres frente a un problema idéntico, en el que se dificulta precisar que se está frente a un programa de computadora.
Si bien, estas definiciones se aproximan a la orientación que se tiene por meta exponer, la conceptualización dada por la Comunidad Europea resulta de mayor precisión y alcance, a la vez que el Grupo de Expertos encargado de darle tratamiento, lo hizo con miras a que sea contemplativa de los avances que puede tener el desarrollo de este sistema, por tanto, tiende a ser comprensiva de la constante evolución a la que se expone la IA.
Consta en el Diario Oficial de la Unión Europea que el Dictamen del Comité Económico y Social Europeo sobre “Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad” del año 2017, hizo su abordaje, coincidiendo con lo que se planteó más arriba en lo atinente a que no existe una definición establecida que adquiera el consenso unánime. Esto se da porque engloba una multiplicidad de áreas de la IA, tales como la informática cognitiva, el aprendizaje automático, la inteligencia aumentada o la robótica con la IA. Para ser aún más preciso, realiza una distinción entre IA débil (narrow AI) e IA fuerte (general AI), donde se comprende que la primera es capaz de realizar tareas específicas, mientras que la IA fuerte es capaz de realizar las mismas tareas intelectuales que las de un ser humano.
En tanto, en el documento “Una definición de la inteligencia artificial: Principales capacidades y disciplinas científicas” (2019), el Grupo de expertos de alto nivel sobre inteligencia artificial parte de la definición que surge de la propuesta de la Comunicación de la Comisión Europea (2018) y fijan la propia. Esta comprende que se aplica a los sistemas que manifiestan un comportamiento inteligente, que analizan su entorno y que emiten una respuesta con el fin de alcanzar un objetivo.
Esta concepción resulta útil toda vez que es clara y precisa, por lo que se evitan ambigüedades y el uso de terminologías vagas, sumado a que sirve como base para una regulación coherente y justa. Además, se prevé una protección de los derechos fundamentales fundada en los valores que esta
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 43
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
promueve y asegura una innovación responsable en resguardo de su faz ética y social, por lo que, en sumas, permite establecer estándares comunes en lo que hace a su desarrollo y uso -coordinación de esfuerzos entre sus miembros-.
Como ya se explicó previamente, su propuesta de definición resulta atinente y actualizada, debido a que en su delimitación se precisa que se trata de sistemas de software diseñados por humanos a los que se le requiere un objetivo complejo, y ante esto, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos -estructurados o no- que recopilan, su interpretación, razonamiento y decisión de acción óptima tendiente a lograr el objetivo fijado. Así, se comprende que estos sistemas pueden utilizar normas simbólicas o aprender un modelo numérico, sumado al análisis del modo en que el entorno se ve afectado por sus acciones previas.
Es decir, resulta evidente la multiplicidad de enfoques y técnicas que rodean a esta disciplina científica y se explica la necesidad en la utilidad de su definición que permite alcanzar una regulación coherente y efectiva, en pos de la protección de los derechos de los ciudadanos, la promoción en la innovación responsable y el establecimiento de un marco común para el uso de esta tecnología emergente.
INTERACCIÓN ENTRE LA INTELIGENCIA ARTIFICIAL Y EL PROCESO JUDICIAL
El “pensar” implica una serie de fenómenos neurofisiológicos del que carecen las máquinas, no obstante, se pueden hacer simulaciones de esos procesos de pensamientos. Raymond Kurzweil (1994) establece que dichos sistemas se componen de una base de conocimiento estructurada, reglas de decisión y un motor de inferencia para resolver un problema. El autor determina que estos modelos de sistemas pueden estar basados en conocimiento o en conexiones y redes neuronales. El primero, se caracteriza por un razonamiento simbólico que implica la habilidad para aprender, adquirir conocimientos y para manipularlo inferencial y deductivamente. Dentro de este grupo, se encuentran los sistemas expertos jurídicos, utilizados para la resolución de problemas judiciales.
Kurzweil, en su trabajo que vincula la relación de la IA y el derecho, determina que el sistema experto jurídico se trata de un sistema computacional que plantea soluciones a determinados asuntos jurídicos aplicando el conocimiento experto en la materia, a la vez que se explica su razonamiento, por tanto, sirve de apoyo para los operadores jurídicos. Para esto, trata de emular los procesos cognitivos llevados a cabo por los operadores del derecho, los cuales siguen ciertas reglas de procesamiento de la información que caracteriza al mundo jurídico, dándole forma a los discursos que exponen para solucionar los problemas de interpretación o aplicación del derecho.
Agrega que resulta trascendente marcar la diferencia entre estos problemas que se clasifican en convergentes y divergentes. Los primeros varían dependiendo si el criterio de solución se sabe desde un principio o bien, no está determinada, pero es determinable. Los segundos resultan distintivos en razón de que para un solo problema se plantean múltiples soluciones que son determinables en forma decisional -como pueden ser las controversias judiciales-. En suma, estos sistemas expertos proporcionan alternativas de solución siempre que exista una interacción con el usuario que fije directrices sobre las cuales pronunciarse, por lo que se puede determinar el entrecruzamiento entre estas disciplinas.
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 44
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
Juan G. Corvalán (2019) comprende que el punto de conexión entre la IA y el proceso radica en que este último se trata de un sistema de reglas y órdenes concatenadas y coherentes tendientes a un fin, por lo que opera en una lógica similar a los algoritmos.
Cabe resaltar que los seres humanos no disponemos de un criterio totalizador que contenga todos los casos posibles, los sistemas de IA corren la misma suerte, ya que “no se puede formular una lista exhaustiva que contenga todas las propiedades de un objeto, por el hecho que pueden presentarse variantes o combinaciones” (Carrió, G. R., 2011).
Juan G. Corvalán (2019) agrega que estos sistemas superan por mucho a las capacidades cognitivas humanas, ya sea en la velocidad de procesamiento, la posibilidad de conectarse y articular con otros sistemas de forma instantánea y la capacidad casi infinita de almacenamiento de los datos e información, por lo que se reducen las chances de que se configuren lagunas de conocimiento, a la vez que, se aumenta la productividad y se reducen los sesgos.
En este sentido, resulta trascendental los datos con los que se alimentan estos sistemas, a los fines de ser abarcativos y comprensivos de la mayor cantidad de situaciones posibles, lo que sirve para garantizar un sistema más sólido.
Si el sistema puede estar bien entrenado, podría detectar en la mayoría de los casos cuál es su alcance, es decir, con la información adecuada se podría contemplar la totalidad o un número mayor de posibilidades. Es evidente que el sistema nunca podrá resolver todos los problemas que puedan presentarse, ya que, aunque se disponga de asistencia inteligente y automatización a gran escala, en ciertos supuestos se tendrá que interpretar casos no previstos o atípicos. El autor plantea que no resulta razonable en términos costo/beneficio entrenar una IA para casos excepcionales.
En este punto se evidencia el aumento en la calidad de la gestión del proceso porque se ahorra tiempo de las tareas rutinarias, mecánicas y repetitivas. Esto permite mejorar la resolución de otros supuestos más complejos o excepcionales en el plano procesal y sustantivo (Melamed, A. 2021).
Esto llevó a poner en funcionamiento distintos sistemas que entrelazan la IA y el proceso judicial, aunque cada uno responde a necesidades particulares, coinciden en beneficiarse de los atributos que denota su implementación y entre los más sobresalientes destacan:
a) El SEJ’s -Sistemas expertos jurídicos- es un sistema computacional que puede plantear posibles soluciones a ciertas problemáticas jurídicas mediante la aplicación del conocimiento experto en la materia y el razonamiento empleado. Emula los procesos cognitivos alcanzados por los sujetos intervinientes en la contienda judicial. Todo SEJ está constituido por la base de conocimiento, el motor de inferencia -patrones o secuencias de razonamiento-, y la interfase con el usuario -elemento crucial toda vez que el sujeto que interactúa con el sistema lo hace mediante directrices, debiendo ser una persona que se desenvuelve en el ámbito jurídico-.
Al momento de clasificar los sistemas expertos jurídicos se debe enunciar como categorías:
a.i) Sistemas basado en reglas de producción: el programa Sergot, por sus siglas en inglés, se basa en lógica descriptiva, es un sistema que utiliza la especificación y evaluación de sistemas expertos y sistemas de razonamiento basado en lógica, proporciona una manera de describir formalmente conocimiento y reglas de inferencia en un formato que puede ser interpretado por sistemas de software para realizar razonamientos lógicos y tomar decisiones, cuyo objetivo fue transformar en el año 1981 la British Nationality Act en una serie de condicionales de la forma “si [...] entonces [...]” (Bourcier, D., 2003). Estos sistemas interpretan las disposiciones legales, encontrando como limitación su
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 45
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
mantenimiento y actualización de la base de conocimiento, ya que los cambios de cuerpos normativos -por reformas- puede desembocar en la necesidad de reescribir toda la base de datos.
a.ii) El modelo positivista explícito subyacente, que construye un silogismo jurídico que permite deducir soluciones, se compone de una premisa mayor que sería la norma jurídica, una premisa menor, que sería un enunciado que describe un hecho y la conclusión que vincula las consecuencias jurídicas. Este modelo de Sistema de Expertos Jurídicos recibió críticas en lo que concerniente a las conclusiones a las que arriba, ya que los jueces al momento de expedirse lo hacen valiéndose de la interpretación de los enunciados del discurso jurídico positivo -elementos extranormativos-, por lo que se evidencia que el juzgador no aplica los enunciados normativos de manera mecánica, sino que adecúa el derecho a ciertos patrones valorativos, por lo que la elección de las premisas y las reglas de inferencia de su razonamiento requieren de su labor creativa.
a.iii) El modelo constructivista fue creado en la Universidad Nacional Autónoma de México que tuvo por fin determinar cuáles son las reglas que juegan un papel importante en los procesos de integración cognoscitiva al momento de decidir. Se tratan de reglas de carácter no lógico ya que son procesos de asociatividad, desplazamiento y condensación, es decir que los distintos elementos deben estar interconectados a los fines de alcanzar una decisión. Esto se debe a las características de individualización cognoscitiva que refiere a que distintos sujetos cognoscentes pueden alcanzar diferentes constructos aun cuando se presenten los mismos insumos cognitivos.
a.iv) El modelo de razonamiento legal basado en casos, es aquel que se funda en la capacidad de solucionar problemas razonando por analogía a antiguos problemas -experiencias anteriores-, por tanto, requiere de un esquema de representación de hechos, de un esquema de comparación para evaluar la relevancia de casos respectos a un problema y un mecanismo para comparar casos y obtener inferencias legales. Así, al administrar una base de casos resueltos, se realiza una búsqueda en su base de conocimientos y se adapta al nuevo supuesto.
b) El Split-up es un sistema experto basado en reglas y redes neuronales, fue ideado por Andrey Stranieri en la Universidad de Melbourne, Australia, que se proyectó con la finalidad de asesorar jurídicamente sobre la forma en que se deben distribuir los bienes de las partes después de disuelto el vínculo matrimonial, en el que se toman ciertos factores para ser considerados al momento de dictar una sentencia, tales como aportes de cada una de los sujetos intervinientes o los recursos con los que cuentan hacia el futuro. A los fines de conformar su base de datos, los programadores leyeron y estudiaron varias sentencias para luego fijar un valor para cada factor. Como contrapartida se advirtió que ciertos parámetros fueron ponderados de manera diferente por los distintos jueces, por lo que podían conducir a un error judicial, no obstante, se advierte su valor como herramienta útil para estructurar sus decisiones.
c) Expertius es un sistema experto basado en el modelo constructivista y redes neuronales que funciona en los juicios de alimentos, en el que la estrategia aplicable fue la adquisición del conocimiento judicial mediante inducción con base en una serie de ejemplos o casos. Para su elaboración se partió de la idea que los jueces no toman decisiones aplicando normas, sino que su decisorio tiene como base los esquemas cognitivos complejos, por lo que implican conexiones entre distintos enunciados de las leyes, jurisprudencia, doctrina, teoría general del derecho. En pos de la adquisición del conocimiento judicial se requirió con los expedientes judiciales relativos a constitución, aumento, reducción y cancelación de pensión alimenticia. El sistema tiene por finalidad servir como propuesta de solución considerando criterios estandarizados en la comunidad.
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 46
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
d) El SIES -Sistema experto de sentencias- constituye un prototipo de sentencia cuya base de conocimiento está integrada por los requisitos de forma y fondo de una sentencia de derecho familiar, que permite asignar diferentes pesos probatorios a los medios de prueba.
e) COMPAS -Correctional Offender Management Profiling for Alternatives Sanctions- es un sistema de evaluación de riesgos utilizado en el ámbito de la justicia penal en los Estados Unidos. Esta herramienta emplea técnicas estadísticas y analíticas avanzadas para estimar la probabilidad de reincidencia delictiva de una persona, generando una puntuación que asiste a jueces y otros operadores judiciales en decisiones clave como la concesión de la libertad condicional o la fijación de fianzas.
El algoritmo de COMPAS está diseñado para evaluar dos dimensiones principales: el riesgo de reincidencia y las necesidades criminológicas del evaluado. Para ello, se basa en una encuesta estructurada de 137 ítems, junto con los antecedentes penales del individuo, a partir de los cuales identifica patrones mediante procedimientos automatizados de análisis predictivo. El resultado es un puntaje (score) que cuantifica el nivel de riesgo asociado, y que es utilizado como insumo en los procesos de toma de decisiones judiciales, tanto en etapas cautelares como en fases posteriores al dictado de sentencia, como la clasificación penitenciaria o la determinación de acceso a regímenes de semilibertad o libertad condicional.
El sistema otorga puntuaciones a diversos factores como la edad, historial delictivo, número de arrestos previos, entre otros, los cuales se asocian estadísticamente con una mayor probabilidad de evasión o incumplimiento de los mandatos judiciales. Las predicciones que emite el sistema se fundamentan en la correlación matemática de estos factores con conductas observadas, y el grado de riesgo estimado varía en función de la puntuación final obtenida. No obstante, la utilización de COMPAS no sustituye la valoración judicial: el juez asistido por este instrumento conserva plena discrecionalidad para aceptar o descartar las conclusiones sugeridas por el algoritmo.
f) PretorIA es un sistema de inteligencia artificial desarrollado e implementado en el seno de la Corte Constitucional de Colombia, cuya finalidad es optimizar el proceso de selección de sentencias de tutela mediante el análisis automatizado de decisiones judiciales. Esta herramienta tecnológica permite efectuar un primer filtrado y estructuración de los expedientes, brindando a los funcionarios judiciales insumos procesados que facilitan la identificación de aquellos casos que podrían ser seleccionados para revisión por parte del alto tribunal.
La funcionalidad principal de PretorIA consiste en la clasificación automática de las sentencias de tutela proferidas por los jueces de instancia, conforme a un conjunto de categorías previamente establecidas por la Corte Constitucional. A partir de dicha estructuración, el sistema posibilita la localización eficiente de información jurídicamente relevante para el proceso de selección, la generación de resúmenes analíticos -no narrativos- con base en las categorías detectadas, y la elaboración de reportes estadísticos sobre la utilización y evolución de la acción de tutela en el país.
Este desarrollo tecnológico cuenta con capacidades avanzadas de procesamiento del lenguaje natural (PLN), que le permiten leer, identificar patrones temáticos, predecir contenidos normativamente relevantes y elaborar resúmenes en lapsos muy breves. Así, el sistema permite detectar prioridades temáticas dentro del universo de tutelas presentadas, sin requerir intervención humana en las fases de búsqueda, clasificación y sistematización de la información, todo ello conforme a los parámetros normativos y jurisprudenciales definidos por el propio tribunal. Se trata de una herramienta cuya función es eminentemente auxiliar y no sustituye la labor jurisdiccional de los jueces constitucionales.
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 47
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
g) PROMETEA, desarrollado por la Fiscalía de la Ciudad Autónoma de Buenos Aires en 2017, se trata de un sistema que aplica IA para preparar automáticamente dictámenes judiciales basándose en casos análogos para cuya solución ya existen precedentes judiciales. Se construyó a través de la gobernanza de datos, identificación y cuantificación de los procesos realizados por la institución, la reingeniería de procesos específicos para eliminar tareas que no agregan valor, la certificación de calidad de los procesos, la construcción de árboles de decisión, la confección de modelos estandarizados de soluciones jurídicas y la identificación de palabras clave para cada tipo de proceso (Estévez, E., Linares Lejarraga, S y Fillottrani, P, 2020).
Su componente más innovador es la predicción de la recomendación que el fiscal le realiza al juez sobre cada caso, proponiéndole el modelo de dictamen jurídico que corresponde en casos de amparos habitacionales similares. El análisis se basa en una correlación estadística entre palabras clave asociadas a cada proceso y patrones de sentencias previas.
Su adopción permitió al personal la realización de otro tipo de tareas, menos repetitivas y rutinarias, sumado a la alfabetización en tecnología de los agentes judiciales. Además, contribuyó a mejorar la calidad, eficiencia y eficacia del trabajo realizado por los fiscales. Este sistema basado en técnicas de IA funciona como un asistente predictivo que apoya la labor de la Fiscalía, pero no sustituye ni reemplaza la inteligencia humana en la toma de decisiones, ya que la solución jurídica a la que arriba es supervisada por el funcionario a cargo del caso.
Esta IA provee herramientas informáticas para la automatización digital de tareas mediante simple validación de pasos, por lo que implementa dos tipos de mecanismos: i) los Controles Prometea, que son preguntas que el dispositivo le formula al usuario a los fines de elegir una rama del árbol en función de las respuestas recibidas; y ii) las Acciones Prometea que son detecciones automáticas que realiza la IA para elegir la rama del árbol pertinente al caso. Así, se logra un modelo estandarizado de decisión.
Su impacto trascendió el ámbito local ya que fue adoptado y adaptado por otras instituciones judiciales nacionales e internacionales, consolidándose como una buena práctica replicable en la transformación digital del sector público. Esto subrayó cómo la digitalización inteligente y estratégica puede generar eficiencia operativa, mejorar la calidad de los servicios jurídicos y fortalecer la capacidad institucional sin comprometer el rigor técnico ni la seguridad jurídica.
h) DACIA -Despacho Automatizado con Inteligencia Artificial-, es un sistema utilizado, en un primer momento, en el Poder Judicial de Córdoba en el fuero Ejecutivo Fiscal que permitió automatizar
procesos de recepción y resolución de peticiones, incorporando inteligencia artificial para la lectura, interpretación y análisis de los escritos y documental.
Este sistema operativo adjunta y contempla la posibilidad de automatizar el tratamiento de otros tipos de escritos, para luego resolver la admisión de demandas de títulos de deuda por impuesto inmobiliario, automotor y multiobjeto de la Dirección General de Rentas.
Su diseño modular y escalable permitió la integración con otros sistemas judiciales y la adaptación a distintos tipos de escritos y procesos.
Se trata de un sistema que utiliza algoritmos de procesamiento de lenguaje natural y aprendizaje automático para analizar y validar los requisitos legales de las demandas y los títulos ejecutivos fiscales. Luego de verificados los requisitos normativos, genera automáticamente los despachos diarios y los
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 48
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
decretos correspondientes que quedan a disposición de los funcionarios judiciales para su revisión y firma.
Su constante expansión permitió el avance y uso en otros fueros y procesos judiciales, alcanzando el de Violencia Familiar y de Género, en donde detecta y clasifica los expedientes según los indicadores de gravedad.
En sumas, cada uno de los sistemas nombrados tuvo por meta intensificar la migración hacia la digitalización, conforme a las mejoras y transformaciones de los binomios tiempo/espacio - burocracia/ciudadanía, a través de potenciar los principios de optimización, simplificación y facilitación. Es decir, que se trata de una transición de una burocracia imprenta y digital a una burocracia inteligente, en la que los sistemas de IA den cumplimiento a los principios nombrados a partir de la automatización y de la actividad predictiva (Corvalán, J. G., 2018).
LA EVOLUCIÓN DEL SISTEMA JUDICIAL: ¿UN CAMBIO DE PARADIGMA?
Vincenzo Aquaro -Director de Gobierno Digital en la ONU- plantea que las virtudes expuestas de la IA dan cuenta de su capacidad de afectar la eficiencia, eficacia, responsabilidad e inclusión en las prestaciones de servicio brindadas por el Estado, modificando de manera exponencial las nociones de tiempo y espacio, a través de la transformación en el procesamiento de datos e información. El uso de estas nuevas tecnologías permite centrar la labor en actividades que son más complejas, y automatizar las tareas mecánicas y de rutina, “humanizando” el trabajo y dejando en cabeza de las personas las tareas que requieren mayor creatividad y producción (Resolución N° 75/257 de la Asamblea General de las Naciones Unidas, 2017).
Juan G. Corvalán (2019) expone un escenario en el que esta tecnología significa una disrupción en los esquemas actuales en relación a la optimización, simplificación y maximización de los objetivos y actividades de las organizaciones públicas que se tornan más eficientes, inclusivas e inteligentes. Cree que se trata de una oportunidad para reconfigurar la división de tareas y crear canales que mejoren la relación Estado-ciudadanía. Asimismo, menciona que requiere una especial atención en la aplicación de principios y reglas que reduzcan o eliminen facetas de lo que llama el “lado oscuro de la IA”, y para esto será necesario que el uso de estas tecnologías sea basado en los derechos humanos y en los principios democráticos.
Lo expuesto, se vincula con la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones en el documento “Generar confianza en la inteligencia artificial centrada en el ser humano” que refiere a la tutela exigida por los ciudadanos frente al avance de la IA, quienes requieren medidas protectorias y de seguridad frente a los desequilibrios informativos en la toma de decisiones basadas en sistemas algorítmicos. Por esto, la Comunicación de la Comunidad Europea 168 del año 2019 fijó directrices a seguir en el desarrollo e implementación de estos programas. Enumeró siete requisitos esenciales: a) acción y supervisión humana; b) solidez técnica y seguridad; c) gestión de la privacidad y de los datos; d) transparencia; e) diversidad, no discriminación y equidad; f) bienestar social y medioambiental; g) rendición de cuentas.
Es cierto que este tipo de tecnologías se encuentran en una fase de especial desarrollo y que el impacto económico y social es trascendental. José Vida Fernández en su escrito “Los retos de la regulación de la inteligencia artificial: algunas aportaciones desde la perspectiva europea” (2018) aclara
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 49
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
que la IA seguirá siendo programación y no podrá alcanzar las capacidades metacognitivas que le permitan una reflexión introspectiva sobre su propia existencia ni el libre albedrío. Este llamado de atención responde a que se debe poner el foco en el diseño de una regulación que responda a los verdaderos problemas que plantea la IA tal como la conocemos, ya que las características que evidencian esas innovaciones tecnológicas resultan ordinarias y ajustables a la normativa existente. Aclara que las aristas que evidencien particularidades deberán dársele el tratamiento correspondiente, en consonancia con la propuesta de regulación que se desarrolló en las páginas anteriores respecto a los documentos de la Comunidad Europea. Aunque es importante distinguir que la disputa de su regulación responde a que los sistemas de IA ejecutan una respuesta entre distintas alternativas, es necesario subrayar que esto sucede a partir de los parámetros fijados y sus elecciones no siempre son posibles de prever, por lo que se está frente a una autonomía relativa. De ahí este fenómeno tan acuciante, pues no se había dado en ninguna de las invenciones previas.
Juan G. Corvalán (2017) plantea que, entre sus rasgos diferenciales, la aplicación de la IA permite que los sistemas adquieran autodependencia, reconfiguración autoadaptativa, negociación inteligente, comportamiento de cooperación y supervivencia con intervención humana reducida, características que denotan un avance que modifica el panorama tal como se lo conoce en la actualidad.
Agrega que, esta innovación que se da en el ámbito público implica un salto cualitativo en relación con la velocidad y la precisión en nuestra labor cotidiana para prestar un mejor servicio de justicia. Es así como, remarca que el desarrollo de una IA compatible con un modelo de derechos humanos requiere el respeto de principios que tengan en miras la dignidad digital que comprende la dignidad, identidad y vulnerabilidad algorítmica.
Lo expuesto conduce a que la IA se considere de riesgo elevado en función de lo que está en juego y que supone riesgos significativos en lo atinente a la protección de la seguridad, los derechos de los consumidores y los derechos fundamentales.
Aunque, para dirimir dichas controversias, se puede exigir el cumplimiento de un control exhaustivo de los datos de entrenamiento, sus registros, la información que debe facilitarse y estar al alcance de los usuarios, la solidez y exactitud de esas bases, que toda actividad se haga bajo el amparo de la supervisión humana y bajo pautas específicas en el caso de determinadas aplicaciones de IA. Esto lleva a plantear la necesidad que prime en todo momento el Principio del control humano (human-in-command), que brega por un marco de condiciones que regule el desarrollo responsable, seguro y útil de la IA de manera que las máquinas continúen siendo máquinas y los humanos conserven en todo momento el dominio sobre ellas.
Así también que, para que el funcionamiento de los sistemas de IA sea compatible con la protección y el respeto de los principios, se debe elaborar un código deontológico uniforme y universal para el desarrollo, despliegue y utilización de la IA (Dictamen del Comité Económico y Social Europeo sobre la Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad, 2016).
Concurren en la misma dirección las directrices de una IA fiable, es decir aquella que se apoye en tres componentes que deben ser satisfechos a lo largo de todo el ciclo de vida del sistema: a) lícita -cumplir con leyes y reglamentos aplicables-; b) ética -garantice el respeto de los principios y valores éticos-; c) robusta -en su faz técnica y social, por lo que se debe prever medidas de protección para evitar cualquier efecto adverso imprevisto- (Comisión Europea, 2018).
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 50
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
CONCLUSIONES
La importancia en la delimitación del concepto de lo que se comprende por IA resultó imperiosa a los fines de determinar su objeto y consecuencias, sumado a su alcance y riesgos. La justificación de estarse a lo dicho por la Unión Europea radicó en su precisión y claridad, en su utilización normativa y en los valores que esta promueve, por lo que permitió establecer estándares
comunes en lo que hace a su materia.
El análisis del entrecruzamiento entre la IA y el proceso judicial dejó en evidencia que, aunque esta tecnología presenta enormes ventajas en términos de eficiencia, accesibilidad y predictibilidad, también plantea desafíos éticos, técnicos y jurídicos. Entre ellos se encuentran los riesgos de sesgos algorítmicos, la falta de transparencia en los procesos de toma de decisiones automatizadas y la posibilidad de reproducir o incluso ampliar desigualdades existentes.
El cambio de paradigma viene dado por los múltiples desafíos a los que se expone la sociedad, principalmente el que refiere a la creencia del carácter neutral y objetivo de la IA. Estas controversias requieren poner en el centro de la discusión el problema de sesgos que, con la intensidad y consecuencias que exterioriza, no se presentaron en ningún otro avance informático.
Aunque opera necesario subrayar que la legislación actual resulta suficiente frente a los riesgos de la IA, la diversificación de matices que plantean estos sistemas y los constantes cambios propios de su evolución denotan una multiplicidad de vulnerabilidades, por lo que el marco regulador debe centrarse en cómo minimizar los distintos daños que se puedan sufrir, especialmente los más significativos.
Esta regulación debe enfocarse en minimizar daños potenciales, garantizar la supervisión humana permanente (principio human-in-command), asegurar la trazabilidad de las decisiones algorítmicas y reforzar la responsabilidad legal de los operadores de estos sistemas.
No obstante, se debe actuar con la cautela necesaria para que esa tutela no signifique un impedimento en el progreso que se proyecta, aunque siempre debe hacerse un desarrollo responsable que ponga en el centro al ser humano y se dé cumplimiento al respeto de los principios enumerados que resulten protectorios de la dignidad humana.
BIBLIOGRAFÍA
Asamblea General de la ONU. (2017). Ciencia, tecnología e innovación para el desarrollo: Resolución N° 75/257 . http://undocs.org/es/A/72/257
Bourcier, D. (2003). Inteligencia artificial y derecho. UOC.
Carrió, G. R. (2011). Notas sobre derecho y lenguaje (5ª ed.). AbeledoPerrot.
Carta de los Derechos Fundamentales de la Unión Europea. (2007). Diario Oficial de la Unión Europea . http://www.derechoshumanos.net/normativa/normas/europa/CDFUE/CartaDerechosFundamentale sUnionEuropea-v2007.htm
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 51
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno. (2018). Comisión Europea. https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_ES.html
Comisión Europea. (2019). Una definición de la inteligencia artificial: Principales capacidades y disciplinas científicas. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Corvalán, J. G. (2017). Actividad procesal automatizada. En S. C. Chumbita (Dir.), Tratado de inteligencia artificial y derecho (T. 2, pp. 101–118). La Ley.
Corvalán, J. G. (2018). Hacia una Administración Pública 4.0: Digital y basada en Inteligencia Artificial. La Ley. Corvalán, J. G. (2018). Inteligencia artificial y derechos humanos. Editorial Astrea.
Corvalán, J. G. (2019). Prometea. Inteligencia artificial para transformar organizaciones públicas. Editorial Astrea.
Corvalán, J. G. (2019). La primera inteligencia artificial predictiva al servicio de la justicia: Prometea. La Ley .
Corvalán, J. G. (2019). Inteligencia artificial y proceso judicial. Desafíos concretos de aplicación .
https://cijur.mpba.gov.ar/files/bulletins/Inteligencia_artificial_y_proceso_judicial.pdf
Corvalán, J. G. (2023). Propuestas de regulación y recomendaciones de inteligencia artificial en el mundo: Síntesis de principales aspectos. La Ley.
Dictamen del Comité Económico y Social Europeo. (2017). Inteligencia artificial: Las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad. Diario Oficial de la Unión Europea.
Directrices éticas para una IA fiable. (2018). Grupo de expertos de alto nivel sobre inteligencia artificial, Comisión Europea.
Estévez, E., Linares Lejarraga, S., & Fillotrani, P. (2020). Prometea: Transformando la administración de justicia con herramientas de Inteligencia Artificial. BIO. http://dx.doi.org/10.18235/0002378
Kurzweil, R. (1994). La era de las máquinas inteligentes. CONACYT / Equipo Sirius Mexicana.
Martínez Bahena, G. C. (2012). La inteligencia artificial y su aplicación al campo del Derecho .
https://www.corteidh.or.cr/tablas/r30570.pdf
Roa Avella, M. del P., Sanabria-Moyano, J. E., & Dinas-Hurtado, K. (2022). Uso del algoritmo COMPAS en el proceso penal y los riesgos a los derechos humanos. Revista Jurídica, Redalyc . https://www.redalyc.org/journal/6739/673971913008/html/
Russell, S. J., & Norvig, P. (2004). Inteligencia artificial: Un enfoque moderno (2ª ed.). Pearson Educación.
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 52
INTELIGENCIA ARTIFICIAL Y JUSTICIA: ¿HACIA UN NUEVO MODELO DE PROCESO JUDICIAL?
Villalba, J. F. (2020). Algor-Ética: La ética en la inteligencia artificial. Revista Blockchain Inteligencia Artificial. https://revistas.bibdigital.uccor.edu.ar/index.php/rbia/article/view/4880/3147
REVISTA BLOCKCHAIN E INTELIGENCIA ARTIFICIAL VOLUMEN 7 2025 Pág. 53