Corporación GC
CORPORACIÓN GC
ABOGADOS
InicioLa FirmaEquipoÁreasArtículosContacto
Corporación GC
InicioLa FirmaEquipoÁreasArtículosContacto
Corporación GC
Todas las publicaciones
Tesis
20 de junio de 2025
Inteligencia ArtificialJusticia DigitalEU AI ActTrabajo Final de Graduación

Hacia la implementación de sistemas automatizados de decisión basados en inteligencia artificial en la administración de justicia costarricense

Trabajo Final de Graduación que analiza la integración de inteligencia artificial en el ámbito judicial desde el marco normativo de la Unión Europea (EU AI Act), proponiendo una hoja de ruta para su adopción segura en Costa Rica.

Por
Lic. Khevin Sánchez Zamora
Especialista en medidas cautelares y litigio contencioso. 3.er mejor promedio del Examen de Excelencia, Colegio de Abogados 2025.

Trabajo Final de Graduación para la Licenciatura en Derecho de la Universidad de Costa Rica.

Director: Dr. Óscar Eduardo González Camacho

Referencia: Sánchez Zamora, Khevin. Hacia la implementación de sistemas automatizados de decisión basados en inteligencia artificial en la administración de justicia costarricense: un análisis desde el marco normativo de la Unión Europea. Tesis de Licenciatura en Derecho, Facultad de Derecho, Universidad de Costa Rica, San José, Costa Rica, 2025.


Sumario

Esta tesis aborda la integración de la inteligencia artificial (IA) en la administración de justicia, un campo donde las promesas de eficiencia tecnológica confrontan la necesidad de salvaguardar derechos fundamentales. La justificación parte de la rápida expansión global de sistemas automatizados de decisión basados en IA (SADIA) y su incipiente exploración en Costa Rica, frente a la ausencia de un marco normativo específico que oriente su uso ético y seguro. El estudio se inscribe en un contexto en el que múltiples jurisdicciones alrededor del mundo han comenzado a experimentar con herramientas de IA aplicadas a la función judicial, desde asistentes de redacción de resoluciones hasta sistemas predictivos de resultados procesales, lo cual pone de manifiesto la urgencia de que Costa Rica aborde esta temática de forma anticipada y no reactiva. La ausencia de regulación específica genera un vacío que podría traducirse en implementaciones improvisadas, sin las debidas salvaguardas para los justiciables ni para la integridad del sistema de justicia en su conjunto.

La hipótesis central sostiene que, si bien los SADIA ofrecen beneficios para la justicia costarricense —eficiencia, agilización—, implican riesgos sustanciales —sesgos algorítmicos, erosión del rol judicial— que demandan una regulación específica, inspirada en principios constitucionales y en las mejores prácticas internacionales, como condición previa a cualquier implementación a gran escala. Esta hipótesis se estructura en torno a una doble premisa: por un lado, el reconocimiento de que la tecnología tiene un potencial transformador legítimo para mejorar la celeridad procesal, reducir cargas administrativas y facilitar el acceso a la justicia; por otro, la advertencia de que los riesgos inherentes a estos sistemas —particularmente la opacidad en la toma de decisiones, la reproducción y amplificación de sesgos históricos contenidos en los datos de entrenamiento, y la posible erosión del papel del juez como garante de derechos— no pueden ser ignorados ni delegados a soluciones puramente técnicas. La regulación, en consecuencia, no es un obstáculo para la innovación sino una condición habilitante para una implementación responsable.

Capítulo I: Evolución técnica de la inteligencia artificial

El Capítulo I contextualiza la evolución técnica de la IA, desde los sistemas expertos hasta los Large Language Models (GPT-4, Claude, Gemini, Deepseek R1), reconociendo la rápida obsolescencia de los detalles técnicos pero subrayando la importancia estructural de esta base para comprender capacidades, limitaciones (opacidad, sesgos) y riesgos que la regulación debe abordar. Este capítulo traza el recorrido histórico que va desde los primeros sistemas basados en reglas, diseñados para replicar el razonamiento lógico-formal en dominios acotados, hasta la irrupción de modelos de lenguaje de gran escala que han transformado radicalmente la relación entre las personas y la tecnología. Los sistemas expertos, predominantes en las décadas de los años ochenta y noventa, operaban mediante bases de conocimiento estructuradas y reglas explícitas programadas por especialistas humanos; sus capacidades eran predecibles pero limitadas en alcance. En contraste, los Large Language Models contemporáneos —como GPT-4, Claude, Gemini y Deepseek R1— se caracterizan por su entrenamiento sobre vastos corpus de datos textuales y su capacidad de generar respuestas que simulan comprensión lingüística y razonamiento contextual.

No obstante, el capítulo subraya que esta sofisticación conlleva nuevos desafíos. La opacidad de estos modelos, conocida como el problema de la «caja negra», dificulta la comprensión de los procesos internos que conducen a una determinada salida o recomendación. Los sesgos algorítmicos constituyen otra preocupación central, puesto que los modelos de IA pueden perpetuar y amplificar patrones discriminatorios presentes en los datos con los que fueron entrenados. Estas limitaciones técnicas tienen implicaciones directas para el ámbito judicial, donde las decisiones deben estar motivadas, ser transparentes y respetar el principio de igualdad ante la ley. La rápida obsolescencia de los detalles técnicos —dado que los modelos se actualizan y reemplazan con una velocidad sin precedentes— no disminuye la relevancia de comprender la estructura fundamental de estas tecnologías, pues es sobre esa comprensión que se puede construir una regulación robusta y adaptable.

Capítulo II: Marco normativo de la Unión Europea

El Capítulo II disecciona el marco normativo de la Unión Europea —AI Act, RGPD, Carta Ética de la CEPEJ—, destacando su enfoque basado en riesgo (IA judicial como «alto riesgo»), sus principios rectores (antropocentrismo, transparencia, supervisión humana, no discriminación) y sus mecanismos de gobernanza multinivel. Este capítulo constituye el núcleo comparativo de la investigación, dado que el modelo europeo representa el referente regulatorio más elaborado y comprehensivo a nivel global en materia de inteligencia artificial. El AI Act de la Unión Europea establece una clasificación de los sistemas de IA según niveles de riesgo, diferenciando entre sistemas de riesgo inaceptable —que se prohíben—, sistemas de alto riesgo —sujetos a requisitos estrictos de conformidad—, sistemas de riesgo limitado y sistemas de riesgo mínimo. Los SADIA aplicados a la administración de justicia se clasifican como sistemas de «alto riesgo», lo que implica que su despliegue está condicionado al cumplimiento de exigencias específicas en materia de calidad de datos, documentación técnica, transparencia, supervisión humana y gestión de riesgos.

El Reglamento General de Protección de Datos (RGPD) complementa este marco al regular el tratamiento automatizado de datos personales, estableciendo el derecho de las personas a no ser sometidas a decisiones basadas exclusivamente en el tratamiento automatizado que produzcan efectos jurídicos significativos. Por su parte, la Carta Ética de la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) aporta principios específicamente diseñados para el uso de IA en el ámbito judicial, incluyendo el respeto a los derechos fundamentales, la no discriminación, la calidad y seguridad de los datos, la transparencia, imparcialidad y equidad, y el principio de control por el usuario. Los mecanismos de gobernanza multinivel implican una distribución de responsabilidades entre las instituciones europeas, las autoridades nacionales de supervisión y los propios desarrolladores y operadores de sistemas de IA, configurando un ecosistema regulatorio que busca ser, a la vez, riguroso y flexible. Los principios rectores del antropocentrismo y la supervisión humana subrayan que la IA debe estar al servicio de las personas y que el ser humano debe conservar en todo momento la capacidad de comprender, supervisar y, en última instancia, revocar las decisiones asistidas o generadas por sistemas automatizados.

Capítulo III: Diagnóstico y propuesta para Costa Rica

El Capítulo III diagnostica la situación costarricense, identifica vacíos normativos clave y formula una propuesta de implementación que incluye reformas legislativas (ley marco o sectorial), adecuación institucional (comisión especializada, unidad técnica, capacitación) y una hoja de ruta gradual con pilotos a corto plazo, escalamiento a mediano y consolidación a largo plazo. El diagnóstico parte de la constatación de que Costa Rica carece de un marco normativo específico para la regulación de la inteligencia artificial, tanto en el ámbito general como en el particular de la administración de justicia. Esta ausencia contrasta con la existencia de una infraestructura tecnológica judicial en desarrollo y con la creciente adopción de herramientas digitales por parte del Poder Judicial, lo que genera una tensión entre la práctica institucional emergente y la falta de directrices jurídicas claras.

Los vacíos normativos identificados abarcan desde la inexistencia de una definición legal de los SADIA y sus categorías de riesgo hasta la ausencia de mecanismos de certificación, auditoría y supervisión específicos para estos sistemas. La propuesta de reformas legislativas contempla la posibilidad de adoptar una ley marco que establezca principios generales y obligaciones transversales aplicables a todos los sectores, o bien una regulación sectorial específica para el ámbito judicial, cada opción con sus ventajas y desafíos. La adecuación institucional propuesta comprende la creación de una comisión especializada encargada de evaluar, aprobar y supervisar la implementación de SADIA en el Poder Judicial, así como una unidad técnica interdisciplinaria que combine conocimientos jurídicos e informáticos. La capacitación del personal judicial se identifica como un elemento indispensable para que los operadores de justicia puedan interactuar de forma crítica e informada con las herramientas de IA, comprendiendo tanto sus posibilidades como sus limitaciones.

La hoja de ruta gradual se estructura en tres fases: a corto plazo, la implementación de proyectos piloto en áreas de bajo riesgo, como la clasificación y distribución de expedientes, la búsqueda jurisprudencial o la generación de borradores de resoluciones de trámite; a mediano plazo, el escalamiento de los sistemas exitosos hacia áreas más complejas, incorporando mecanismos de evaluación continua y retroalimentación; y a largo plazo, la consolidación de un modelo de justicia aumentada que integre la IA de forma transversal en la operación judicial, siempre bajo la supervisión humana efectiva y el respeto a las garantías procesales fundamentales.

Conclusiones

Las conclusiones confirman la hipótesis: el modelo europeo, centrado en garantías, es un referente adaptable para Costa Rica. Se concluye que es urgente desarrollar un marco normativo que asegure la supervisión humana efectiva, la transparencia algorítmica, la no discriminación y la rendición de cuentas. La confirmación de la hipótesis se sustenta en el análisis comparativo que demuestra que los principios constitucionales costarricenses —debido proceso, igualdad, acceso a la justicia, motivación de las resoluciones— son compatibles con los principios rectores del modelo europeo, lo que facilita una adaptación que no requiere la importación mecánica de normas extranjeras sino su adecuación a la realidad jurídica e institucional nacional. La supervisión humana efectiva implica que ningún SADIA puede sustituir la decisión del juez: la IA debe operar como un instrumento de apoyo que enriquezca y agilice la labor jurisdiccional, pero cuyas recomendaciones o resultados queden siempre sujetos a la valoración, modificación o rechazo por parte del juzgador. La transparencia algorítmica exige que los sistemas sean comprensibles y auditables, de modo que las partes procesales puedan conocer y, en su caso, impugnar los criterios empleados por la IA. La no discriminación requiere protocolos rigurosos de evaluación de sesgos, tanto en la fase de diseño y entrenamiento como durante la operación continua de los sistemas. La rendición de cuentas establece que debe existir una cadena clara de responsabilidad que permita determinar quién responde por los errores o daños derivados de la actuación de un SADIA.

El objetivo debe ser una «justicia aumentada» —donde la IA apoye y optimice la labor humana— y no una sustitución que deshumanice la función jurisdiccional. Este concepto de justicia aumentada representa el eje axiológico de la investigación: la tecnología al servicio del ser humano, potenciando las capacidades del sistema de justicia sin reemplazar el juicio humano que constituye la esencia misma de la función jurisdiccional. Se trata de que la IA permita a los jueces dedicar más tiempo y atención a las tareas que requieren valoración jurídica, argumentación compleja y sensibilidad ante las circunstancias particulares de cada caso, delegando a la tecnología aquellas labores repetitivas, mecánicas o de procesamiento masivo de información que no demandan ese nivel de discernimiento humano.

Palabras clave: Inteligencia Artificial, Administración de Justicia, Large Language Models, EU AI Act, Derecho Algorítmico, Garantías Procesales, Justicia Digital, Transparencia Algorítmica, Justicia Aumentada.

Documento PDF
AbrirDescargar

Documento completo disponible

Para una mejor experiencia de lectura, descargue el documento o ábralo en una nueva pestaña.

Abrir PDFDescargar
Sobre el autor
Lic. Khevin Sánchez Zamora
Lic. Khevin Sánchez Zamora

Abogado Asociado · Corporación GC

Amplia experiencia en medidas cautelares y litigio contencioso-administrativo. Investigador en IA aplicada a la justicia. 3er mejor promedio, Examen de Excelencia del Colegio de Abogados, 2025.

Ver perfil completo
Volver a publicaciones
Corporación GC
CORPORACIÓN GC
ABOGADOS · DERECHO PÚBLICO

Bufete de abogados especializado en Derecho Público, fundado por el Dr. Óscar Eduardo González Camacho, co-redactor del Código Procesal Contencioso Administrativo.

Navegación
InicioLa FirmaEquipoÁreasArtículosContacto
Contacto
OFIDENT, Barrio Dent, San José, Costa Rica
+506 8317-9564
info@corporaciongc.com
Lunes a Viernes, 9:00 am – 6:00 pm

Todos los abogados de Corporación GC son miembros activos del Colegio de Abogados y Abogadas de Costa Rica. La información contenida en este sitio no constituye asesoría legal.

© 2026 Corporación GC. Todos los derechos reservados.
Política de Privacidad