El debate sobre la Inteligencia Artificial (IA) se ha vuelto omnipresente, a menudo oscilando entre visiones de un futuro utópico lleno de eficiencias y un futuro distópico gobernado por máquinas. Estas conversaciones, aunque fascinantes, tienden a pasar por alto los desafíos más complejos y urgentes que la IA plantea en el presente, especialmente cuando se aplica en ámbitos de alto impacto como la administración de justicia.
Lejos de los robots conscientes de la ciencia ficción, los problemas actuales son más sutiles y profundos. Tienen que ver con la naturaleza misma de la equidad, la verdad y el sesgo, y cómo estos conceptos se traducen —o se pierden— en el lenguaje de los algoritmos. La implementación de la IA en la justicia no es una simple actualización tecnológica, sino un espejo de alta fidelidad que nos obliga a confrontar los dilemas éticos y las contradicciones sobre la justicia que, hasta ahora, preferíamos mantener ocultos bajo la superficie del juicio humano.
1. El Dilema Imposible: La paradoja matemática de la justicia algorítmica
Uno de los casos más estudiados es el del algoritmo COMPAS, utilizado en Estados Unidos para predecir la probabilidad de que un acusado reincida. Un influyente estudio de ProPublica reveló un hallazgo alarmante: el algoritmo tenía casi el doble de probabilidades de etiquetar incorrectamente a los acusados afrodescendiendes como de «alto riesgo» en comparación con los acusados blancos. La tasa de falsos positivos para los primeros era del 45%, mientras que para los segundos era solo del 23%.
Sin embargo, esta aparente evidencia de sesgo racial expuso un problema matemático y ético mucho más profundo. La controversia reveló que existen diferentes definiciones de «justicia» que son matemáticamente incompatibles si las tasas base de reincidencia de los grupos son distintas. Las dos principales métricas en conflicto son:
- Justicia Grupal (Paridad Estadística): Exige que las tasas de error, como los falsos positivos, sean iguales para todos los grupos. Esta fue la métrica que ProPublica demostró que COMPAS violaba.
- Justicia Individual (Calibración): Exige que, para una misma puntuación de riesgo (por ejemplo, un «7 sobre 10»), la probabilidad real de reincidir sea la misma para todos, sin importar su raza. Los creadores de COMPAS argumentaron que su herramienta cumplía con esta definición de justicia.
El dilema es que no se pueden satisfacer ambas definiciones a la vez si los grupos tienen tasas de reincidencia diferentes. Exigir tasas de error iguales puede forzar al algoritmo a ser discriminatorio, clasificando incorrectamente a individuos de bajo riesgo como de alto riesgo, y viceversa, dañando potencialmente a miembros de todos los grupos. La decisión de qué tipo de equidad priorizar no es una cuestión técnica, sino una profunda elección ética y social sobre qué tipo de error estamos dispuestos a tolerar.
2. La Trampa de la Neutralidad: Cómo los algoritmos discriminan sin usar datos prohibidos
Una solución aparentemente lógica al sesgo algorítmico sería simplemente prohibir que los algoritmos utilicen datos sensibles como la raza o el género. Sin embargo, esta aproximación ingenua no funciona debido a un fenómeno conocido como «discriminación por proxy». Esto ocurre cuando un algoritmo utiliza información aparentemente neutral que, en realidad, está fuertemente correlacionada con una característica protegida.
Los ejemplos son numerosos y reveladores: un algoritmo de seguros de coche que penaliza a los conductores de coches rojos, si resulta que estadísticamente son conducidos mayoritariamente por hombres; o un sistema que utiliza el código postal como factor de riesgo crediticio, que a menudo se correlaciona con el origen étnico de los residentes. El famoso caso del algoritmo de contratación de Amazon, entrenado con datos históricos, aprendió a descartar currículums que contenían palabras asociadas a lo femenino, como la participación en «escuelas femeninas», perpetuando el sesgo sin usar explícitamente el género.
Este fenómeno es particularmente problemático porque permite que la discriminación persista de forma sutil y difícil de detectar, perpetuando sesgos históricos bajo un velo de objetividad matemática. El algoritmo no «sabe» que está discriminando, simplemente identifica patrones en los datos que se le proporcionan, reflejando y amplificando los prejuicios de la sociedad.
3. El Defecto Más Extraño de la IA: Cuando las máquinas alucinan y se inventan la realidad
Uno de los riesgos más inmediatos y extraños de los modelos de IA generativa, como ChatGPT, es su tendencia a inventar información de manera completamente convincente. Este fenómeno, conocido como «alucinaciones de IA», ocurre porque estos sistemas están diseñados para generar respuestas plausibles, no necesariamente veraces, basándose en los patrones de los datos con los que fueron entrenados.
En un campo como el derecho, donde la precisión y la veracidad son pilares fundamentales, este defecto es extremadamente grave. La Corte Constitucional de Colombia ha advertido explícitamente sobre este peligro, señalando que herramientas como ChatGPT presentan «riesgos incontrolables de alucinaciones, sesgos y descontextualización». Las consecuencias en un contexto judicial pueden ser catastróficas, pues un sistema de este tipo podría producir un caos jurídico, inventando desde normas inexistentes en Colombia hasta resúmenes de sentencias ficticias o, peor aún, alterando la información de un documento oficial. Este riesgo justifica el llamado de la Corte a desarrollar plataformas de IA propias y especializadas, entrenadas exclusivamente con el ordenamiento jurídico colombiano para mitigar estos peligros.
4. Una Vieja Historia: La tecnología siempre ha obligado al derecho a reinventarse
La actual tensión entre la IA y el sistema legal puede parecer un desafío sin precedentes, pero en realidad forma parte de un patrón histórico recurrente. La tecnología siempre ha sido una fuerza transformadora que obliga al derecho a adaptarse y reinventarse para regular nuevas realidades sociales.
La Primera Revolución Industrial, por ejemplo, provocó conflictos laborales y una explosión de la población urbana, forzando al sistema legal a crear cuerpos normativos sobre jornadas y derechos de los trabajadores, temas que antes no formaban parte del debate. Cada avance tecnológico posterior, desde la máquina de vapor hasta la electricidad, ha alterado el tejido social y ha obligado a repensar la justicia.
La actual era, definida como la Cuarta y Quinta Revolución Industrial, se enmarca en este patrón, pero con una diferencia crucial. La Quinta Revolución se caracteriza por la «correlación entre tecnologías digitales, físicas y biológicas», lo que significa que las herramientas actuales no son solo mecánicas, sino cognitivas. Esto eleva las apuestas éticas, pues su impacto no se limita a la producción, sino que se extiende a la toma de decisiones y al juicio mismo.
5. La Vía Colombiana: Entre la cautela y la adopción controlada
A pesar de los desafíos, la Rama Judicial de Colombia está adoptando un enfoque pragmático y proactivo. Aunque una encuesta revela que el despliegue de la IA es todavía «incipiente» y se centra en tareas de bajo riesgo, ya se ha establecido una arquitectura regulatoria para guiar su uso.
El «ACUERDO PCSJA24-12243» del Consejo Superior de la Judicatura es un ejemplo claro. Define explícitamente los usos permitidos de la IA, autorizando tareas que aumentan la eficiencia sin ceder el juicio humano, como resumir jurisprudencia, transcribir audiencias, clasificar documentos y apoyar la redacción de textos. Además, se ha avanzado en el desarrollo de herramientas especializadas como «Pretoria», una IA diseñada para el Consejo de Estado. Una característica clave de su diseño demuestra una profunda conciencia de los riesgos: para evitar sesgos, la herramienta solo utiliza los datos proporcionados por el juez, sin consultar información externa.
Este enfoque ha generado un optimismo cauto. Un magistrado reflexionó sobre el potencial de estas herramientas con las siguientes palabras:
«Pretoria representa la materialización de un sueño, al permitir imaginar un futuro con expedientes completamente electrónicos, gestionados digitalmente desde su inicio hasta su finalización, y en los que las partes puedan comunicarse directamente con el magistrado por medios digitales.»
El caso colombiano demuestra una clara orientación hacia una adopción prudente y garantista, buscando aprovechar la eficiencia de la IA mientras se mitigan activamente sus riesgos.
¿Quién Decide Qué es Justo?
Las realidades que destapa el uso de la IA en la justicia nos muestran que los mayores desafíos de esta tecnología no son los robots conscientes ni las superinteligencias rebeldes. Los problemas más urgentes son las complejas cuestiones éticas, sociales y técnicas sobre la justicia, la verdad y el sesgo que debemos resolver hoy. La tecnología nos ha despojado de la cómoda ambigüedad del juicio humano, forzándonos a admitir que la «objetividad» es un ideal técnico y que la «justicia» no es un concepto monolítico, sino una elección social con ganadores y perdedores.
Ahora que sabemos que los algoritmos no son inherentemente neutrales y que la «justicia» puede tener múltiples significados matemáticamente incompatibles, la pregunta fundamental ya no es si usaremos la IA, sino cómo. Y esto nos deja con un interrogante final: ¿en manos de quién —jueces, ingenieros, ciudadanos— debería recaer la decisión final sobre qué tipo de equidad codificamos en nuestro futuro?





