comscore
Tecnología

IA e imparcialidad judicial: ¿un veredicto sin sesgos es posible?

La “IA imparcialidad judicial” gana terreno tras experimentos recientes y abre la puerta a fallos más justos.

IA e imparcialidad judicial: ¿un veredicto sin sesgos es posible?

Imagen de ilustración generada con IA.

Compartir

¿Puede la IA ayudar a fallar sin sesgos? Un experimento reciente sugiere un camino para lograr mayor imparcialidad judicial.

La semana pasada, en Estados Unidos, una escuela de derecho probó algo que suena a ciencia ficción: un “jurado” compuesto por modelos de IA que deliberaron en un juicio simulado. ¿El resultado? Un veredicto absolutorio y, sobre todo, una discusión útil sobre qué hace bien y qué hace mal la tecnología cuando entra al templo de la justicia. Para quienes defendemos que la IA y la imparcialidad judicial pueden caminar de la mano, la lección es clara: la máquina no está lista para reemplazar a nadie, pero sí para reducir sesgos si la usamos con cabeza fría, reglas claras y auditoría constante.

Arranquemos por lo obvio: los humanos somos falibles. Traemos sesgos cognitivos, presiones, estereotipos y cansancio. En Cartagena lo sabemos: un expediente denso un viernes a las 5 de la tarde se lee distinto que a las 9 de la mañana de un martes. La IA, en cambio, puede procesar miles de páginas sin bostezar y aplicar criterios de forma consistente sin necesitar tomarse ni un café. Eso ya es una ganancia si se diseña para eso. El experimento de Carolina del Norte mostró que los modelos fueron “atentos a la ley” y ordenados con los hechos; sin embargo, donde sí flaquean es en la falta de lectura del lenguaje corporal y la “experiencia” de sala. Esa mezcla —fortaleza en texto, debilidad en señales humanas— nos apunta un rol ideal: copiloto judicial antes que juez de toga completa. Le puede interesar: Adiós teclado y mouse: la nueva era ya empezó

¿Cómo se vería ese copiloto en la práctica? Tres usos inmediatos:

  1. Chequeo de sesgo: antes de dictar sentencia, el sistema corre un análisis “a ciegas” (sin datos sensibles) y compara con una versión “con contexto” para detectar disparidades por raza, género, estrato o territorio. Si hay divergencias sospechosas, salta una alerta con explicaciones trazables.
  2. Guías de decisión: la IA genera un checklist de precedentes, estándares probatorios y mínimos de motivación, para que el juez humano no omita piezas clave.
  3. Revisión por pares sintética: el modelo produce la mejor contraargumentación posible a favor y en contra del fallo proyectado, obligando a fortalecer la motivación.

Pero otro tema que sale a flote en el estudio realizado por la Universidad de Carolina del Norte es las diferencias generadas por el enfoque de cada uno de los principales modelos de IA comerciales y en línea con los guardrails (restricciones de seguridad) de cada modelo y su influencia en la imparcialidad. Las IAs comerciales —ChatGPT, Claude, Grok, Gemini— no son idénticas en su “personalidad regulatoria”. Modelos con guardrails más estrictos tienden a ser cautos hasta la neutralidad: evitan posiciones y prefieren respuestas moderadas. Eso reduce sesgos evidentes (por ejemplo, lenguaje discriminatorio), pero puede introducir otro sesgo: el sesgo hacia la abstención. En un juicio, una IA hiperprudente puede “lavarse las manos” y evitar pronunciarse cuando la evidencia sí alcanza el estándar requerido. Traducido a nuestro idioma: al no querer mojarse se puede terminar siendo injusto con la víctima o con el acusado, según el caso.

La literatura reciente va en esa vía: al aumentar la mitigación de riesgo, algunos modelos desplazan su comportamiento hacia una neutralidad rígida, y en ciertos contextos muestran rechazos selectivos que no son uniformes entre grupos. ¿Qué hacemos entonces? Lo mismo que aprendimos de la prensa y del derecho probatorio: transparencia y contraste. Hay que medir qué tanto cambian las conclusiones de la IA cuando varías la exposición del caso, cuando ocultas/ revelas atributos sensibles y cuando haces “doble ciego” con resúmenes reordenados. Si la decisión se mueve demasiado, la herramienta no sirve para juzgar; solo para asistir.

También importa el marco regulatorio. En Europa, la IA usada en justicia caería en la categoría de “alto riesgo”, con obligaciones fuertes sobre calidad de datos, trazabilidad y control de sesgos. Eso es sano: obliga a documentar de dónde salen los datos, cómo se balancean y cómo se auditan. En América Latina se pueden tomar atajos inteligentes, empezando por protocolos de auditoría pública, evaluaciones externas y la regla de oro: siempre decide un humano responsable con motivación verificable.

Colombia, por cierto, ya empezó a tantear el terreno. Hemos visto jueces que citan o consultan IAs en decisiones de tutela y, más recientemente, pronunciamientos de la Corte que ponen límites y buenas prácticas. Desde el Caribe sabemos que la innovación sin pedagogía se vuelve culebra: si la ciudadanía percibe que un “robot” decide libertades, la confianza se rompe. Por eso, la narrativa correcta no es “la IA sentenciará”, sino “la IA ayudará a evitar sesgos y a motivar mejor”.

¿Qué pasaría en el futuro cercano? Visualizo mesas mixtas: juez, defensas, fiscalía y un árbitro algorítmico que: (a) estandariza resúmenes de prueba; (b) calcula riesgos con variables permitidas y auditables; (c) simula contra-escenarios para detectar sesgos; y (d) deja bitácoras públicas de cada recomendación. Todo con datos gobernados, versiones controladas y registros de quién tocó qué. El veredicto seguirá siendo humano, pero con un espejo que le muestre sus puntos ciegos. Le puede interesar:Sora 2 y el futuro de las redes con IA: ¿progreso o espejismo?

¿Y el “jurado de IA” a largo plazo? Yo no lo descartaría en arbitrajes privados, pequeñas causas o conciliaciones, siempre bajo opción de apelación ante un juez humano. Es como subir a La Popa en funicular: te ahorra el trote, pero si el aparato falla, todavía puedes subir a pie. La clave es que la tecnología no sea una caja negra; que podamos ver, medir y corregir.

En síntesis: si el objetivo es imparcialidad judicial con IA, el camino no es pedirle infalibilidad a un modelo comercial, sino construir instituciones algorítmicas: datos limpios, explicabilidad, auditorías independientes, y diseños que penalicen la discriminación sin volver cobarde a la decisión. Con eso, la justicia no será perfecta, pero sí un poco menos humana en sus sesgos y más humana en su resultado: justa.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News