comscore
Colombia

Estado colombiano deberá explicar funcionamiento de su inteligencia artificial

La medida surge tras la sentencia T-067 de 2025 de la Corte Constitucional.

Estado colombiano deberá explicar funcionamiento de su inteligencia artificial

La Procuraduría General de la Nación destituyó e inhabilitó por 14 años a docente de Soledad, Atlántico, por abuso sexual con menor de edad.//Cortesía.

Compartir

La Procuraduría General de la Nación y la Defensoría del Pueblo expidieron este martes la Directiva Conjunta 007, con la que se establecen estándares obligatorios de transparencia algorítmica para todas las entidades del Estado y ciertos particulares que utilicen sistemas de inteligencia artificial en la toma de decisiones que puedan afectar derechos ciudadanos.

La medida surge tras la sentencia T-067 de 2025 de la Corte Constitucional, que ordenó fijar parámetros mínimos sobre el tema, al considerar que la transparencia algorítmica es un componente esencial del derecho de acceso a la información pública. Lea aquí: ¿Centro de mantenimiento, reparación y revisión aeronáutica en el Atlántico?

Procuraduría y Defensoría fijan reglas para garantizar transparencia en el uso de inteligencia artificial en el Estado

Según la directiva, los “sujetos obligados” por la Ley de Transparencia 1712 de 2014 deberán cumplir estas reglas siempre que desarrollen, adquieran o implementen sistemas algorítmicos clasificados como Sistemas de Toma de Decisiones Automatizadas (SDA) o que recolecten datos sensibles como la geolocalización. Esto incluye entidades públicas de todos los niveles, órganos de control, partidos políticos y personas naturales o jurídicas que presten funciones públicas o administren recursos estatales.

El eje central es la obligación de “transparencia activa”, que exige publicar en los portales institucionales información clara sobre cada sistema: nombre, objetivo, función, estado (desarrollo, implementación o descontinuado), si maneja datos personales y quién lo desarrolló. Para los sistemas de alto riesgo —aquellos que asignan beneficios, evalúan riesgos de criminalidad, generan perfiles, diagnostican enfermedades o afectan poblaciones vulnerables— se deberán divulgar criterios de decisión, resultados de un análisis de impacto previo y medidas de mitigación de sesgos.

La directiva también refuerza la “transparencia pasiva”, garantizando que cualquier persona pueda solicitar información sobre los algoritmos del Estado. En estos casos, las entidades deberán valorar si entregan el código fuente o si explican en lenguaje sencillo cómo funciona el sistema.

Además, cada institución deberá habilitar un canal para que los ciudadanos cuestionen o soliciten revisión de decisiones automatizadas. Si un usuario considera vulnerados sus derechos, podrá acudir a la Procuraduría o la Defensoría para recibir acompañamiento.

El cumplimiento será vigilado mediante una encuesta anual sobre el uso de algoritmos y la creación de una Mesa de Seguimiento Interinstitucional, que propondrá mejoras a la implementación de los estándares.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News