Autonomía regulada: la importancia de la gobernanza de los agentes de IA

Escribe Charly Lizarralde, CEO y Co-founder de 7Puentes

El potencial de los agentes autónomos de inteligencia artificial en sectores críticos como el petróleo y gas es enorme: ofrecen mejoras sin precedentes en optimización y eficiencia, además de abrir nuevas fronteras operativas. Sin embargo, este contexto instala la necesidad de un marco de gobernanza robusto para guiar la autonomía de los agentes de IA, particularmente en entornos de alto riesgo donde la precisión y el control son fundamentales.

¿Qué es la gobernanza de la inteligencia artificial? Es aquella que se refiere a los procesos, estándares y barreras que ayudan a garantizar la seguridad y la ética de los sistemas y herramientas de IA. En lo que respecta a la IA agéntica, los marcos de gobernanza deberán actualizarse para tener en cuenta su autonomía.

Con respecto a la IA agente (agentic AI), los marcos de gobernanza deberán actualizarse para tener en cuenta su autonomía. El potencial económico de los agentes es enorme, pero también lo es el panorama de riesgos asociado. Fomentar que los sistemas inteligentes operen de manera más segura, ética y transparente será una preocupación creciente a medida que se vuelvan más autónomos.

Y los agentes automatizados existen en todas partes: en el servicio al cliente, los servicios financieros, la planificación logística, el mantenimiento predictivo y la detección de anomalías, por mencionar algunas áreas.

Actualmente existen cuatro dimensiones claves cuando hablamos de gobernanza:

A. Transparencia: ambos equipos, técnicos y comerciales pueden comprender cómo funciona el agente de IA. Esto va a garantizar trazabilidad. En el caso de Oil and Gas, por ejemplo, si un agente de IA tiene que decidir cómo actuar ante una fuga de bombeo, allí ya tiene estructurados los pasos a seguir que se realizan bajo un plan de respuesta a emergencia con una constante supervisión del personal.

B. Accountability: estableciendo una asignación clara de roles para cada etapa de los agentes de IA, lograremos una adecuada gobernanza. Por ejemplo, los científicos de datos pueden ser responsables de la precisión del modelo, los ingenieros de datos de la arquitectura, los equipos legales de la parte de compliance y los equipos de operaciones de monitorear el comportamiento de los agentes en el mundo real.

C. Auditoría continua: Tiene que ser un proceso continuo que implica que la empresa cuente con dashboards con registros, revisiones de sesgo, rendimiento, seguimientos de procesos, solo por mencionar algunos ítems. Esas revisiones periódicas evalúan degradaciones del rendimiento, sesgos, o desviaciones del comportamiento esperado y si es necesario -de manera urgente- pueden desactivar a alguno de los agentes.

D. Human-in-the-loop: con el humano en el circuito, los mecanismos de bucle garantizan que el personal humano pueda intervenir cuando los agentes se encuentran con nuevas situaciones o decisiones de alto riesgo para que el humano pueda corregir el comportamiento y definir rutas para escalar el problema.

Sin dudas que las organizaciones deben adoptar modelos de gobernanza escalables, implementar protocolos sólidos de infraestructura tecnológica y gestión de riesgos e integrar la supervisión humana en el proceso. Si las organizaciones, especialmente en Oil & Gas, pueden escalar los sistemas de agentes de forma segura, podrán obtener un valor prácticamente ilimitado.

(*) Charly Lizarralde: CEO y Co-founder de 7Puentes