Gobernanza corporativa y uso de inteligencia artificial: claves legales para una toma de decisiones responsable en 2026 Por María Pilar Eguren López
En 2026, la inteligencia artificial (IA) ya no es una herramienta experimental dentro de las empresas, sino un factor estructural en la toma de decisiones corporativas. Sistemas que recomiendan inversiones, evalúan riesgos, priorizan clientes o automatizan procesos internos forman parte del día a día de los órganos de dirección. Sin embargo, este avance tecnológico plantea desafíos legales y de gobierno corporativo que muchas organizaciones aún no han abordado de forma estratégica.
Desde una perspectiva jurídica, el debate ya no gira en torno a si se puede usar IA, sino cómo hacerlo sin comprometer la responsabilidad legal, el deber de diligencia y la trazabilidad de las decisiones empresariales. En este contexto, María Pilar Eguren López analiza las principales implicaciones legales del uso de IA en la gobernanza corporativa y propone criterios prácticos para una adopción responsable.
La IA como herramienta de decisión: ¿apoyo o sustitución?
Uno de los principales riesgos legales asociados a la IA en el ámbito corporativo es la confusión entre apoyo a la decisión y sustitución del criterio humano.
Responsabilidad indelegable de los órganos de administración
Desde el punto de vista del derecho corporativo, los administradores mantienen una responsabilidad indelegable en la toma de decisiones estratégicas. Aunque la IA pueda aportar análisis predictivos o recomendaciones basadas en grandes volúmenes de datos, la decisión final debe seguir siendo humana.
María Pilar Eguren López subraya que apoyarse excesivamente en sistemas automatizados sin una revisión crítica puede interpretarse como una falta de diligencia, especialmente si la empresa no puede explicar cómo se llegó a una determinada decisión.
El riesgo del “sesgo automatizado”
Los sistemas de IA no son neutros. Replican los datos con los que han sido entrenados y pueden introducir sesgos discriminatorios o errores sistemáticos. Desde una óptica de compliance, esto implica un riesgo real en áreas como:
• Contratación y gestión de personal
• Evaluación de clientes o proveedores
• Decisiones de crédito o inversión
La falta de control sobre estos sesgos puede derivar en responsabilidad legal y reputacional.
Gobierno corporativo y deber de supervisión tecnológica
El uso de IA exige repensar los marcos tradicionales de gobierno corporativo.
Integrar la supervisión tecnológica en el consejo
Una buena práctica emergente es la incorporación de la supervisión tecnológica como parte del deber de vigilancia del consejo de administración. Esto no significa que los consejeros deban ser expertos técnicos, sino que comprendan:
• Qué sistemas de IA utiliza la empresa
• Para qué decisiones se emplean
• Qué riesgos legales y éticos implican
Según María Pilar Eguren López, la omisión de este control puede ser interpretada, en ciertos contextos, como una deficiencia en el sistema de gobierno corporativo.
Documentación y trazabilidad de decisiones
Uno de los puntos más críticos desde el punto de vista legal es la trazabilidad. Las empresas deben poder responder a preguntas como:
• ¿Qué información proporcionó el sistema de IA?
• ¿Qué criterios se tomaron en cuenta?
• ¿Quién validó la decisión final?
La ausencia de documentación clara dificulta la defensa jurídica ante conflictos societarios, reclamaciones de terceros o investigaciones regulatorias.
Compliance y marcos internos de uso de IA
El compliance corporativo en 2026 ya no puede limitarse a códigos de conducta genéricos. El uso de IA exige políticas internas específicas.
Elementos clave de una política interna de IA
María Pilar Eguren López recomienda que las empresas definan, al menos, los siguientes aspectos:
• Ámbitos en los que está permitido el uso de IA
• Decisiones que requieren validación humana obligatoria
• Protocolos de revisión periódica de los sistemas
• Mecanismos de reporte de errores o resultados anómalos
Estas políticas no solo reducen riesgos legales, sino que aportan seguridad jurídica a directivos y empleados.
Formación como herramienta preventiva
Otro elemento frecuentemente subestimado es la formación. El desconocimiento del funcionamiento básico de la IA puede llevar a usos indebidos o excesivamente confiados. Capacitar a los equipos clave es una medida preventiva con impacto directo en la reducción de riesgos legales.
Toma de decisiones informada en un entorno regulatorio cambiante
El marco normativo en torno a la IA continúa evolucionando rápidamente. Aunque muchas regulaciones aún se están consolidando, la tendencia es clara: mayor exigencia de transparencia, control y responsabilidad.
Desde la experiencia de María Pilar Eguren López, las empresas que anticipan estos cambios y adaptan sus estructuras internas no solo cumplen mejor con sus obligaciones legales, sino que toman decisiones más sólidas y defendibles.
Conclusión
La inteligencia artificial representa una oportunidad significativa para mejorar la eficiencia y la calidad de las decisiones empresariales. Sin embargo, su uso sin una estructura jurídica y de gobierno corporativo adecuada puede convertirse en una fuente relevante de riesgo legal.
Como ha analizado María Pilar Eguren López, la clave en 2026 no es frenar la innovación, sino integrarla con criterios de diligencia, supervisión y responsabilidad. Las empresas que entiendan esta lógica estarán mejor preparadas para un entorno donde la tecnología y el derecho avanzan, inevitablemente, de la mano.
