
Fuentes y principios para el uso ético de la inteligencia artificial
El declarador de transparencia académica en el uso de la IA se basa en marcos internacionales reconocidos que ponen en el centro la dignidad humana, los derechos humanos y la responsabilidad en el desarrollo y el uso de la inteligencia artificial.
En esta sección se reúnen las principales declaraciones, recomendaciones y guías que orientan las propuestas, los lineamientos y los materiales sobre los que se desarrolló el software. Todas ellas son de acceso público y constituyen referencias vivas que se actualizan a medida que evoluciona la tecnología.
Fuentes principales
Principios de IA de la OCDE
Estos principios, adoptados inicialmente en 2019 y actualizados en 2024, son el primer estándar intergubernamental sobre inteligencia artificial. Orientan a gobiernos, empresas, academia y sociedad civil para promover una IA innovadora y confiable, que respete los derechos humanos, la democracia y el estado de derecho, e impulse políticas públicas responsables
1
Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial
La Recomendación de la UNESCO es el primer estándar global en ética de la IA, adoptado por consenso por los 194 Estados Miembros en 2021. Establece principios y áreas de acción para garantizar que la IA proteja los derechos humanos, la dignidad, la diversidad cultural y el medio ambiente, con énfasis en la transparencia, la equidad y la supervisión humana a lo largo del ciclo de vida de los sistemas de IA.
2
Declaración de Heredia: Principios sobre el uso de IA en la publicación científica
Propone lineamientos específicos para el uso responsable de la IA en los procesos de investigación y edición científica. Subraya la importancia de la transparencia en el uso de IA, la trazabilidad de los aportes generados por estas herramientas y la responsabilidad de autoras, autores, editoriales y personas revisoras en la comunicación del conocimiento académico. Es una referencia clave para el uso ético de la IA en contextos de investigación y publicación.
3
Ethics Guidelines for Trustworthy AI – Comisión Europea (AI HLEG)
Estas guías, elaboradas por el Grupo de Expertos de Alto Nivel en IA de la Comisión Europea, definen el marco de la llamada “IA digna de confianza” (trustworthy AI). Plantean requisitos como la agencia y supervisión humanas, robustez técnica, privacidad y gestión de datos, transparencia, diversidades e inclusión, bienestar social y ambiental, y rendición de cuentas. Son un puente entre la investigación, la innovación y la implementación responsable de sistemas de IA en distintos sectores.