top of page
Image by Growtika

Fuentes y principios para el uso ético de la inteligencia artificial

El  declarador de transparencia académica en el uso de la IA se basa en marcos internacionales reconocidos que ponen en el centro la dignidad humana, los derechos humanos y la responsabilidad en el desarrollo y el uso de la inteligencia artificial.

En esta sección se reúnen las principales declaraciones, recomendaciones y guías que orientan las propuestas, los lineamientos y los materiales sobre los que se desarrolló el software. Todas ellas son de acceso público y constituyen referencias vivas que se actualizan a medida que evoluciona la tecnología.

Fuentes principales

Principios de IA de la OCDE

Estos principios, adoptados inicialmente en 2019 y actualizados en 2024, son el primer estándar intergubernamental sobre inteligencia artificial. Orientan a gobiernos, empresas, academia y sociedad civil para promover una IA innovadora y confiable, que respete los derechos humanos, la democracia y el estado de derecho, e impulse políticas públicas responsables

1

Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial

La Recomendación de la UNESCO es el primer estándar global en ética de la IA, adoptado por consenso por los 194 Estados Miembros en 2021. Establece principios y áreas de acción para garantizar que la IA proteja los derechos humanos, la dignidad, la diversidad cultural y el medio ambiente, con énfasis en la transparencia, la equidad y la supervisión humana a lo largo del ciclo de vida de los sistemas de IA.

2

Declaración de Heredia: Principios sobre el uso de IA en la publicación científica

Propone lineamientos específicos para el uso responsable de la IA en los procesos de investigación y edición científica. Subraya la importancia de la transparencia en el uso de IA, la trazabilidad de los aportes generados por estas herramientas y la responsabilidad de autoras, autores, editoriales y personas revisoras en la comunicación del conocimiento académico. Es una referencia clave para el uso ético de la IA en contextos de investigación y publicación.

3

Ethics Guidelines for Trustworthy AI – Comisión Europea (AI HLEG)

Estas guías, elaboradas por el Grupo de Expertos de Alto Nivel en IA de la Comisión Europea, definen el marco de la llamada “IA digna de confianza” (trustworthy AI). Plantean requisitos como la agencia y supervisión humanas, robustez técnica, privacidad y gestión de datos, transparencia, diversidades e inclusión, bienestar social y ambiental, y rendición de cuentas. Son un puente entre la investigación, la innovación y la implementación responsable de sistemas de IA en distintos sectores.

4

Más información

  • ¿Qué es?

    Propuesta técnico-legislativa que busca sentar las bases para una regulación de IA que maximice beneficios sin comprometer derechos fundamentales, equidad, sostenibilidad ni soberanía tecnológica

  • ¿Qué es?

    Agenda impulsada por la coalición ciudadana IA2030Mx (con apoyo de la OCDE) que propone lineamientos para un plan nacional de IA en México, con fuerte énfasis en gobernanza, ética y IA para el bien público.

  • ¿Qué es?

    Informes que documentan el sandbox regulatorio de IA y discuten necesidades de política y regulación para un desarrollo responsable.

  • ¿Qué es?

    Declaración de principios y derechos en el entorno digital, con una sección específica sobre derechos frente a la IA (no discriminación algorítmica, transparencia, supervisión humana, etc.).

  • ¿Qué es?

    Estrategia publicada en 2020 que busca una IA inclusiva, confiable y alineada con los derechos fundamentales, en sintonía con la estrategia europea.

  • ¿Qué es?

    Política nacional publicada en 2021 y actualizada después, con énfasis en gobernanza, ética, estándares y proyecto de ley de IA alineado con la Recomendación de la UNESCO sobre la Ética de la IA

  • ¿Qué es?

    Documento CONPES que formula la política nacional de transformación digital e IA; incluye principios de uso responsable, protección de derechos y bienestar social como parte del despliegue de IA.

  • ¿Qué es?

    Documento específico que desarrolla un marco ético para el diseño y uso de IA en el país, como instrumento para implementar la política CONPES 3975.

  • ¿Qué es?

    Primera política pública de IA de Costa Rica; su Eje 1 se centra en “IA ética, segura y responsable”, con acciones para regular y orientar su desarrollo y uso en beneficio de las personas.

  • ¿Qué es?

    Documento estratégico de la Presidencia del Consejo de Ministros que orienta el desarrollo de la IA garantizando derechos humanos, privacidad, seguridad y colaboración multisectorial.

  • ¿Qué es?

    Plan nacional que se enmarca en la Agenda Digital 2030 y la Estrategia de Ciencia y Tecnología, con el objetivo de usar la IA para el desarrollo sostenible y afrontar los desafíos éticos y sociales de la transformación tecnológica.

bottom of page