Inteligencia Artificial y Ciberseguridad: Hacia una Gobernanza Ética e Internacional
Inteligencia Artificial y Ciberseguridad: Hacia una Gobernanza Ética e Internacional
Por: Emily Torres Pineda
Estudiante de Relaciones Internacionales y Jurisprudencia, con énfasis en política internacional y diplomacia, de la Universidad del Rosario.
LinkedIn
La gobernanza de la inteligencia artificial (IA), en el marco de la ciberseguridad, resulta crucial en las relaciones internacionales, pues, permite analizar de qué manera su ausencia puede codificar una serie de riesgos para la seguridad, la protección de los derechos humanos, y finalmente, la estabilidad de los Estados a nivel internacional.
En la era de la Inteligencia Artificial (IA), los diversos actores del sistema internacional enfrentan el desafío de establecer controles efectivos para regular su uso y alcance de manera conjunta. La IA ha demostrado su capacidad para trascender las fronteras de la seguridad y la privacidad, impactando no solo a los gobiernos de todo el mundo, sino también al sector privado y a la población civil. Esto plantea retos crecientes para su gobernanza global, especialmente dentro de la ciberseguridad, exigiendo un enfoque colaborativo de carácter multilateral y polilateral.
Aunque la ciberseguridad carece de una definición formalmente establecida y universalmente reconocida, el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST) ofrece un valioso marco de referencia. El ciberataque es definido como “cualquier tipo de actividad maliciosa que intente recopilar, interrumpir, denegar, degradar o destruir los recursos del sistema de información o la información en sí.” Bajo esta definición, el uso de la IA resulta inherente en el análisis de la existencia y creación de riesgos a la ciberseguridad.
La integración de la IA en infraestructuras esenciales ha transformado profundamente el ámbito de la ciberseguridad para los actores internacionales. En gran medida, la ciberseguridad depende de la IA para realizar un seguimiento de diferentes tares clave, como la gestión de identidades y la prevención de pérdida de datos de la sociedad civil (Stanley, 2024).
Sin embargo, aunque la IA plantea soluciones transformadoras, también introduce riesgos para la ciberseguridad. Entre estos, se destacan las amenazas cibernéticas avanzadas, la creación y promoción de campañas de desinformación (particularmente en contextos electorales o de conflictos internacionales) y los ciberataques dirigidos contra infraestructuras críticas, como centrales eléctricas o sistemas de transporte nacionales, que pueden generar graves consecuencias a nivel social, político y económico (Mullane, 2019)
Ante estas crecientes amenazas que representan el uso indebido de la IA, su control se ha convertido en una prioridad en la agenda internacional. En el ámbito multilateral, numerosas iniciativas, lideradas en gran medida por la Organización de las Naciones Unidas (ONU), han surgido en los últimos años. Más aún, actores de la sociedad civil han emprendido esfuerzos conjuntos para adoptar estándares de industria y buenas prácticas sobre el uso de la IA, y limitar los riesgos enfrentados por su avance sin mitigación.
Como señalan Roberts et al. (2024), las discusiones multilaterales sobre la gobernanza global de la IA comenzaron en 2014, con un enfoque inicial en la regulación de los sistemas de armas autónomas letales (LAWS) en el marco de la Convención sobre Ciertas Armas Convencionales. Más recientemente, la ONU, en una carta emitida en mayo de 2024, destacó la existencia de más de 50 iniciativas para el control de la IA lideradas por sus organismos. Asimismo, en 2021, la UNESCO emitió una recomendación sobre el uso ético y responsable de la IA, adoptada por 193 Estados miembros de la ONU, consolidando un consenso global sobre la importancia de su regulación (Organización de las Naciones Unidas, 2024).
Por otro lado, el Tratado de la Unión Europea sobre la IA, busca abordar los “altos riesgos” asociados con la IA, definidos como aquellos que afectan infraestructuras críticas, componentes de seguridad estatal, el acceso a la información de los civiles, entre otros. Además, establece obligaciones de transparencia para gobiernos y empresas, con el objetivo de garantizar el cumplimiento de estándares de ciberseguridad y mitigar posibles amenazas (Comisión Europea, 2024).
Es importante destacar que esta iniciativa multilateral no es la única que incorpora a actores no estatales dentro de su marco normativo. El G7 introdujo en 2023 uno de los primeros códigos de conducta para la IA, conocido como el Proceso de IA de Hiroshima. En el primer punto de este código, se obliga a las empresas a tomar “todas las medidas a su alcance para prevenir que el uso de la IA” incremente el riesgo para la seguridad de los Estados. Asimismo, se les exige controlar las amenazas a los valores democráticos y los derechos humanos, que incluyen la desinformación y la violación de la privacidad de los civiles (Castillo, 2023).
Esto nos lleva a destacar la importancia de involucrar a actores no estatales en el desarrollo de una gobernanza global que busque, principalmente, prevenir amenazas a la ciberseguridad. Entre estos actores, se incluyen alianzas público-privadas y coaliciones entre la sociedad civil. Una de las iniciativas polilaterales más relevantes es la AI Governance Alliance, impulsada en 2023 por el Foro Económico Mundial. Esta alianza reúne a líderes de la industria, gobiernos internacionales, el mundo académico y organizaciones de la sociedad civil con el objetivo de “promover el desarrollo y la implementación de sistemas de IA que sean transparentes, inclusivos y éticamente sólidos” (Foro Económico Mundial, 2023).
Aunque existen múltiples iniciativas para mitigar el uso indebido de la IA y reducir las amenazas a la ciberseguridad, persiste la pregunta: ¿por qué continúan ocurriendo tantos ciberataques, por medio de la IA, contra infraestructuras críticas a nivel internacional? Según Roberts et al. (2024), la ausencia de una autoridad soberana genera incertidumbre entre los Estados respecto al cumplimiento de los acuerdos. Esta falta de confianza se debe, en gran medida, a los beneficios económicos asociados con el uso avanzado de la IA. China, por ejemplo, se destaca como uno de los Estados que prioriza sus intereses nacionales en este ámbito, buscando obtener una ventaja competitiva en IA incluso a costa de la seguridad internacional.
La falta de cooperación internacional también puede manifestarse en dificultades para coordinar el cumplimiento de múltiples iniciativas globales sobre IA. Por ejemplo, armonizar los objetivos del Tratado de la Unión Europea sobre IA con la Recomendación de la UNESCO sobre el uso ético y responsable de esta tecnología es un desafío. Esto se debe a que ambos instrumentos operan bajo marcos normativos distintos: mientras uno establece disposiciones estrictas y vinculantes, el otro se orienta hacia principios más flexibles.
Una cosa queda clara: la gobernanza de la IA y su relación con la ciberseguridad enfrenta riesgos crecientes a nivel internacional. No obstante, la gobernanza global sigue presentando varias iniciativas que hace el panorama para un posible control y regulación del uso de la IA no sea tan lejano. Es el compromiso de los actores internacionales, junto con su respectiva coordinación, las clave para hacerlas efectivas.
Referencias:
Castillo, C. (2023). El Proceso de IA de Hiroshima: así es el primer código de conducta global de la inteligencia artificial. El Diario. Recuperado de https://www.eldiario.es/tecnologia/proceso-ia-hiroshima-primer-codigo-conducta-global-inteligencia-artificial_1_10642176.html
Comisión Europea. (2024). AI Act. Comisión Europea. Recuperado de https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
Foro Económico Mundial. (2023). AI Governance Alliance. Foro Económico Mundial. Recuperado de https://initiatives.weforum.org/ai-governance-alliance/about
Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). (s.f.). Cyberattack. NIST. Recuperado de https://csrc.nist.gov/glossary/term/cyber_attack
Mullane, M. (2019). Ciberataques dirigidos a infraestructuras críticas. Revista de la Normalización Española. Recuperado de https://revista.une.org/15/ciberataques-dirigidos-a-infraestructuras-criticas.html
Organización Internacional de las Naciones Unidas. (2024). United Nations System White Paper on AI Governance. Organización Internacional de las Naciones Unidas. Recuperado de https://unsceb.org/united-nations-system-white-paper-ai-governance
Roberts, H., Hine, E., Mariarosaria, T. & Floridi, L. (2024). Global AI governance: barriers and pathways forward. International Affairs, Volumen 100. Recuperado de https://doi.org/10.1093/ia/iiae073
Stanley, M. (2024). AI and Cybersecurity: A New Era. Morgan Stanley. Recuperado de https://www.morganstanley.com/articles/ai-cybersecurity-new-era