(27 de noviembre del 2023. El Venezolano).- El Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC) anunció el lunes que agencias de inteligencia y seguridad de 18 países, entre ellos Estados Unidos y Reino Unido, han respaldado las primeras directrices a nivel mundial para garantizar la seguridad en el diseño, desarrollo e implementación de la inteligencia artificial (IA).
Estas normas, elaboradas en colaboración con la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA) y expertos del sector de la IA, se presentan como una guía crucial para que los desarrolladores tomen decisiones informadas en materia de ciberseguridad al crear sistemas de IA. Específicamente, se centran en aquellos programados con herramientas y servicios proporcionados por entidades externas.
Los lineamientos, basados en un enfoque de «seguridad por diseño», buscan asegurar que los modelos de IA «funcionen según lo previsto, estén disponibles cuando sea necesario y operen sin revelar datos confidenciales a partes no autorizadas».
Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur son algunas de las naciones que han firmado estas directrices, divididas en cuatro áreas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros.
La directora de la CISA, Jen Easterly, destacó que este esfuerzo conjunto refuerza la misión de proteger la infraestructura crítica y resalta la importancia de la colaboración internacional para asegurar nuestro futuro digital. Easterly subrayó que estas normativas representan un acuerdo unánime sobre la importancia de la seguridad en la fase de diseño de los sistemas de IA.
A nivel legislativo, el Parlamento Europeo ya aprobó en junio una ley que regula el uso de la IA, clasificándola según el nivel de riesgo percibido en términos de seguridad y derechos fundamentales de los usuarios. Mientras tanto, Alemania, Francia e Italia han acordado la «autorregulación obligatoria» de los modelos básicos de IA a través de códigos de conducta.
En Estados Unidos, el presidente Joe Biden emitió una orden ejecutiva el pasado 30 de octubre, considerada «histórica», para gestionar los riesgos de la inteligencia artificial y fortalecer el liderazgo estadounidense en este ámbito. La medida busca exigir a las empresas con riesgo grave para la seguridad nacional que compartan información crítica, estableciendo nuevos estándares para la seguridad y protección de la IA.