En un paso significativo hacia el establecimiento de pautas internacionales para la seguridad de la inteligencia artificial (IA), Estados Unidos, Reino Unido y más de una docena de países han acordado una serie de directrices para mantener segura la inteligencia artificial frente a actores malintencionados, abogando por que las empresas creen sistemas de IA "seguros por diseño".
El documento, de 20 páginas y presentado el domingo por la Centro Nacional de Ciberseguridad de Reino Unido, refleja el consenso de 18 países (España no está entre ellos) que acuerdan que las empresas que diseñan y utilizan la IA deben desarrollarla y desplegarla de manera que garantice la seguridad de los clientes y del público en general, evitando su mal uso.
Aunque el acuerdo no es vinculante y contiene recomendaciones generales, como la supervisión de sistemas de IA para prevenir abusos, la protección de datos contra manipulaciones y la evaluación de proveedores de software, la directora de la Agencia de Ciberseguridad e Infraestructura de EE. UU., Jen Easterly, ha destacado que es la primera vez que se afirma que estas capacidades no solo deben centrarse en características llamativas o en la rapidez de entrada al mercado, sino que la seguridad debe ser una prioridad desde la fase de diseño.
El acuerdo representa el último esfuerzo de varios gobiernos para dar forma al desarrollo de la IA, cuyo impacto se nota cada vez más en la industria y la sociedad en general. Además de Estados Unidos y Reino Unido, los 18 países firmantes incluyen a Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.
Los sistemas de inteligencia artificial ofrecen numerosos beneficios a la sociedad, pero para aprovechar plenamente estas oportunidades, es crucial desarrollar, desplegar y operar la IA de manera segura y responsable.
Estos sistemas enfrentan vulnerabilidades de seguridad novedosas que deben considerarse junto con las amenazas estándar de ciberseguridad. En el caso de la IA, donde el desarrollo avanza rápidamente, la seguridad a menudo se relega a un segundo plano. Sin embargo, estas directrices establecen que la seguridad debe ser un requisito fundamental a lo largo del ciclo de vida del sistema, desde la fase de desarrollo hasta la operación continua.
Las directrices se dividen en cuatro áreas clave dentro del ciclo de vida del desarrollo de sistemas de IA: diseño seguro, desarrollo seguro, despliegue seguro y operación y mantenimiento seguro. Cada sección proporciona consideraciones y mitigaciones para reducir el riesgo general en el proceso de desarrollo de sistemas de IA de una organización.
Estas directrices buscan garantizar que el desarrollo y uso de la inteligencia artificial se realice de manera ética, segura y responsable, protegiendo así a la sociedad de posibles abusos y promoviendo un avance tecnológico beneficioso para todos.