www.zonamovilidad.es
Estados Unidos acuerda con OpenAI y Anthropic que compartan sus modelos para comprobar que son seguros
Ampliar

Estados Unidos acuerda con OpenAI y Anthropic que compartan sus modelos para comprobar que son seguros

Por Antonio Rodríguez
x
infozonamovilidades/4/4/18
sábado 31 de agosto de 2024, 15:00h

Escucha la noticia

La Administración Biden ha firmado acuerdos de colaboración con OpenAI y Anthropic, dos líderes en el desarrollo de modelos avanzados de IA, para testar sus modelos de IA generativa antes de que se publiquen y comprobar así que son seguros.

Estos acuerdos, anunciados recientemente por el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos, son parte de una estrategia más amplia para mitigar los riesgos asociados con las tecnologías emergentes y garantizar un desarrollo seguro y ético de la IA.

Hace un año, la Administración Biden lanzó este instituto encargado de evaluar los riesgos de los modelos fundacionales de IA. Estos modelos, como GPT de OpenAI y Claude de Anthropic, están entrenados con vastas cantidades de datos y tienen el potencial de influir en diversas áreas, desde la generación de contenido hasta la seguridad cibernética. El objetivo del instituto es anticipar y mitigar los posibles riesgos antes de que estos modelos lleguen al público.

Para cumplir con este propósito, el Instituto de Seguridad de la IA necesita acceso directo a los modelos desarrollados por las empresas. Es aquí donde los acuerdos con OpenAI y Anthropic cobran importancia. Ambas compañías han acordado proporcionar acceso a sus modelos más avanzados al gobierno estadounidense tanto antes como después de su lanzamiento comercial. Este acceso permitirá al instituto realizar evaluaciones exhaustivas sobre las capacidades de estos modelos, identificar posibles riesgos de seguridad y desarrollar estrategias para mitigarlos.

Colaboración internacional

Además de acceder a los modelos de IA, el Instituto de Seguridad de la IA colaborará estrechamente con su contraparte en el Reino Unido para compartir conocimientos y mejores prácticas. Como parte de los acuerdos, OpenAI y Anthropic recibirán feedback sobre posibles mejoras de seguridad en sus modelos, lo que podría incluir desde ajustes técnicos hasta recomendaciones sobre el manejo ético de la información.

"Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA"

La directora del Instituto de Seguridad de la IA de Estados Unidos, Elizabeth Kelly, ha subrayado la importancia de estos acuerdos como un primer paso hacia la regulación efectiva de la inteligencia artificial. "Estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA", asegura Kelly.

Asimismo, Jason Kwon, director de estrategia de OpenAI, ha señalado que el instituto desempeñará un papel fundamental en la definición del liderazgo estadounidense en este campo. "Creemos que nuestro trabajo conjunto ofrecerá un marco en el que pueda basarse el resto del mundo", afirmó Kwon.

Este esfuerzo de regulación se enmarca en una tendencia de autorregulación en la industria. A medida que esta tecnología continúa evolucionando, la colaboración entre gobiernos y empresas será crucial para garantizar que su desarrollo se realice de manera segura, ética y beneficiosa para la sociedad en su conjunto.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios