OpenAI ha lanzado una nueva actualización para su modelo de inteligencia artificial GPT-4o, introduciendo mejoras centradas en la escritura creativa y la capacidad de analizar archivos cargados por los usuarios. Estas funciones están disponibles exclusivamente para los usuarios de ChatGPT Plus, la versión de pago del servicio.
GPT-4o, presentado en mayo de 2024, permite trabajar con texto, audio e imágenes de forma integrada, ofreciendo respuestas en un promedio de 320 milisegundos. Con la actualización, el modelo puede proporcionar análisis más detallados y precisos de documentos cargados, así como generar textos más comprensibles y organizados. Según OpenAI, estas mejoras están orientadas a facilitar tareas que incluyen desde la creación de contenido hasta el procesamiento de información compleja.
La compañía anunció estas novedades en su perfil oficial de X (antes Twitter), destacando que el objetivo es ofrecer respuestas más completas al trabajar con documentos de texto o imágenes cargadas en la plataforma. Además, el modelo está diseñado para responder con mayor naturalidad, adaptándose a las necesidades de los usuarios.
Nuevos métodos para pruebas de seguridad y trabajo en equipo automatizado
Por otro lado, OpenAI ha publicado investigaciones sobre nuevas estrategias para evaluar y mejorar la seguridad de sus modelos de IA. Estas investigaciones abarcan métodos manuales y automatizados para probar riesgos y vulnerabilidades en los sistemas.
Un informe técnico detalla cómo OpenAI colabora con expertos externos en la formación de equipos rojos, que son grupos dedicados a identificar fallos potenciales en los modelos. Estos equipos simulan comportamientos inapropiados para detectar posibles errores y áreas de mejora.
Por otra parte, la empresa ha desarrollado un enfoque automatizado para pruebas de seguridad a gran escala. Este método utiliza modelos avanzados para generar simulaciones de ataques que ayudan a identificar vulnerabilidades en los sistemas de IA. Las simulaciones incluyen ejemplos de comportamientos que un modelo debería evitar, como respuestas inadecuadas o consejos no permitidos, y permiten mejorar los sistemas mediante ajustes basados en los resultados obtenidos.
La investigación también incluye técnicas para diversificar los ataques simulados, asegurando que sean más representativos y eficaces. Según OpenAI, estas pruebas automatizadas pueden realizarse a gran escala y complementan el trabajo de los equipos humanos. La compañía asegura que esta metodología busca garantizar que sus modelos sean seguros y fiables.