Google ha expandido la gama de modelos de lenguaje Gemma 2 con tres nuevas versiones enfocadas en la seguridad y la accesibilidad, con el propósito de facilitar la implementación de una inteligencia artificial (IA) responsable.
Para poneros en contexto, durante el mes de febrero, Google presentó Gemma, una familia de modelos de IA de código abierto en dos tamaños: 2.000 millones de parámetros (2B) y 7.000 millones de parámetros (7B). En mayo, durante su conferencia anual de desarrolladores, actualizó esta familia con el lanzamiento de Gemma 2.
Esta actualización incluye una versión con 27.000 millones de parámetros (27B), con un rendimiento comparable al de Llama 3 de Meta, que cuenta con 70.000 millones de parámetros.
Recientemente, Google ha ampliado la familia Gemma 2 con nuevos modelos y herramientas que se centran en "priorizar la seguridad y la accesibilidad", como se ha anunciado en su blog oficial. Estos nuevos modelos incluyen Gemma 2 2B, ShieldGemma y Gemma Scope.
Lo que hace diferente a Gemma 2 2B es que es una versión más pequeña del modelo principal, con 2.000 millones de parámetros, que integra avances en seguridad y ofrece un rendimiento y eficiencia mejorados. Según Google, tiene capacidades conversacionales superiores a las de GPT-3.5 en Chatbot Arena.
Por su parte, ShieldGemma se enfoca en proteger a los usuarios mediante el uso de clasificadores de seguridad que detectan y reducen el contenido perjudicial (como discurso de odio, acoso, contenido sexualmente explícito y contenido peligroso) en los modelos de IA, tanto en las entradas como en las salidas. Esta variante está disponible en diferentes tamaños, incluyendo 2B, 9B y 27B. Los dos últimos ofrecen un mejor rendimiento en aplicaciones "offline" que no dependen tanto de la latencia.
Por último, Gemma Scope es una herramienta que permite examinar los procesos de toma de decisiones de la familia Gemma 2 con el fin de mejorar la transparencia. Esta herramienta identifica patrones, procesa información y realiza predicciones.