En una sección menos visible de su sitio web, dedicada a sus principios de privacidad, Slack revela que sus sistemas analizan los datos del cliente enviados a través de la plataforma, así como otra información para entrenar nuevos modelos de IA, de manera predeterminada y sin requerir un permiso específico.
Estos modelos se entrenan utilizando datos de los usuarios, que incluyen información de uso de la plataforma, así como mensajes, contenido y archivos intercambiados en las comunicaciones. Slack, en un comunicado a través de su blog, ha señalado que los modelos "no pueden aprender, memorizar ni reproducir estos datos" y que la compañía no puede acceder a ellos.
La alerta ha saltado cuando el directivo Corey Quinn, de DuckBill Group, publicó en su perfil en la red social X lo que Slack está haciendo con los datos, incluyendo mensajes y documentos. Quinn señaló que el entrenamiento de los LLM de aprendizaje automático es por defecto y que, para que Slack deje de utilizar la información de los usuarios, la organización debe contactar a la compañía por correo electrónico, ya que no se proporciona una opción para desactivarlo en la configuración de la cuenta.
En respuesta a la crítica de Quinn, Slack ha confirmado sus políticas. También ha aclarado que, en el caso de los modelos generativos, la experiencia ofrecida se recoge en Slack AI, una función adicional y de pago, impulsada por modelos alojados en la infraestructura de la compañía, lo que garantiza que los datos permanecen bajo control del cliente y se utilizan exclusivamente para su propio beneficio.