La herramienta de detección de ‘deepfakes’ que Honor presentó durante el Mobile World Congress de Shanghái que tuvo lugar en julio, AI Deepfake Detection, estará disponible a nivel mundial a partir de abril de este año.
A parte de en el MWC de Shanghái, la compañía también reveló esta herramienta durante la IFA 2024 que tuvo lugar en Berlín el año pasado.
La herramienta de Honor realiza un análisis a tiempo real de contenido de vídeos y fotos impulsados por su tecnología de inteligencia artificial. Por este motivo, lo que hace “especial” a esta herramienta, es su capacidad para analizar incoherencias que el ojo humano no es capaz de percibir en muchas ocasiones.
AI Deepfake Detection es una herramienta capacitada para identificar imperfecciones sintéticas a nivel de píxel, artefactos en la composición de bordes, continuidad entre fotogramas y coherencia en el peinado y los rasgos faciales. Esta capacidad es crucial para detectar contenido manipulado de manera efectiva y rápida.
En cuanto a su mecanismo, cuando se identifica un deepfake, se emite de inmediato una advertencia para salvaguardar a los usuarios del riesgo potencial asociado a esta tecnología engañosa. Así lo ha explicado la tecnológica china en un comunicado de prensa, donde se destaca que, según el Instituto de Ciberseguridad Entrust, un ataque de este tipo ocurre cada cinco minutos. Este dato resalta la urgencia de contar con herramientas efectivas como la Detección de Deepfakes para combatir este fenómeno.
Su función de detección responde a la necesidad de abordar los "desafíos ocultos" que ha traído consigo el auge de la inteligencia artificial
Asimismo, la compañía ha subrayado que su función de detección responde a la necesidad de abordar los "desafíos ocultos" que ha traído consigo el auge de la inteligencia artificial. Entre estos desafíos se encuentran los vídeos manipulados, que son utilizados para hacer que los usuarios crean que están observando a una persona específica realizando declaraciones o acciones que en realidad son irreales.
Este tipo de contenido representa un problema global en la actualidad, ya que solo el 0,1 por ciento de los usuarios es capaz de distinguir con precisión un deepfake de un contenido auténtico. Esta afirmación se basa en una investigación reciente realizada por el proveedor de soluciones biométricas iProov, lo que pone de manifiesto la dificultad que enfrentan los usuarios en la identificación de estos contenidos.
Por último, a pesar de que el 49 por ciento de las empresas ha experimentado casos de deepfakes de voz y audio entre noviembre de 2023 y noviembre de 2024, el 61 por ciento de los directivos ha admitido que no han implementado protocolos para minimizar los riesgos a los que se enfrentan sus organizaciones. Esta información, proporcionada por Honor, subraya la falta de preparación ante un fenómeno que sigue en aumento, lo que hace que la Detección de Deepfakes sea más relevante que nunca.