En los últimos años, el fenómeno de los deepfakes ha cobrado gran relevancia en el debate público. Para quien no lo sepa, se trata de una inteligencia artificial, que permite crear imágenes y videos falsos con un alto grado de realismo que ha generado preocupaciones en la sociedad. La utilización de esta tecnología por parte de delincuentes para imitar la apariencia, voz y movimientos de personas con fines fraudulentos ha aumentado considerablemente. Según el informe Get Identity Fraud Report 2023, los casos de fraude relacionados con deepfakes se incrementaron diez veces entre 2022 y 2023. Por lo tanto, identificar y desmantelar estas prácticas se ha convertido en un desafío significativo en 2024.
La tecnología destinada a combatir esta problemática está en constante evolución, incluyendo el desarrollo de herramientas avanzadas para la detección de deepfakes. Además, se está promoviendo una mayor educación entre la población sobre estas manipulaciones y se están fortaleciendo las leyes y regulaciones en contra de su uso indebido. Sin embargo, tanto las empresas como los individuos deben permanecer vigilantes y establecer métodos adicionales de verificación para asegurar la autenticidad de la información, especialmente en decisiones financieras o de alto riesgo.
En base a esto, Pierre Matta, Country Manager de España en Fourthline, ha dicho que “desenmascarar los deepfakes es un esfuerzo que requiere una combinación de tecnología avanzada, educación pública y cooperación internacional. En 2024, con el crecimiento de la inteligencia artificial, estas acciones son más cruciales que nunca para combatir el fraude y salvaguardar la integridad de la información”.
Desenmascarar los deepfakes
Es fundamental utilizar modelos entrenados con datos de "Conozca a su cliente" (KYC), ya que muchos de los modelos de reconocimiento facial disponibles no están basados en datos reales de clientes obtenidos durante procesos de verificación de identidad. La mayoría de los proveedores utilizan datos genéricos, como imágenes de archivo o fotos de celebridades, que no satisfacen las necesidades específicas de verificación y carecen de la precisión necesaria.
Las herramientas de análisis forense digital son otra alternativa efectiva, ya que pueden examinar metadatos y características de archivos multimedia para detectar manipulaciones. Cambios en las propiedades del archivo, como su firma digital, pueden ser indicativos de alteraciones sospechosas.
Es esencial establecer regulaciones que castiguen la creación y difusión de deepfakes malintencionados. La colaboración internacional es clave para desarrollar un marco legal que permita perseguir a los creadores de deepfakes sin importar su ubicación.
Asimismo, es necesario fomentar alianzas entre plataformas de redes sociales y empresas tecnológicas. Redes como Facebook, Twitter y YouTube pueden trabajar en conjunto para desarrollar y compartir tecnologías de detección con gobiernos y otras organizaciones, permitiendo la eliminación rápida de contenido falso. Además, estas plataformas pueden marcar o eliminar contenido que se sospeche sea un deepfake, alertando a los usuarios.
Finalmente, esta nueva práctica de la inteligencia artificial representa una amenaza creciente, especialmente en manos de ciberdelincuentes. Es crucial prestar atención a este fenómeno mediante el desarrollo de herramientas de detección más sofisticadas y un compromiso continuo con la educación y la ética. La colaboración entre gobiernos, empresas y la sociedad civil se perfila como la solución más efectiva para mitigar estos riesgos y asegurar que esta tecnología se utilice de manera positiva.