Facebook bloquea deepfakes de celebridades que permitieron a ciberdelincuentes robar US$30 millones

Facebook bloquea deepfakes de celebridades que permitieron a ciberdelincuentes robar US millones

La decisión de Meta se tomó luego de una estafa de gran alcance en Australia, donde piratas informáticos usaron falsificaciones con inteligencia artificial en fraudes con criptomonedas.

¿Qué es FIRE, la nueva herramienta que Meta usa para combatir las deepfakes?

Una de las problemáticas asociadas al auge de la inteligencia artificial generativa es la sofisticación del fraude digital, ya que los ciberdelincuentes disponen de herramientas capaces de diseñar amenazas en forma dinámica y efectiva, automatizando procesos. En ese terreno, aumentó el uso de deepfakes para estafas. ¿De qué se trata? Los atacantes apelan a las falsificaciones profundas para campañas de phishing (suplantación de identidad) de mayor alcance.

A sabiendas de ello, Meta lanzó una nueva herramienta, denominada FIRE, para combatir a las deepfakes. Según Mashable, esa movida se puso en marcha en Australia, un país en el que se registraron grandes pérdidas económicas generadas por actores maliciosos que emplean las falsificaciones para fraudes con criptomonedas.

Deepfakes, calumnias y estafas

Las falsificaciones profundas son creadas con herramientas de IA. Básicamente, se trata de fotos, videos y audios que imitan con gran realismo a terceros. En muchos casos, la problemática gira en torno a la difamación. Un ejemplo reciente es el de las deepfakes pornográficas que afectaron a la cantante Taylor Swift.

Las deepfakes traen consigo riegos: difamaciones y estafas.

Además, como hemos señalado, esas falsificaciones se usan en ciberdelincuencia para canalizar ataques que tienen un gran alcance, gracias a su capacidad para confundir a los espectadores. Australia es uno de los países que más ha sufrido este tipo de fraudes. Según The Guardian, allí se usaron deepfakes de varios famosos —entre ellos la multimillonaria Gina Rinehart y el presentador de televisión Larry Emdur— para robar monedas virtuales.

¿Cómo lo hacen? Los piratas informáticos ponen a circular videos en los que esos clones digitales promocionan inversiones en criptomonedas. Es un phishing evolucionado y, por eso, más peligroso. Como vemos, se cuelgan de una celebridad para generar en los espectadores un sentimiento de confianza.

Según el servicio del gobierno australiano Scamwatch, entre enero y agosto de este año, en aquel país se informaron pérdidas equivalentes a 30 millones de dólares por estafas en las redes sociales. Además, la Comisión Australiana de Competencia y Consumo informó que el último año las pérdidas por ese tipo de fraudes aumentaron un 16,5%, hasta los 64 millones de dólares.

FIRE, el plan de Meta para luchar contra las estafas con deepfakes

Esta herramienta es un esfuerzo conjunto del conglomerado detrás de Facebook y entidades bancarias para recopilar información sobre las estafas que circulan en las redes. En este marco, la firma estadounidense bloqueó en los primeros seis meses de la iniciativa cerca de 8.000 páginas y unas 9.000 estafas con deepfakes de celebridades.

“Además de invertir en nuestras propias herramientas y tecnología, estamos trabajando con socios gubernamentales y de la industria para luchar contra este flagelo. Las estafas afectan a múltiples industrias”, comentó David Agranovich, director de políticas de Global Threat Disruption en Meta.

Claves para identificar a las deepfakes

Como fuere, se trata de un esfuerzo constante que no se detendrá solo con una herramienta. En este sentido, Agranovich señaló que “los estafadores no van a detener sus actividades” y que “una vez que los bloqueemos, buscarán nuevas formas de volver, nuevas formas de burlar nuestra defensa”.

En este escenario, más allá de la aparición y disponibilidad de campañas anti-deepfake, es importante la concientización en los usuarios. Para eludir los riesgos asociados a las falsificaciones, es fundamental el espíritu crítico; es decir, tener la capacidad y la propensión para chequear la información que a primera vista resulta sospechosa o dudosa. En ese camino, además, las propias plataformas deben contribuir en la prevención. Una de las claves es la inclusión de marcas y etiquetas que explicitan cuando un contenido fue generado con herramientas de inteligencia artificial.

Déjanos tu comentario