
Un vistazo a la nueva zona de confort de las estafas
Los estafadores son cada día más astutos, tanto que se hacen pasar por directores ejecutivos. Imagínese: un director financiero recibe una videollamada de alguien que se parece y habla igual que su jefe, quizás incluso con un tono de voz apremiante.
La víctima pulsa un botón: 25 millones de dólares desaparecen. Ese es el tipo de escenario al que se enfrentan empresas como Ferrari, Wiz y WPP, según nuevos informes.
Los expertos en ciberseguridad señalan que, solo en 2024, se produjeron más de 105.000 ataques relacionados con deepfakes en EE. UU., que aprovecharon la inteligencia artificial de voz y video para replicar de forma convincente los gestos de los ejecutivos. Es la clase de cosas que se convierten en pesadillas, sobre todo cuando la estafa se reproduce como un episodio de Netflix.
Por qué todos estamos intentando ponernos al día con la IA
Pregúntale a un CISO sobre el papel de la IA en la ingeniería social y suspirará: siempre van cinco pasos por detrás de los modelos generativos. Estas estafas funcionan porque atacan los instintos humanos básicos: autoridad, urgencia y confianza.
Un experto señala acertadamente: una vez que el estafador imita el tono de tu jefe de manera perfecta, estás a medio camino de caer en la trampa.
Las pérdidas son elocuentes: más de 200 millones de dólares en cartera este año. Reguladores como FinCEN y la Asociación Americana de Banqueros están dando la voz de alarma, impulsando defensas estratificadas: capacitación de empleados, protocolos de pausa y verificación y herramientas de detección de última generación.
Novedades en defensa: herramientas, advertencias y rumores
Las empresas tecnológicas no se quedan de brazos cruzados. Las startups emergentes de ciberseguridad están desarrollando filtros deepfake, mientras que las veteranas —bancos, aseguradoras, etc.— redoblan sus esfuerzos en los protocolos de verificación.
Aquí hay algo que vale la pena destacar: Norton ha implementado una función de Protección contra Deepfake en su Asistente de IA Norton Genie para dispositivos móviles. Esta función detecta videos sospechosos directamente en tu teléfono, sin necesidad de una lupa.
Ese tipo de detección en tiempo real podría ser una rápida salvación para los empleados en el salvaje oeste de las llamadas digitales.
Además, expertos policiales y de la industria se unieron recientemente en una iniciativa respaldada por la ONU para exigir estándares globales para la detección de deepfakes, como la marca de agua en el contenido, la procedencia digital y el etiquetado previo de los medios de IA. Si la transparencia se convierte en la norma, los deepfakes podrían perder parte de su carácter amenazante.
Añadiendo mis dos centavos
No puedo evitar sentir que todos estamos a toda prisa, intentando no tropezar con la próxima estafa de deepfake. Los reguladores, las empresas tecnológicas, los equipos de RR. HH., e incluso los becarios, deben estar en alerta máxima.
Se trata de algo más que filtros sofisticados o cuestionarios de imitación de directores ejecutivos: se trata de construir una cultura de escepticismo digital.
Hábitos sencillos pueden ahorrar millones: preguntar «¿Puedo llamarlos a su línea de oficina?» antes de transferir dinero. O «¿Por qué no les envías un mensaje por Slack?» antes de enviar. No se trata de temerle a la tecnología; se trata de asegurar que la empatía y la verificación sigan el ritmo de las artimañas de la IA.