Es extraño cómo un día perfecto puede volverse del revés. Ahora imagina esto: suena tu teléfono, la voz temblorosa de tu hermana cruza la línea y, en algún momento, antes de que tengas tiempo de contestar, se te forma un nudo en el estómago.
Ésa es exactamente la razón por la que estas nuevas estafas de “voz familiar” impulsadas por la IA tienen tanto éxito y tan rápidamente: florecen gracias al miedo mucho antes de que la razón entre en juego.
Una historia reciente detalla cómo los malos ahora están empleando sofisticadas técnicas de clonación de voz para replicar a sus seres queridos de manera tan asombrosa que las personas bajaron la guardia y observaron impotentes cómo los ahorros de toda su vida desaparecían en minutos.
Y así de real puede ser el riesgo y con qué rapidez se desarrollan muchos de estos casos recientes: aquí hay un desglose de algunos ejemplos de unos pocos incidentes recientes reportados en un artículo publicado en SavingAdvice donde los estafadores usaron voces clonadas que eran increíblemente creíbles como para obligar a los padres e incluso a los abuelos a actuar de inmediato (ejemplo citado de un problema mayor).
Lo que sorprende a muchos analistas de ciberseguridad es la poca cantidad de sonido grabado que necesitan los estafadores para lograrlo.
Unos pocos segundos es todo lo que se necesita de un clip de redes sociales (a veces incluso una sola palabra hablada) para que el software de clonación analice, mapee y reconstruya la voz de un individuo con una precisión asombrosa.
Hay una advertencia paralela que se está transmitiendo después de que los investigadores profundizaron en cómo se entrenan los modelos de voz modernos y por qué son casi imposibles de distinguir de la realidad en condiciones estresantes, como las registradas en investigaciones de suplantaciones de emergencia generadas por IA (lea usted mismo sobre estos trabajos falsos).
Y realmente, ¿quién se detiene a pensar en la calidad del sonido cuando un pariente muerto pide ayuda?
Algunos bancos y centros de llamadas ya han admitido que estas voces de IA están rompiendo los sistemas de autenticación de la vieja escuela.
Los informes sobre las nuevas tendencias tecnológicas de fraude que usted y sus lectores pueden encontrar aquí muestran cómo, a medida que las voces falsas se convierten en una herramienta más, como un teléfono robado, la contraseña de un banco o algún número falsificado, para ayudar a perpetrar estafas más rápido y de maneras más amenazadoras para la base más básica de las motivaciones humanas: la codicia.
Una inspección técnica reciente detalló cómo la seguridad del centro de contacto estaba luchando para lidiar con las personas que llaman provenientes de IA (evaluando las defensas del centro de llamadas que están siendo superadas).
Y, sin embargo, solíamos preocuparnos por los correos electrónicos no deseados y los mensajes de texto falsos. Ahora el imbécil habla literalmente como una de esas personas que amamos.
También hay comentarios sorprendentes entre los analistas de fraude sobre cuán organizadas se han vuelto algunas de estas operaciones.
De hecho, un informe completo sobre amenazas llegó incluso a referirse a “líneas de montaje de estafas de IA”, de las cuales la clonación de voz era sólo un paso en un proceso eficiente destinado a producir carretes creíbles adaptados a diferentes geografías o demografías.
Se parece menos a bandas de radicales libres que a manipulación industrializada.
Lo realmente loco es que un par de formas de mitigar esto pueden ser fáciles de hacer ahora, pero pocas parecen infalibles.
Algunas familias han comenzado a utilizar “palabras de seguridad”, esencialmente una frase privada que sólo conocen los familiares cercanos y que ha resultado útil en algunos casos.
Y, sin embargo, los investigadores de ciberseguridad insisten en que puede ayudar a confirmar cualquier llamada que suene aterradora con un segundo número, incluso si la voz suena tan real como la suya.
Algunas agencias de aplicación de la ley incluso están luchando por crear unidades forenses digitales para abordar esta nueva ola de delitos basados en la voz, admitiendo abiertamente que se están poniendo al día con la tecnología en rápida evolución (las fuerzas del orden trabajan en torno a las estafas de IA).
Es extraño (y un poco triste, si lo piensas) saber que parece que estamos entrando en una era en la que escuchar a un ser querido no es suficiente para saber con certeza qué está sucediendo al otro lado de la línea.
He hablado con amigos que insistieron en que nunca caerían en este tipo de cosas, pero después de haber escuchado algunas de las voces generadas por IA, no estoy tan seguro.
Existe cierto instinto humano para reaccionar cuando alguien que conoces parece tener miedo. Los estafadores lo saben.
Y cuanto mejor se vuelve la IA, más difícil es proteger esa vulnerabilidad emocional que está en el centro de todo esto.
Quizás la verdadera prueba no sea simplemente detener las estafas, sino ser capaces de detenerlas, incluso cuando las cosas parezcan urgentes.
Y ese es un patrón difícil de formar cuando el miedo grita más fuerte que la lógica.