Estafas telefónicas con voces generadas con Inteligencia Artificial

Mientras la tecnología avanza a pasos agigantados, las estafas telefónicas también han evolucionado y se han vuelto más sofisticadas que nunca. Una de las últimas tendencias preocupantes es el uso creciente de deepfakes de voz, una forma de inteligencia artificial (IA) que clona voces familiares para engañar a las víctimas. 

En este artículo, exploraremos cómo funcionan los deepfakes de voz, los riesgos que plantean y qué medidas podemos tomar para defendernos.

Deepfakes de voz y la IA generativa

Los deepfakes de voz son el resultado del uso de la IA generativa, una rama de la inteligencia artificial que se dedica a crear contenido, como texto, imágenes y, en este caso, audio, a partir de las instrucciones de un usuario. 

A lo largo de los últimos años, los deepfakes han adquirido notoriedad debido a incidentes ampliamente publicitados, como la manipulación de la imagen de la actriz británica Emma Watson en anuncios sugestivos que inundaron las redes sociales o el video en el que el presidente ucraniano Volodymyr Zelensky parecía emitir un mensaje controvertido.

La clonación de voces y la recopilación de datos

La creación de una copia realista de la voz de alguien requiere un conjunto de datos para entrenar al algoritmo de deepfake. Cuantas más grabaciones de audio de la persona estén disponibles, más convincente será la copia resultante. 

Sorprendentemente, muchos de nosotros compartimos detalles de nuestras vidas cotidianas en internet, desde grabaciones de voz en redes sociales hasta mensajes de audio en aplicaciones de mensajería.

Entonces, ¿qué sucede una vez que estos datos están en manos de quienes desean utilizarlos con fines fraudulentos? Aquí es donde entran en juego los deepfakes de voz. 

Estos algoritmos pueden hacer que una voz clonada “diga” cualquier cosa que se les instruya, simplemente escribiendo un texto y haciéndolo sonar como si fuera la voz de la persona copiada.

El poder de la manipulación de voz y el riesgo de desinformación

La posibilidad de crear deepfakes de voz plantea riesgos significativos. Uno de los principales es la propagación de la desinformación. Los deepfakes de voz pueden utilizarse para influir en la opinión pública a nivel nacional o internacional, como se vio con los “videos” de Zelensky.

Sin embargo, la preocupación más inmediata es su aplicación en las “llamadas con IA para estafar”.

Estafas Telefónicas con Deepfakes de Voz

La creciente tendencia de las “llamadas con IA para estafar” plantea un nuevo conjunto de desafíos en el mundo de las estafas telefónicas. Las estafas telefónicas son un problema antiguo, pero el uso de deepfakes de voz las ha vuelto más personales y difíciles de detectar.

Imagina recibir una llamada en la que la voz en el otro extremo del teléfono suena exactamente como un amigo cercano o un ser querido. Esta nueva complejidad y el pánico que puede generar pueden llevar a las víctimas a tomar decisiones apresuradas.

Un incidente reciente, informado por CNN, ilustra perfectamente esta preocupación. Una madre recibió una llamada de un número desconocido, y al contestar, escuchó la voz de su hija. 

La supuesta hija afirmaba haber sido secuestrada y necesitaba un rescate. Afortunadamente, la niña estaba a salvo, pero los estafadores habían utilizado un deepfake de voz para perpetrar la estafa.

Defendiéndonos contra las estafas de voz con deepfakes

A pesar de la preocupación, existen medidas que podemos tomar para protegernos contra las estafas de voz con deepfakes:

  1. Verificación de identidad: Ante solicitudes inusuales o urgentes de amigos o familiares, verifica siempre su identidad. Llama o envía un mensaje de texto a la persona en cuestión para confirmar que realmente estás hablando con ella.
  2. Educación y concienciación: Informa a tu familia y amigos sobre los riesgos de las estafas de voz con deepfakes para que estén alerta y sepan cómo actuar ante tales situaciones.
  3. Tecnología de detección: Algunos grupos ofrecen software de detección de deepfakes de voz que pueden identificar falsificaciones mediante la creación de espectrogramas. Aunque puede requerir conocimientos técnicos, esta herramienta puede ser útil.
  4. Mantén la cautela: La mejor defensa contra las estafas de voz con deepfakes es la cautela. Si algo parece fuera de lugar o demasiado bueno para ser verdad, considera que podría ser una estafa.

A medida que la IA continúa avanzando, la línea entre la realidad y la ficción se vuelve cada vez más difusa. Es poco probable que podamos frenar completamente esta tecnología, lo que significa que debemos ser más cautelosos y críticos que nunca en nuestras interacciones telefónicas. 

La conciencia y la precaución son nuestras mejores armas para defendernos en esta era de mal uso de la tecnología y estafas telefónicas cada vez más sofisticadas.

es_MXES