La Inteligencia Artificial (IA) se ha convertido en una herramienta cada vez más sofisticada, y también está siendo aprovechada por los delincuentes para cometer estafas. En los últimos meses, se ha detectado un nuevo método de estafa telefónica que utiliza la IA para suplantar la voz de amigos o familiares de la víctima.
NOTAS RELACIONADAS
Este método se basa en el uso de la tecnología de síntesis de voz con IA desarrollada por la empresa Eleven Labs. Esta empresa permite que los usuarios ingresen texto y lo transformen en el modelo de voz que desean a partir de una muestra de la voz original de pocos segundos.
Los delincuentes utilizan esta tecnología para realizar llamadas telefónicas a las víctimas, haciéndose pasar por sus familiares o amigos. En las llamadas, piden dinero a la víctima, alegando que se encuentran en una situación de emergencia.
El hecho de que la voz de la persona que llama sea tan similar a la de un familiar o amigo hace que sea muy difícil para la víctima detectar la estafa. En muchos casos, las víctimas no dudan en transferir el dinero solicitado, pensando que realmente se trata de su familiar o amigo.
Las autoridades han indicado que tienen conocimiento de varias estafas cometidas a través de este mecanismo. Por ello, es importante estar alerta ante este tipo de estafas.
Para evitar ser víctima de este tipo de estafa, los expertos recomiendan que si se recibe una llamada de este tipo solicitando dinero, se verifique la identidad de la persona preguntando cosas que solamente esta pudiera saber. De esta manera puede resultar sumamente sencillo desenmascarar a los estafadores y evitar perder dinero