Ciberseguridad

Clonación de voz: así usan la IA los ciberdelincuentes para suplantarte



Dirección copiada

Ante la capacidad de los programas de IA para generar todo tipo de contenido audiovisual, los ciberdelincuentes encuentran un nuevo método para intentar robar información sensible. Cómo se logra la clonación de voz y qué hacer para protegerse.

Publicado el 9 de ene de 2025



Clonación de voz.

La Inteligencia Artificial (IA) permitió que las personas y las organizaciones de todo el mundo realicen determinadas actividades con mayor velocidad y menor esfuerzo, pero sobre todo, de forma efectiva. Sin embargo, no todos la utilizan con los mismos fines, sino que sus propios beneficios también son aprovechados por los ciberdelincuentes para mejorar sus ataques como la clonación de voz.

De acuerdo con un reporte de IBM, Brasil (68%), Colombia (17%) y Chile (8%) fueron los países más atacados en Latinoamérica durante 2024, y tanto el retail como las finanzas y seguros fueron los sectores que registraron más incidentes. Además, según Appgate, entre los métodos más comunes de ataque, destacan la creación de redes sociales falsas (56%), el phishing tradicional (24%) y el phishing con redirección (7%).

No obstante, tecnologías como el deepfake hicieron que la clonación de voz se vuelva un tipo de fraude cada vez común. Al respecto, Mike López, vicepresidente senior de soluciones fraude de Appgate, afirmó: “Con el objetivo de imitar o suplantar a las personas, e incluso engañar los algoritmos de control de acceso o autenticación de las organizaciones, los delincuentes utilizan herramientas especializadas de IA para modificar o crear elementos auditivos, así como también elementos gráficos o editar textos”.

La nueva tendencia en la ciberdelincuencia

Los datos indican que los ataques de suplantación de identidad por clonación de voz son cada vez más frecuentes, y se espera que sigan presentes en la región por un buen tiempo. Se trata de un tipo de estafa basada en la tecnología deepfake, que combina la Inteligencia Artificial con el aprendizaje automático para copiar los patrones de una persona a través de archivos públicos.

“Se emplea un software para imitar la voz, con el objetivo de engañar o estafar a otras personas, mientras que, en el caso de la creación de videos, se logra imitar la cara y los movimientos de un individuo. De esta manera, los criminales aprovechan herramientas que les permiten aumentar la credibilidad de los engaños”, explicaron desde Appgate.

A día de hoy, existen diversos servicios por medio de sitios web con los que se puede llevar a cabo este tipo de fraude. Esto no solo facilitó la creación de las suplantaciones, sino el acceso de las personas para utilizarlas con distintos fines.

Cómo protegerse ante la clonación de voz

Tal como indica López, los ciberdelincuentes utilizan tres elementos para captar la atención, que son la urgencia, la emoción y el dinero. Ellos “querrán que se ejecute una acción rápida, y que seguramente traerá consigo una recompensa que apela a lo que más moviliza desde las emociones a esa persona. Por esto, si a una persona le dicen que la están llamando desde una entidad bancaria, es preferible cortar la llamada y consultar directamente la información con el ejecutivo del banco”, aconsejó.

Por otro lado, para prevenir estafas por clonación de voz es fundamental verificar la autenticidad de mensajes y llamadas, evitar entregar datos personales y desconfiar ante cualquier llamada inesperada.

Por último, es importante ser conscientes de la huella individual que deja cada individuo al compartir información en línea, además de limitar quién puede ver el contenido. Esto incluye las publicaciones en redes sociales como Facebook e Instagram, ya que pueden ser utilizadas de forma fraudulenta para crear deepfakes.

Artículos relacionados

Artículo 1 de 5