Alerta en España por el auge de las estafas con clonación de voz mediante Inteligencia Artificial

La Policía Nacional advierte: basta con una llamada de un minuto para clonar tu voz y usarte como anzuelo emocional

La Policía Nacional ha lanzado una alerta urgente a toda la población española por el aumento de estafas que utilizan clonación de voz basada en Inteligencia Artificial (IA). Esta técnica, conocida como voice hacking, permite a los delincuentes suplantar la voz de familiares, jefes o figuras de confianza para manipular emocionalmente a la víctima y conseguir dinero o información sensible.

Hoy en día, existen herramientas —algunas incluso gratuitas— que permiten replicar una voz con alta fidelidad a partir de una simple grabación de apenas un minuto. Cuanto mayor sea la duración y calidad de la muestra de voz, más realista será la clonación. Y con suficiente capacidad de cálculo, en tan solo tres minutos de audio se puede crear una réplica casi perfecta.

Casos reales: llamadas falsas de familiares en apuros

Uno de los usos más frecuentes es el de estafas económicas, simulando llamadas de emergencia de hijos, nietos o personas cercanas en situaciones desesperadas. Un experto en ciberseguridad entrevistado por medios españoles explicó que incluso llamadas de teleoperadores falsas pueden servir para captar la muestra necesaria.

“Con una simple llamada de venta falsa se puede obtener una muestra de voz suficiente para clonar”, advierte.

Desde el Instituto Nacional de Ciberseguridad (INCIBE) se han documentado casos en los que se solicitaban transferencias urgentes simulando secuestros, detenciones o instrucciones falsas de directivos empresariales. En algunas variantes más sofisticadas, se utilizan grabaciones de redes sociales para obtener la voz de la víctima.

¿Por qué es tan fácil clonar una voz?

Los estafadores aprovechan la proliferación de vídeos, podcasts, audios de WhatsApp o entrevistas disponibles en plataformas públicas para obtener muestras de voz. Gracias a los avances en IA generativa, la voz puede hacerse decir cualquier cosa, y la urgencia emocional es clave para impedir que la víctima reaccione racionalmente.

Además, se sospecha que existen centros fraudulentos en Asia y Sudamérica capaces de clonar voces con apenas 30 segundos de grabación. Estas operaciones se basan en call-centers dedicados a la ingeniería social de nueva generación.

Recomendaciones para protegerse del ‘voice hacking’

Ante esta amenaza emergente, la Policía y expertos en ciberseguridad recomiendan tomar una serie de medidas de autoprotección:

  • Desconfiar de llamadas desde números desconocidos. Verificar la identidad por otro medio antes de actuar.
  • Evitar compartir audios en redes sociales. Cuanto menos material haya en internet, más difícil será clonar una voz.
  • No actuar bajo presión. Las estafas se basan en crear urgencia. Tomarse tiempo antes de responder a peticiones.
  • Establecer palabras clave familiares. Un código privado puede servir como verificación en caso de emergencia.
  • Usar contraseñas robustas y únicas, y actualizarlas con frecuencia.
  • Activar autenticación de voz en dispositivos compatibles. Añade una capa de seguridad adicional frente a voces clonadas.
  • Evitar hablar con asistentes virtuales en público. Pueden grabar comandos o conversaciones que luego se usen para fraudes.
  • Actualizar siempre los dispositivos. Las actualizaciones corrigen vulnerabilidades que pueden aprovechar los atacantes.

Conclusión

La clonación de voz mediante IA se ha convertido en una herramienta peligrosa para el fraude y la manipulación. Su facilidad de acceso y el creciente realismo que ofrece la tecnología convierten a esta amenaza en un desafío emergente para ciudadanos, empresas y autoridades.

La mejor defensa es la prevención: desconfiar, verificar, proteger nuestra identidad vocal y difundir estos consejos especialmente entre las personas más vulnerables, como personas mayores o menos familiarizadas con las nuevas tecnologías.

Información sobre voice hacking en Incibe

Scroll al inicio