En Colombia, la situación ya está pegando fuerte. La Policía Nacional, hasta septiembre del año pasado, reportó 64 denuncias por extorsión solo en Bolívar, de las cuales 24 corresponden a modalidades digitales que implican voz clonada e imágenes generadas con IA.

Le pasó a una mujer en Bolívar el mes pasado. Le pasó a un señor de 60 años en Quilmes, Argentina. Le pasó a un padre en India, a una empresa en Italia con la voz del CEO de Ferrari, y le está pasando a alguien hoy mismo en Colombia mientras usted lee esto.
La estafa más sofisticada del momento ya no necesita mensajes con mala ortografía ni perfiles falsos. Solo necesita tres segundos de audio suyo o de un ser querido, y un programa de inteligencia artificial que cualquiera puede descargar gratis.
Se llama clonación de voz con IA, y según la firma de verificación de identidad Sumsub, los intentos de fraude con esta tecnología crecieron más de 2.000 % en los últimos tres años. La técnica conocida como vishing, que es estafa telefónica con voz clonada, subió más de 400 % solo en el 2025.
En Colombia, la situación ya está pegando fuerte. La Policía Nacional, hasta septiembre del año pasado, reportó 64 denuncias por extorsión solo en Bolívar, de las cuales 24 corresponden a modalidades digitales que implican voces clonadas e imágenes generadas con IA. La Estrategia Nacional de Seguridad Digital advierte que Colombia fue el segundo país más afectado por ataques digitales en América Latina en 2024, concentrando el 17 % de los intentos regionales.

¿Cómo funciona?
Los delincuentes obtienen muestras de voz de cualquier parte: un video que usted subió a TikTok, un reel de Instagram, una nota de voz que mandó en un grupo de WhatsApp. Hasta llaman fingiendo ser una encuesta solo para grabar su respuesta durante un minuto.
Con tan solo tres segundos de audio bien capturado, las herramientas de IA disponibles gratis en internet logran clonar una voz con fidelidad de entre el 85 % y el 95 %, según un estudio de McAfee. Con quince a veinte minutos, la copia es prácticamente indistinguible del original.
Después viene la puesta en escena. Le llega un mensaje de WhatsApp diciendo que su hijo tuvo un accidente. Segundos después suena el teléfono. Es la voz de su hijo, llorando, asustado, pidiendo plata para pagar la grúa, el hospital o la fianza. Para añadir presión, los delincuentes usan una técnica llamada spoofing que permite que en su pantalla aparezca el número real de su hijo guardado en sus contactos.
Setenta por ciento de las víctimas no logra distinguir la diferencia entre la voz real y la clonada, según los reportes de Vectra AI. Y el 67 % de quienes reciben este tipo de llamadas terminan perdiendo dinero, según McAfee, con sumas que en muchos casos van entre 500 y 3.000 dólares por estafa, aunque hay casos de hasta 15.000.

Las tres reglas de oro para defenderse
- La regla de los diez segundos: Si una llamada le acelera el pulso, ese es exactamente el objetivo del estafador. La urgencia extrema es la herramienta principal de estos fraudes porque desactiva el juicio crítico. Antes de hacer cualquier cosa, respire, cuelgue, espere diez segundos y piense.
- Llamar de vuelta al número real: No al número desde el que lo llamaron. Al número que usted tiene guardado en sus contactos desde hace años. Si era una emergencia real, su familiar va a contestar y podrá confirmar todo.
- La palabra de seguridad: Acuerde con su familia una palabra o frase secreta que no esté en ninguna red social y que solo ustedes conozcan. Algo absurdo: el nombre de una mascota antigua o una palabra inventada. Si alguien llama pidiendo dinero y no sabe la palabra, es estafa. Punto.
Hay una pregunta más sutil que también funciona: hacer una pregunta que solo el familiar real podría responder. Qué cenaron anoche, cómo se llamaba la profesora de matemáticas en el colegio o qué le regaló su mamá en la última Navidad. La IA puede clonar voces, pero no puede inventar recuerdos personales.
La voz ya no es una prueba confiable de identidad en el 2026. Mientras la tecnología avanza, la defensa más eficaz sigue siendo dudar, verificar y tomarse el tiempo de pensar antes de reaccionar.
Redacción Tecnología / IA
La entrada La estafa del familiar en apuros volvió, ahora con voz clonada por IA: cómo no caer se publicó primero en Boyacá 7 Días.










0 comentarios