lunes 4 noviembre 2024 2:48 PM
Redactor : Tannia Alcaraz
Estamos ante una herramienta de Inteligencia Artificial (IA) que simula con gran exactitud la voz de tus familiares.
Los avances de la IA se han incrementado en gran manera este año, sin embargo al tener tal herramienta a corto alcance los estafadores han encontrado una nueva manera de hacer fraude. Esta estrategia consiste en mandar audios en whatsapp imitando la voz de algún ser querido, mostrando desesperación por necesitar cierta cantidad de dinero con inmediatez sin dar ningún argumento.
Para la clonación de voz se utiliza una IA generativa que necesita tan solo un pequeño fragmento de la voz real para conseguir manipular el tono, timbre y entonación para poder llevar a cabo el fraude.
Si te quieres proteger de este delito, los expertos en ciberseguridad recomiendan tener estos puntos de seguridad:
- Entre familiares tener una palabra clave para que en algún momento de confusión lograr tener seguridad que están hablando con la persona correcta.
- Limitar el contenido que se sube a redes sociales, puesto que los extorsionistas extraen estos fragmentos de audio o video de los mismos perfiles públicos que hay en la red.
- Ajustar quién puede ver tus publicaciones en redes, cada aplicación tiene su configuración para que solo amigos o seguidores puedan visualizar tus publicaciones.
Sin embargo, si ya fuiste victima de extorsión recuerda estos pasos:
- No entres en pánico, recuerda siempre mantener tranquilidad para no cometer algún error.
- Guarda los mensajes y llamadas, toma capturas de pantalla o graba las llamadas que servirán de prueba ante estos extorsionadores.
- Denuncia, en México puedes llamar a Locatel (*0311) para reportar el intento de extorsión.
- Bloquea el número, bloquear el contacto ayudará a evitar fraudes futuros.
Fuente: Dinero en Imagen/dma/Foto: freepik
Paseo Usumacinta s/n Esq Ayuntamiento. Col Gil y Sáenz, Villahermosa, Tabasco