
Inteligencia artificial
Familiares muertos, curanderos e IA: así estafan con la app Speechify en Sudáfrica
La policía de Sudáfrica ha informado del creciente uso de la app de inteligencia artificial generadora de voces por falsos curanderos que hacen creer a la víctima que hablan con un familiar fallecido

Speechify es una aplicación inicialmente diseñada para ayudar a consumir contenido escrito de forma auditiva. Fue lanzada en 2016 por Cliff Weitzman cuando aún era estudiante en la universidad y desde entonces ha ido ganando funciones; en los últimos tiempos, muy relacionadas con la inteligencia artificial generativa. Una de ellas es la capacidad de clonar voces a partir de un clip de audio y hacerlas sonar de forma natural, una función que ahora están explotando supuestos curanderos en Sudáfrica para engañar a sus víctimas.
Según informa El País, la policía de Sudáfrica ha advertido del creciente uso de Speechify para estafar a personas vulnerables haciéndose pasar por curanderos, a veces con una importante proyección en medios sociales, que les permiten hablar con un ser querido fallecido a cambio de dinero.
El medio recoge un caso arquetípico de este engaño, el de un hombre de Johannesburgo que llevaba diez años sin trabajar y cuya desesperación por esta situación propició que cayera en la trampa. Pearce Banjolo consultó a uno de estos falsos curanderos, quien le aseguró que debía invocar el espíritu de su abuela para evitar llegar a los 60 años sin trabajo ni familia.
Tras reunir una cantidad equivalente a 500 euros y transferirlos al supuesto curandero, acudió a una cabaña en la que este se encontraba tras una cortina, dado que el ritual exigía que no lo viera.
El estafador aparentó entrar en trance y después comenzó a sonar la voz de la abuela fallecida de la víctima quien le dijo cómo podía apaciguar su espíritu. “La voz había sido reproducida gracias a un programa de IA y habían usado un altavoz. No había sangoma [curandero] detrás de la cortina. Lloré desconsoladamente. Había sido robado, estaba endeudado con mis hermanos y seguía sin trabajo”, ha explicado Banjolo a El País.
Según el coronel Brian Malope, detective forense de la brigada de fraudes graves del Servicio de Policía de Sudáfrica, este tipo de engaños se han popularizado en Sudáfrica en el último par de años. Para clonar la voz, se pide a la víctima que envíe un audio en el que aparezca y si no es posible graban la de la víctima y después la modifican con Speechify para hacerle creer que es la de la persona fallecida.
Speechify no es la única herramienta IA disponible para clonar voces, pero es una de las más accesibles y que puede utilizarse tanto desde un ordenador como de un móvil Android o iOS. El año pasado, el Servicio de Prevención de Fraudes de África Meridional, SAFPS, informó de que los ataques de suplantación de identidad aumentaron un 264% durante los primeros cinco meses de 2023, en comparación con 2021. Los casos con Speechify son otro ejemplo de este problema.
✕
Accede a tu cuenta para comentar