
Desde el lanzamiento del modelo de lenguaje ChatGPT en 2022, surgió una variedad de herramientas generativas basadas en Inteligencia Artificial (IA), capaces de elaborar respuestas, crear imágenes o sonidos a partir de un simple comando.
Muchas de estas plataformas son gratuitas y de libre descarga en las tiendas oficiales; lo que da lugar a un escenario peligroso ya que cualquier persona con malas intenciones puede sacar provecho de las nuevas tecnologías.
Efectivamente, eso fue lo que sucedió según el más reciente informe de la empresa especializada en ciberseguridad McAfee. En el último tiempo, el típica estafa telefónica se perfeccionó gracias a instrumentos de IA capaces de clonar voces. A continuación, todos los detalles.
Estafa con Inteligencia Artificial: cómo funciona
La materia prima de las nuevas llamadas fraudulentas se basa en recortes de audio que las personas hayan publicado alguna vez en las redes sociales; sea por un video, una nota de voz, etc.
Los ciberdelincuentes, entonces, toman los fragmentos sonoros para luego procesarlos a través de una herramienta de IA que permita elaborar textos y traducirlos en formato de audio como si fuese el damnificado quien está hablando.
A posteriori, los estafadores llevan a cabo el típico cuento del tío, donde se comunican con los familiares o amigos del propietario de la voz para hacerles creer que se encuentra en aprietos y que necesita dinero para solucionar el problema. Sin embargo, sólo se trata de un impostor artificial, como decidió llamarlo McAfee.
Tan solo en los Estados Unidos, se estima que durante 2022, esta modalidad delictiva ocasionó pérdidas por un total de u$s 2.600 millones. Ahora, esta tendencia se expande en otros países y se convierte en una de las mayores amenazas vinculadas a la IA.












