Tecnología

Cómo reconocer llamadas falsas con IA: una amenaza creciente para las empresas

Este tipo de tecnología puede ser utilizada para diversos fines maliciosos, como eludir sistemas de autenticación, infiltrarse en procesos de selección con identidades falsas o ejecutar fraudes financieros mediante la suplantación de ejecutivos y proveedores

SANTO DOMINGO.- La rápida evolución de la Inteligencia Artificial está dando lugar a nuevas formas de fraude digital. Expertos en ciberseguridad advierten que cada vez resulta más difícil distinguir entre una voz real y una generada por tecnología, lo que ha incrementado los riesgos de estafas mediante llamadas falsas dirigidas a empresas.

Según la compañía de seguridad informática ESET, la popularización de la IA generativa ha facilitado la creación de audios y videos falsos conocidos como deepfakes hasta el punto de que hoy se pueden generar en pocos segundos utilizando herramientas disponibles en línea.

Este tipo de tecnología puede ser utilizada para diversos fines maliciosos, como eludir sistemas de autenticación, infiltrarse en procesos de selección con identidades falsas o ejecutar fraudes financieros mediante la suplantación de ejecutivos y proveedores.

Aumento de los audios falsos

Datos del Gobierno del Reino Unido indican que durante el último año se compartieron cerca de ocho millones de clips falsos en internet, frente a los 500 mil registrados en 2023. Sin embargo, especialistas advierten que la cifra real podría ser mucho mayor, ya que muchas organizaciones aún subestiman esta amenaza.

De acuerdo con Jake Moore, hoy en día basta con un breve fragmento de audio de una persona por ejemplo, tomado de redes sociales, entrevistas o presentaciones públicas para crear una réplica convincente de su voz mediante inteligencia artificial.

Los expertos describen un proceso común utilizado por los ciberdelincuentes:

Selección de la víctima: el atacante elige a una persona a suplantar, generalmente un CEO, director financiero o proveedor.

Obtención de un audio: buscan una muestra de voz en internet, que puede provenir de redes sociales, videos o presentaciones públicas.

Identificación del objetivo: investigan dentro de la empresa a quién llamar, normalmente miembros del equipo financiero o de soporte técnico.

Preparación del engaño: pueden enviar un correo previo solicitando una transferencia urgente o un restablecimiento de contraseña.

La llamada falsa: utilizan audio deepfake para hacerse pasar por el ejecutivo o proveedor y solicitar acciones inmediatas.

Según Macio Micucci, estos ataques son cada vez más convincentes. “Algunas herramientas pueden añadir ruido de fondo, pausas o tartamudeos para hacer la voz más creíble e imitar los ritmos e inflexiones del orador”, explica.

Los especialistas advierten que los delincuentes suelen combinar estas técnicas con ingeniería social, presionando a las víctimas para que actúen con urgencia. En algunos casos, los resultados han sido millonarios.

Uno de los incidentes más conocidos ocurrió en 2020, cuando un empleado de una empresa en los Emiratos Árabes Unidos fue engañado mediante una llamada que simulaba ser su director ejecutivo y terminó autorizando una transferencia de 35 millones de dólares para una supuesta operación empresarial.

A pesar del avance de la tecnología, los expertos indican que aún existen pistas que pueden ayudar a identificar una llamada generada con inteligencia artificial:

Ritmo de habla antinatural

Emoción excesivamente plana en la voz

Respiración irregular o ausencia de pausas

Sonido robótico en herramientas menos avanzadas

Ruido de fondo demasiado uniforme o inexistente

Cómo pueden protegerse las empresas

Desde ESET recomiendan que las organizaciones refuercen la capacitación de sus empleados y adopten protocolos de verificación para evitar fraudes.

Entre las medidas sugeridas se incluyen:

Verificar cualquier solicitud telefónica mediante otro canal corporativo.

Requerir la aprobación de al menos dos personas para transferencias financieras importantes.

Establecer contraseñas o preguntas secretas que permitan confirmar la identidad de ejecutivos durante llamadas.

“Las falsificaciones son cada vez más fáciles y baratas de producir. Por eso, las organizaciones deben adoptar un enfoque basado en personas, procesos y tecnología para reducir los riesgos”, concluye Micucci.

Los especialistas coinciden en que, ante el avance constante de la inteligencia artificial, la vigilancia y la actualización de las medidas de seguridad serán claves para enfrentar el nuevo panorama del ciberfraude.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba