En una sofisticada campaña de ciberseguridad, piratas informáticos vinculados a Corea del Norte están empleando videollamadas generadas mediante inteligencia artificial para suplantar contactos de confianza, logrando engañar a empleados de la industria criptográfica para que instalen malware. Este esquema delictivo, el cual fue denunciado recientemente por Martin Kuchař, cofundador de BTC Prague, utiliza herramientas de manipulación visual avanzadas para comprometer la seguridad de activos digitales.
A través de esta modalidad de ataques de ingeniería social con inteligencia artificial, los perpetradores contactan a sus víctimas inicialmente por Telegram para programar reuniones en plataformas como Zoom o Teams, donde el engaño cobra forma real. Una vez iniciada la sesión, los atacantes utilizan vídeos generados por IA que imitan la apariencia de conocidos del sector, creando un entorno de falsa seguridad para el trabajador afectado.
Bajo el pretexto de un fallo técnico inexistente, específicamente un problema de audio, los delincuentes instan al usuario a descargar un supuesto parche de reparación, el cual es en realidad un script malicioso diseñado para sistemas macOS. Al ejecutarse dicho archivo, los criminales obtienen un acceso total al sistema, permitiéndoles el robo de Bitcoin y la toma de control de cuentas de redes sociales para expandir su red de víctimas.
La evolución técnica de la suplantación de identidad en videollamadas
Este método de intrusión, que guarda una estrecha relación con las tácticas documentadas del grupo BlueNoroff, subgrupo de la organización estatal norcoreana Lazarus, demuestra un avance significativo en la complejidad de las ciberestafas contemporáneas. Mediante el uso de dominios de Zoom falsificados y enlaces de descarga engañosos, los atacantes logran evadir las sospechas iniciales de profesionales que, en teoría, poseen conocimientos técnicos avanzados en el ecosistema de las criptomonedas.
No obstante, la peligrosidad de esta táctica radica en la urgencia emocional que generan, presionando al objetivo para instalar el software malicioso de forma inmediata durante la interacción en vivo. Según los reportes técnicos, una vez que el malware infecta el dispositivo, este inhabilita el historial de comandos y solicita repetidamente las contraseñas del sistema, logrando así privilegios elevados que comprometen la integridad de cualquier billetera digital presente en el equipo.
¿Cómo afecta el uso de deepfakes a la seguridad financiera global?
El impacto de estas operaciones es alarmante, considerando que las pérdidas relacionadas con estafas de suplantación impulsadas por IA alcanzaron la cifra récord de 17.000 millones de dólares durante el pasado año 2025. Al basarse en patrones sociales familiares, estos ataques de ataques de ingeniería social con inteligencia artificial logran que incluso expertos en seguridad duden de su propio juicio al interactuar con lo que parece ser un colega legítimo.
Finalmente, los analistas de seguridad advierten que el contenido visual y auditivo ya no puede considerarse una prueba fehaciente de identidad en el entorno digital. Ante la creciente sofisticación de estos grupos estatales, la industria cripto deberá implementar firmas criptográficas obligatorias y procesos de autenticación multifactor más rigurosos, entendiendo que el error humano, potenciado por la inteligencia artificial, sigue siendo el eslabón más débil de la cadena.
