Las ciberestafas son cada vez más habituales en nuestro entorno digital. Sin embargo, ya está llegando a niveles insospechados de sofisticación y escenarios: en entrevistas de trabajo. Es aquí donde entra el caso de David Dodda, un ingeniero de software que estuvo a punto de perderlo todo en un proceso de selección aparentemente legal.
El propio ingeniero relata cómo, tras una oferta laboral de carácter totalmente realista por una compañía blockchain, estuvo a menos de 30 segundos de ejecutar un malware diseñado para robar las credenciales, criptomonedas y datos sensibles de su propio PC.
Lo que salvó a este profesional no fueron las herramientas avanzadas ni los antivirus más potentes, sino simplemente preguntar a una IA (Cursor AI) si el código que había recibido ocultaba alguna funcionalidad peligrosa. Este incidente saca a flote un nuevo peligro que no había pasado por la cabeza de los usuarios hasta ahora, las entrevistas falsas.
En este caso, los atacantes se hicieron pasar por RR.HH. de una empresa, donde publican falsos puestos de trabajo en plataformas como LinkedIn, y entregan pruebas técnicas camufladas que contienen software malicioso. En este caso, la IA fue la salvaguarda de dicho ingeniero.
El engaño y cómo lo evitó la IA
En el caso de David Dodda, tal y como indica en su propio blog oficial, el atacante se hizo pasar por el Chief Blockchain Officer de Symfa. Una empresa legítima, existente, con presencia en la propia LinkedIn. Solo que en esta ocasión consiguió hacerse pasar por trabajador de la misma para intentar llevar a cabo el crimen.
Tras una conversación inicial, el falso reclutador programó una entrevista y pidió al desarrollador que descargara y ejecutara un software para pasar una prueba técnica y demostrar sus habilidades. El repositorio de Bitbucket que utilizaba tenía apariencia profesional: README limpio, documentación cuidada e incluso imágenes corporativas.
Por su parte, Dodda revisó el código y, tras arreglar algunos errores, estaba a punto de ejecutar el comando que lo había infectado. Pero en el último momento, preocupado por el poco tiempo para verificar el contenido, pidió a su asistente de Cursor AI que verificase el contenido en busca de algún fallo o función sospechosa. Y fue gracias a esta petición que la IA detectó patrones peligrosos y evitó la ejecución de malware.
¿Es la IA una nueva defensa?
El método utilizado por los criminales no supone un hecho aislado. Desde el pasado año 2024, los ataques basados en falsas entrevistas van en aumento. Más aún cuando se trata de profesionales en sectores fintech y blockchain.
Para ello, existen medidas de seguridad para protegerse, como las famosas «sandboxes» como Windows Sandbox, o demás sistemas de seguridad. Pero también podemos valernos de hacer preguntas certeras a la IA para salvaguardar nuestra seguridad: «¿Ves algo sospechoso? ¿Este código accede a información privada? ¿Detectas funcionalidades de robo?».
| Herramienta | Tipo | Función Clave en este Contexto |
|---|---|---|
| Cursor AI | Editor de código con IA | Analizar código fuente para detectar patrones y funciones maliciosas antes de la ejecución. |
| Windows Sandbox | Entorno de aislamiento (Sandbox) | Ejecutar aplicaciones en un entorno virtual seguro y desechable para evitar que un posible malware infecte el sistema principal. |
En este caso, la rapidez y la capacidad de la IA para analizar patrones extraños puede actuar de salvaguarda y provocar que sobrevivamos al engaño. La experiencia de David Dodda es un claro aviso de cara a la comunidad. Nunca debemos ejecutar un código desconocido sin una segunda revisión. Además, también podemos valernos del potencial de las herramientas inteligentes para luchar contra las estafas digitales.
