Con el paso de los meses, aquellas plataformas de inteligencia artificial que utilizamos para crear textos o imágenes, se están extendiendo en cuanto a modos de uso. Además, hay que tener en consideración que no todos son tan lícitos y legales como nos gustaría.
Quizá la plataforma de este tipo más conocida y representativa del sector, sea ChatGPT de OpenAI, servicio online inteligente que seguro muchos ya habéis usado. Podemos mantener conversaciones casi realistas o solicitar todo tipo de información en cuestión de segundos. Además, estas plataformas nos ayudan a generar textos formales o a crear imágenes generativas que impresionan a más de uno.
Sin embargo, los actores maliciosos también han querido aprovecharse de estas IA para hacer de las suyas. Esto es algo que hemos podido comprobar casi desde los inicios del lanzamiento de las inteligencias artificiales. De hecho, de un tiempo a esta parte, muchos expertos empezaron a mostrar sus sospechas de que algunas de estas plataformas inteligentes se utilizaban para crear códigos maliciosos.
Cabe apuntar que casi desde sus inicios, el mencionado ChatGPT recibió ciertas denuncias por permitir este tipo de acciones por parte de terceros. Y es que los atacantes con ciertos conocimientos utilizaban estas plataformas para crear nuevos virus y todo tipo de malware. Es más, la IA puede ser especialmente útil para desarrollar estos contenidos maliciosos por parte de usuarios sin demasiados conocimientos de programación y desarrollo software.
La propia empresa que está detrás de la creación de este chatbot que os mencionamos, OpenAI, afirma que en los últimos tiempos ha desmantelado múltiples operaciones maliciosas que abusaban de su plataforma para desarrollar malware. Aquí entran en juego otros movimientos no permitidos como difundir informaciones falsas online, o métodos para evadir la detección por parte de sistemas de seguridad.
ChatGPT se usa para crear malware, confirmado
No solo esto, estos servicios inteligentes como ChatGPT incluso se han usado para llevar a cabo ataques de phishing. Este tipo de creaciones maliciosas han puesto sobre aviso a multitud de empresas relacionadas con la seguridad. La principal razón de ello es la facilidad que la IA ofrece a determinados usuarios ahora crear este tipo de códigos maliciosos de manera masiva con el mínimo esfuerzo.
Tanto es así que en estos instantes y por primera vez, OpenAI acaba de confirmar que se ha estado usando su plataforma ChatGPT para generar diferentes tipos de malware. De hecho, han publicado algunos ejemplos internacionales de actores maliciosos que han aprovechado los beneficios de esta IA para desarrollar y mejorar sus proyectos de este tipo.
Aseguran que gracias a las funciones inteligentes de chatbots como ChatGPT, tienen la posibilidad de hacer que sus ataques generados aquí sean más eficientes. Aseguran que la IA les ayuda en todas las etapas de creación, así como en las fases de despliegue. Todo ello además ahorrando en recursos y esfuerzos con la ventaja de obtener mejores resultados.
Y lo peor no es esto, sino que es casi inevitable que la conjunción de la IA con los desarrollos maliciosos en el futuro, continúe. Es de esperar que los actores maliciosos siguen haciendo uso de estas plataformas inteligentes para mejorar sus proyectos, por muchos esfuerzos que pongan empresas como OpenAI para evitarlo. Un ejemplo de ello lo encontramos en la batalla entre estos atacantes y los desarrolladores de antivirus que nos viene acompañando desde hace décadas.