Hacer Jailbreak a ChatGPT, Copilot y otras IAs: cómo se hace y qué se consigue con ello

A lo largo de los últimos meses seguro que muchos habéis probado las excelencias de diferentes plataformas IA. Ya sea para generar textos de forma automática, crear espectaculares imágenes, o incluso para vídeos.
En estos instantes nos encontramos con un número creciente de este tipo de aplicaciones cada vez más potentes y eficaces, y lo que está por llegar. Hay algunas muy conocidas como ChatGPT o Copilot, aunque os aseguramos que no son las únicas.
Para qué hacer Jailbreak a las IA
Pero a continuación os vamos a hablar de un modo de uso que de momento no está tan extendido, nos referimos al Jailbreak. Esto es algo que es posible que suene familiar a lo largo de los últimos años con otro tipo de plataformas e incluso dispositivos hardware. Pero si nos centramos en la IA, esto se lleva a cabo para persuadir a los chatbots y que se salten las restricciones de las propias plataformas. Así los usuarios pueden conocer las capacidades y limitaciones de las mismas.
Digamos que es una manera de poner a prueba los límites de una determinada Inteligencia Artificial. De igual modo, en ciertos entornos el Jailbreak de las IA se usa para garantizar el buen funcionamiento de estas y para realizar pruebas de todo tipo. Sin embargo, tal y como sucede en otros modos de uso del Jailbreak, hay ciertos temores a que se utilicen de manera malintencionada o dañina.
Quizá este sea un término que se hizo popular hace años por aquellos que hacían Jailbreak para saltarse las restricciones del iPhone. Ahora esto se usa formulando una serie de instrucciones inteligentes para convencer a los chatbots de la IA de que se salten las barreras de seguridad. Evidentemente, estas vienen establecidas a priori por sus desarrolladores.
De ahí que en estos momentos el denominado como Jailbreaking AI se esté convirtiendo en un hobby para muchos. Igualmente, para otros es un interesante campo de pruebas para estas plataformas inteligentes. El objetivo principal es conseguir que el modelo de lenguaje IA haga cosas que no debería, básicamente. Siempre y cuando se haga de manera bien intencionada o a modo de investigación, esto será beneficioso para mejorar estas plataformas.
Cómo hacer Jailbreak a una Inteligencia Artificial
Lo cierto es que hay varios modos de llevar a cabo este proceso y poner a prueba a la aplicación o plataforma inteligente que os comentamos. Antes de nada deberíamos tener ciertos conocimientos en el uso de las mismas y además abrir la mente y ser creativos.
De hecho, una de las fórmulas más habituales para llevar esto a cabo es plantear preguntas creativas. Por ejemplo, dando instrucciones detalladas sobre algo que en un principio debería estar prohibido. Igualmente, algunos usuarios utilizan exploits para demostrar vulnerabilidades en las plataformas IA. Cabe mencionar que estos no están escritos en lenguaje convencional y se intenta convencer a la aplicación para que lleve a cabo acciones no permitidas.
Con todo y con ello, tal y como os comentamos antes, a la hora de hacer Jailbreak a aplicaciones como ChatGPT y otras IA, juega un papel muy importante nuestra experiencia previa en el uso de estas plataformas inteligentes. Todo es cuestión de probar, echarle un poco de imaginación y tener una buena dosis de paciencia.