El CEO de OpenAI, Sam Altman, ha lanzado una advertencia para toda la comunidad de usuarios de ChatGPT y otros asistentes basados en IA: la confianza ciega en estas herramientas puede ser peligrosa. Aunque los chatbots con IA han cambiado nuestra manera de interactuar con internet, y por lo tanto, nuestro día a día, no debemos olvidar las famosas alucinaciones que sufre este tipo de inteligencia artificial…
La propia dirección de OpenAI, creadores de ChatGPT, reconoce que estas tecnologías, pese a su avance, todavía tienen fallos que se conocen como «alucinaciones». Es decir, respuestas que pueden parecer correctas, pero que en realidad son erróneas o inventadas.
Y es que el uso de la IA se encuentra en pleno auge para negocios, estudios, trabajo y prácticamente cualquier tarea que requiera de investigar. Pero OpenAI ha hecho un llamamiento responsable a los usuarios. Y es que no debemos perder nunca la capacidad de cuestionar y contrastar cualquier respuesta generada. De hecho, en contextos más delicados como la salud o asuntos legales, el propio Altman subraya que la IA «no debe considerarse una fuente infalible» mientas existan riesgo de errores…
La advertencia oficial de Sam Altman
Sam Altman es la cabeza visible de OpenAI, empresa creadora de ChatGPT. Y, curiosamente, ha advertido sobre los riesgos que puede conllevar su propio producto, haciendo un ejercicio de honestidad. De hecho, el CEO afirma que la IA ha avanzado notoriamente, pero está lejos de ser una fuente de conocimiento perfecta.
En este punto, debemos pararnos en el conocido fenómeno llamado «alucinación«. Es decir, respuestas que la IA las hace pasar como si fueran totalmente correctas y fiables, pero que son producto del error o la invención del algoritmo. Algo que sigue presente en todos los grandes modelos de lenguaje. Es por ello que desde la compañía han aconsejado a todos los usuarios que utilicen estos sistemas que hagan siempre una segunda verificación de la información. Más aún cuando dicha información tenga una importancia profesional, académica o personal. Así lo ha asegurado el propio Sam Altman en el propio podcast oficial «The OpenAI Podcast».
Según el propio CEO, la ventaja principal de la IA la encontramos en su capacidad de generar ideas, organizar información y agilizar cualquier tarea. Pero estos mismos beneficios pueden convertirse en verdaderos riesgos si damos por válido que todo lo que dice la «máquina» es cierto.
«Seguiremos aconsejando a los usuarios que verifiquen las respuestas»
Recalcó Nick Turley, director de ChatGPT. De hecho, la transparencia y la verificación de los datos siempre ha de ser la norma, no la excepción.
Riesgos de la IA actual
Tanto las declaraciones del CEO como del director de ChatGPT hacen hincapié en que, por muy avanzado que sea un sistema de IA, nunca están a salvo de que elaboren respuestas fuera de contexto. Pero más grave puede ser aún si nuestras búsquedas están relacionadas con campos como la medicina, el derecho o las inversiones. Algo que exige de un rigor absoluto para tomar decisiones importantes.
Además, Altman también ha alertado en otras ocasiones sobre los límites de privacidad y confidencialidad. Todo lo que se introduce en ChatGPT puede ser utilizado para mejorar sus sistemas. Por lo que tampoco deberíamos compartir información confidencial a través de estas plataformas.
