A pesar del enorme auge que tienen las diferentes IA en las que podemos echar mano en estos instantes, no siempre funcionan todo lo bien que nos gustaría. Debemos tener en cuenta que se trata de una tecnología en pleno crecimiento que aún tiene que mejorar mucho.
A pesar de que buena parte de las grandes tecnológicas hoy día están involucradas en desarrollar sus propias inteligencias artificiales, uno de los máximos referentes del sector es OpenAI. No en vano y para que os hagáis una idea, es la empresa responsable del popular ChatGPT. A lo largo de los últimos meses hemos visto cómo aparecían nuevos modelos de lenguaje cada vez más complejos y dedicados a tareas más específicas y profesionales.
Qué son las alucinaciones en la IA
Lo cierto es que los más actuales modelos lingüísticos IA son cada vez más capaces. Uno de los principales objetivos aquí es que los humanos podamos interactuar con estas inteligencias de la manera más natural, obteniendo los mejores resultados. Tanto es así, que muchos empiezan a temer por sus empleos, ya que podrían ser sustituidos por esta tecnología.
Pero hay algo que se está detectando últimamente y que quizá os llame a muchos la atención, además un desafío que por el momento no se ha conseguido resolver del todo. En concreto, nos referimos a las alucinaciones de estas IA.
Para que nos entendamos, aquí nos referimos a aquellos casos en los que un modelo de lenguaje genera, con total seguridad, una respuesta falsa. Esto significa que hace pasar ciertas respuestas que obtenemos como totalmente ciertas y fiables, cuando en realidad no lo son. Esto es lo que se denomina en el sector de la inteligencia artificial, como las alucinaciones de estos modelos que os comentamos. Podemos decir que se trata de afirmaciones fiables, pero falsas, generadas por los modelos lingüísticos. Pueden manifestarse de diferentes formas, incluso en preguntas sencillas.
Evidentemente, a corto plazo todo ello se puede convertir en un serio inconveniente porque significaría que no podemos confiar al 100% en esta tecnología. Pues bien, a estas alturas os podemos mencionar que recientes estudios de la propia OpenAI, argumentan que las IA alucinan porque los procedimientos estándar de entrenamiento y evaluación priorizan la suposición sobre el reconocimiento del fallo.
De hecho, como detalla OpenAI en su documento técnico Fine-Tuning Language Models for Honesty, las alucinaciones surgen porque los procedimientos de entrenamiento estándar incentivan la conjetura plausible por encima de la admisión de incertidumbre. El estudio señala textualmente que El modelo de recompensa penaliza más la incertidumbre que los errores factuales.
Razón principal de las alucinaciones de la Inteligencia Artificial
Básicamente, esto quiere decir que enseñan a estas plataformas inteligentes a ofrecer respuestas falsas antes de admitir el error o desconocimiento. De ahí que, en estos momentos, las alucinaciones siguen siendo un desafío para todos los modelos lingüísticos de gran tamaño. Eso sí, la mayoría de las empresas que están detrás de estos proyectos, trabajan para reducirlas al máximo.
Tal y como nos comenta la propia OpenAI, ChatGPT también alucina usando su esperado y más reciente modelo de lenguaje, GPT-5. Cierto es que todo ello se ha reducido significativamente, especialmente al razonar, pero aún ocurren. Una de las principales razones de estas alucinaciones que os comentamos, vienen dadas por el entrenamiento que la IA, donde se establecen incentivos erróneos. Podemos afirmar que en la mayoría de los casos, se prioriza el rendimiento del modelo, lo que fomenta la conjetura en lugar de la honestidad.
A modo de ejemplo, podemos decir que en el ámbito legal unos abogados en Nueva York fueron sancionados por presentar un escrito judicial que citaba 6 sentencias completamente inventadas por ChatGPT. Asimismo, en el sector médico, modelos como Med-PaLM 2 han llegado a diagnosticar erróneamente lesiones cutáneas benignas como melanomas.
| Modelo/Plataforma | Alucinación Generada | Consecuencia Real | Fuente Documentada |
|---|---|---|---|
| ChatGPT-4 | Inventó 6 precedentes judiciales inexistentes para un caso legal. | Sanción a los abogados por parte de un juez federal en Nueva York. | The New York Times |
| Google Bard (ahora Gemini) | Afirmó incorrectamente en un anuncio que el Telescopio James Webb tomó la primera foto de un exoplaneta. | Caída de 100.000 millones de dólares en el valor de las acciones de Alphabet. | Reuters |
| Med-PaLM 2 (Google) | Diagnóstico erróneo de un lunar benigno como un posible melanoma. | Riesgo de intervención médica innecesaria y estrés para el paciente. | IBM Research |
| ChatGPT-4 | Creó una biografía falsa de un alcalde australiano, acusándole de crímenes que no cometió. | Amenaza de demanda por difamación contra OpenAI. | Reuters |
Cómo solucionar estos fallos en la IA
Esto quiere decir que si la IA se encuentra con múltiples respuestas que darnos, intenta ofrecer una conjetura arriesgada, lo que en muchas ocasiones se traduce en falsedad o alucinación. Todo ello en lugar de aceptar que se desconoce la respuesta. Tal y como nos cuenta OpenAI, hay una solución sencilla para todo ello.
Esto es algo que pasa porque las diferentes empresas responsables del entrenamiento de los diferentes modelos de lenguaje, deberían empezar a penalizar los errores más que la incertidumbre. De hecho, en estos momentos ya se están implementando calificaciones negativas para respuestas incorrectas o crédito parcial.
Para terminar os diremos que ya se están intentando reducir estas alucinaciones por parte de las IA, al mínimo. Pero aún queda trabajo por hacer en este sentido.
