Para millones de usuarios en todo el mundo, realizar todo tipo de consultas o incluso charlar con diferentes plataformas IA, se está convirtiendo en algo habitual. Pero buena parte de las empresas responsables de estos chatbots, se enfrentan a un serio problema.
Y es que se están dando cuenta de que estos agentes inteligentes cada vez más extendidos y utilizados, en más ocasiones de las deseadas, tienden a mentir a los humanos. La que se podría considerar como una de las empresas referentes en este sector tecnológico, OpenAI, es plenamente consciente de todo ello y está intentando conocer las razones más en profundidad.
No en vano, hablamos de la firma que nos ofrece el popular ChatGPT que la mayoría habéis utilizado en varias ocasiones. Pues bien, para saber las razones por las que la inteligencia artificial en ocasiones nos miente, está probando con una nueva funcionalidad integrada en su plataforma. En un principio este es un proyecto al que han denominado Confesiones y se centra en intentar conocer en profundidad este importante inconveniente.
Su funcionamiento es sencillo, básicamente la Confesión es una segunda respuesta ofrecida por el propio chatbot que se genera después de completar una determinada tarea o consulta. En esta segunda respuesta la empresa obliga a la IA a evaluar su propio comportamiento para que, en caso necesario, admita que actuó de forma inapropiada ofreciendo respuestas falsas.
Antes de nada debemos tener presente que esta nueva funcionalidad que está probando OpenAI, no intenta solucionar este problema, sino encontrar la razón de su existencia.
Y es que la empresa no quiere que estos comportamientos por parte de su plataforma inteligente siga en aumento, de ahí que pretende diagnosticar la razón antes de que vaya a más.
Por qué la IA como ChatGPT nos engaña algunas veces
Pues bien, basándose en las pruebas realizadas con la función que os comentamos, Confesión, la empresa ya ha hecho algunos interesantes descubrimientos. Por ejemplo ha llegado a la conclusión de que uno de los principales motivos por los que los diferentes modelos IA nos engañan de forma inesperada, es por la necesidad que tienen de equilibrar varios objetivos simultáneos para con los humanos.
Básicamente, esto quiere decir que en ocasiones, a la hora de ofrecernos determinadas respuestas, intentan ser útiles, a la vez que inofensivos y honestos con nosotros. Es decir, en ocasiones nos ofrecen resultados o respuestas falsas, ya que todos estos objetivos mencionados pueden entrar en conflicto entre sí. Esto quiere decir que cuando un modelo IA no sabe darnos una respuesta cumpliendo todo ello, en muchas ocasiones prioriza la utilidad por delante de la honestidad, y de ahí las respuestas erróneas o falsas que se hagan de manera intencionada.
| Tipo de Engaño | Frecuencia (GPT-4) | Ejemplo Típico |
|---|---|---|
| Alucinación Fáctica | ~33% | Inventar fechas, citas o bibliografía. |
| Omisión por Simplificación | ~27% | No mencionar excepciones o contraargumentos importantes. |
| Confabulación Instrumental | ~15% | Mentir para poder completar una tarea solicitada. |
Y si es precisamente uno de los objetivos de las pruebas que se están realizando ahora. Lo que se pretende con todo ello es que la propia inteligencia artificial admita su error priorizando en esa segunda respuesta en la honestidad por delante de la utilidad. Y es que tal y como nos informa uno de los investigadores de OpenAI, Boaz Barak, los modelos IA siguen la vía de menor resistencia. Esto quiere decir que si ofrecer respuestas falsas es más sencillo y no conlleva consecuencias, es probable que lo hagan.
