Uno de los fenómenos más odiados por los usuarios de los chatbots de IA actuales son las llamadas alucinaciones. Es decir, respuestas aparentemente convincentes que nos proporciona una IA, pero que en realidad son totalmente falsas. Esto puede ser fruto de la falta de contexto, entrenamiento o de que el sistema prefiere rellenar huecos antes que admitir cualquier incertidumbre. Pero podemos revertir fácilmente esta situación.
Todos aquellos que redactan y programan lo saben. No basta solo con «pedir bien». También debemos dirigir el comportamiento del modelo para que nuestra interacción gane en precisión y calidad. Aun así, desde OpenAI son meridianamente conscientes de esta situación. Y los usuarios tampoco son ajenos a estos errores. Desde ChatGPT tenemos una forma directa y eficaz de minimizar este tipo de graves errores.
Concretamente, contamos con las instrucciones personalizadas de ChatGPT y una serie de reglas para solicitar a la IA que su manera de responder sea lo más veraz posible. Y para ello, solo debemos indicarle cuatro reglas muy sencillas que vamos a describir en este artículo. De esta manera, frenaremos cualquier posibilidad de que la IA conjeture con los datos.
Qué son las alucinaciones y por qué ocurren
Las alucinaciones ocurren cuando el modelo de IA se encarga de rellenar huecos de información mediante información no verificada, en lugar de declarar que no dispone de datos suficientes. Y esto ocurre porque los modelos están entrenados para generar la siguiente «mejor palabra» dentro de una cadena de texto. Pero no para detenerse cuando no sepa. Así lo documenta OpenAI en su «Technical Report de GPT-4 en el año 2024.
Las causas que suelen motivar estas acciones son la falta de contexto, los prompts imprecisos, datos de entrenamiento incompletos o contradictorios o cualquier tarea que requiera de datos actualizados que la IA no tenga disponible aún.
En noticias técnicas o en cuestiones de derecho, el riesgo de alucinaciones crece ante la ingente cantidad de datos y detalles que pueden poseer una errata. Sin embargo, podemos mitigar este tipo de fallas de una IA mediante un conjunto de reglas.
Las 4 reglas para eliminar las alucinaciones en ChatGPT
Lo primero que debemos hacer es dirigirnos a la plataforma web de ChatGPT y pulsar sobre el icono de nuestro perfil, donde deberemos pulsar en «Personalización». Es aquí donde queríamos llegar.
Concretamente, al cuadro de texto que verás con el nombre de «Instrucciones personalizadas», y donde vamos a desplegar las cuatro reglas para que las siga en todo momento. Ten en cuenta que deberás añadir las siguientes líneas al recuadro de instrucciones personalizadas, así que déjalo lo más despejado que puedas de antemano.
- «Eres un modelo de razonamiento lógico». Al definir al modelo como un razonador lógico, se le fuerza a priorizar las cadenas de inferencia sobre las respuestas creativas. Lo que reduce la posibilidad de que se genere texto de relleno.
- «Resuelve el problema paso a paso mostrando cada etapa». Lo que obliga a exponer cualquier conflicto y facilitar cualquier salto ilógico de la IA.
- «Si no tienes suficiente información o no estás seguro, responde: no puedo resolver esto con certeza debido a información insuficiente». Lo que corta cualquier conjetura y blinda la fiabilidad.
- «Verifica tu respuesta antes de darla; si detectas una alucinación, indícalo». El último filtro para detectar cualquier incoherencia o cifra suelta.
De manera complementaria, en el caso de que quieras trabajar dentro de un conjunto de información muy específica, puedes añadir otra orden del tipo «responde solo con lo que se encuentre en estas fuentes», añadiendo los correspondientes enlaces, para afinar la claridad.
| Plataforma | Función Existente | Nombre de la Función | Acceso del Usuario | Aplicabilidad de las 4 Reglas |
|---|---|---|---|---|
| ChatGPT (OpenAI) | Sí | Instrucciones Personalizadas | Directo en interfaz | Aplicable directamente |
| Claude (Anthropic) | Sí (limitado) | System Prompts | Solo vía API/técnico | Requiere adaptación técnica |
| Gemini (Google) | Parcial | Parámetros de Configuración | API y configuraciones limitadas | Aplicable con reformulación |
