Poco a poco nos hemos acostumbrado a utilizar las plataformas y asistentes de IA como ChatGPT o Gemini, entre otros muchos, para múltiples tareas. De lo que muchos usuarios no son conscientes es que esta inteligencia artificial aún tiene mucho que mejorar.
A lo largo de los últimos meses, mucho se ha hablado de los errores que estos asistentes inteligentes nos proporcionan y que damos como buenos. Además, al contrario de lo que muchos piensan, las funciones que nos proporcionan todavía están muy limitadas. Debemos tener en consideración que la IA, en términos generales, no admite sus fallos y nos ofrece respuestas fallidas, también conocidas como alucinaciones, en su lugar.
Quizá una de las alternativas de este tipo más conocidas y utilizadas a nivel global sea ChatGPT de OpenAI. Pues bien, a pesar de su popularidad, debemos saber que este es un asistente que ni mucho menos es perfecto. Comete multitud de errores y aún hay preguntas que no puede y no sabe respondernos. A todo esto le debemos sumar que las respuestas aleatorias forman parte de su funcionamiento, lo que en ocasiones se puede convertir en un problema para los usuarios.
Tanto es así que podemos considerar que la propuesta mencionada es terrible en determinadas circunstancias y a la hora de desempeñar algunas tareas. Precisamente es en esto en lo que nos vamos a centrar en estas mismas líneas. Tareas en las que no deberíamos confiar en absoluto para resultados que, de manera predeterminada, nos ofrece ChatGPT.
Modos de funcionamiento de ChatGPT en los que no podemos confiar
A pesar de la enorme utilidad que nos proporcionan estas plataformas relacionadas con la IA, todavía hay comportamientos y modos de funcionamiento en los que no podemos confiar. A continuación os hablaremos de algunos claros ejemplos para que os hagáis una idea aproximada de las precauciones que deberíais tomar al utilizar ChatGPT.
- Errores de razonamiento y matemáticas. Cierto es que los más recientes modelos de lenguaje como GPT 5.x han mejorado mucho en este sentido. Pero la IA de ChatGPT todavía puede fallar de forma estrepitosa en problemas lógicos complejos o en cálculos aritméticos de muchos dígitos. Es algo con lo que debemos tener cuidado en determinados ámbitos como la educación.
- Falta de sentido común o intuición. Esto es algo que se hace extensible a otros muchos asistentes de inteligencia artificial. Y es que en ocasiones interpretan las instrucciones humanas de forma demasiado literal o ignoran el contexto emocional y el sarcasmo.
- Almacenamiento de contenidos. Aunque a priori pueda parecer que podemos confiar en que ChatGPT guardará sin problemas nuestro historial de conversaciones, en realidad no es así. Usuarios de todo el mundo han presentado múltiples quejas por la pérdida de estos contenidos, que además tenían importancia en su trabajo.
- Supuesto ahorro de tiempo. OpenAI anunció el lanzamiento del nuevo modelo ChatGPT 5.2 como algo para ahorrar a los profesionales una enorme cantidad de horas de trabajo. Recientes estudios demuestran que el asistente inteligente sigue mostrando incongruencias y respuestas erróneas que hay que filtrar y en las que se invierten el tiempo ahorrado en otras tareas.
- Límites en los datos actualizados. Este es un apartado que con el paso del tiempo ha mejorado mucho, pero la IA todavía comete importantes errores con determinadas informaciones actuales a corto o medio plazo, ofreciendo datos falsos.
- Caídas de rendimiento. En muchas ocasiones utilizamos estos asistentes inteligentes para que nos ofrezcan respuestas inmediatas. Pues bien, hay determinados momentos de alta demanda en los que tanto el tiempo de respuesta como la calidad de las mismas baja, algo que se hace especialmente patente en las cuentas gratuitas.
- Limitaciones excesivas por los filtros. Es comprensible que plataformas como ChatGPT incluyan algunos filtros y restricciones en determinados temas. Pero también es cierto que, en más ocasiones de las que nos gustaría, el uso de los mismos se excede y se bloquean solicitudes válidas.
