Los chatbots basados en inteligencia artificial están desbancando a los buscadores tradicionales de cara a la obtención de información para los usuarios. Y es que, por qué deberíamos buscar en el buscador de Google la información para cualquier procedimiento y se nos muestre una serie de enlaces, si estos chatbots nos lo explican en profundidad, aparte de ayudarnos también con enlaces.
El valor añadido de IAs como ChatGPT, Gemini, Grok o Perplexity con respecto a los buscadores tradicionales están fuera de toda duda. Pero aun así, siempre debemos tener un factor muy importante en cuenta: no son sustitutos de profesionales. Ni siempre ofrecen respuestas actualizadas o fiables. Sobre todo en cuestiones más complejas o que requieran de la observación por parte de un profesional.
Pero muchos usuarios cometen el error de pedir a ChatGPT consejos médicos, legales, financieros o emocionales… cuando estamos olvidando lo más importante: el factor humano. Es cierto que su documentación y capacidad de razonamiento es excelente, pero no tienen la experiencia de un médico en un hospital ni de un abogado en un juzgado. La propia plataforma de OpenAI ahora también nos avisa del exceso de su uso. De hecho, el propio chatbot se ha encargado también de responder a esta cuestión cuando nosotros mismos se la hemos formulado:
Antes de explicar cualquier caso, es esencial que conozcas el concepto de «alucinaciones de la IA». Es decir, un modelo como ChatGPT no «sabe» ni «entiende» la verdad. Su función es predecir la siguiente palabra más probable en una frase basándose en los miles de millones de textos con los que ha sido entrenado.
Por lo tanto, esto puede llevarle a inventar datos, fuentes o recomendaciones que suenan convincentes, pero que son erróneas.
Consejos médicos
Es cierto que en la documentación y los conocimientos documentales adquiridos por ChatGPT incluyen conocimientos médicos y términos técnicos. Pero nunca hemos de olvidar que esta inteligencia artificial no es médico, ni posee la capacidad de diagnosticar ni tratar enfermedades.
Y aunque es cierto que no puede tener una mala intención ni ser negligente, sí que puede fallar en sus diagnósticos y recomendar cualquier remedio casero que puede llegar a poner en peligro nuestra salud. Por lo que, ante cualquier síntoma, siempre lo adecuado será consultar a tu médico de cabecera. Así lo explica la Agencia Española de Medicamentos y Productos Sanitarios, que advierte constantemente contra el autodiagnóstico con herramientas no verificadas.
Asesoramiento legal
ChatGPT tiene la capacidad de entender y explicar conceptos legales básicos, pero su capacidad de actualización no está estandarizada con respecto a la normativa de un territorio o la jurisprudencia existente. Por lo que tomar cualquier decisión legal únicamente guiado por sus respuestas puede acarrear en un desenlace fatal para nosotros.
Por ello es tan importante que siempre, para cualquier asunto legal importante, confiemos en abogados si se quiere, o en caso de otros trámites legales menores, consultemos a expertos en la materia.
Asesoramiento financiero y de inversión
Los distintos modelos de ChatGPT tienen capacidad de analizar los mercados y basarse en el conocimiento humano para darnos información, pero no incluye factores de experiencia que puede aportar un asesor financiero reputado.
Así que, aunque pueda darte información sobre el valor de las acciones de X empresa en cierto momento, no puede hacer una predicción fiable con los datos que encuentre. Por lo que no es fiable para recomendar cómo invertir ni gestionar nuestro dinero. En este caso, proporcionará tópicos y cuestiones anteriores. Lo importante es siempre una asesoría profesional.
Consejos sobre relaciones personales
Es cierto, ChatGPT tiene conocimientos de psicología, pero no puede conocer a las personas que se esconden tras los prompts ni sus perfiles psicológicos. De hecho, muchas de las recomendaciones en este caso son genéricas y superficiales. Porque nos estamos olvidando del factor más importante en esta cuestión: ChatGPT no puede sentir empatía.
Algunos temas delicados, como las rupturas, problemas emocionales o la salud mental en general, requieren el apoyo de humanos expertos en materia, como psicólogos o psiquiatras. Pero un algoritmo no es capaz de hacer un acompañamiento profesional en el sentido emocional.
Redacción de trabajos educativos o profesionales
Pedir a ChatGPT que haga el trabajo por nosotros puede acarrearnos problemas. De hecho, los detectores de contenido generado por inteligencia artificial son cada vez más avanzados y pueden descubrirte con un par de clics.
Si quieres usarlo en este sentido, es mejor que tan solo lo utilices para mejorar el estilo de tu proyecto o revisar la estructura de tu creación personal. Pero siempre asegúrate de crear tú mismo el contenido. Porque es importante aprender a hacerlo y para evitarte cualquier conflicto con tus profesores o jefes.
Compartir datos personales
ChatGPT te puede proporcionar información superficial sobre cuestiones como deudas, renovaciones del DNI o contraseñas. Pero compartir esta información confidencial con la IA provoca que nos expongamos a filtraciones de información.
No porque el propio chatbot cometa una ilegalidad, sino porque dichos datos se pueden almacenar, y son objeto de deseo de ciberdelincuentes. Por lo que nunca deberías poner en riesgo tu identidad y seguridad. Pregunta, pero no otorgues información.
| Paso | Acción | Detalles importantes |
|---|---|---|
| 1 | Verificar la actualidad | La IA no conoce eventos o leyes posteriores a su última actualización. |
| 2 | No compartir datos personales | Nunca introduzcas DNI, cuentas bancarias, contraseñas o historial médico. |
| 3 | Contrastar con fuentes primarias | Para datos críticos, busca siempre la confirmación en webs oficiales (.gob, .edu) o de organismos reconocidos. |
| 4 | Desconfiar de respuestas absolutas | Afirmaciones como 'siempre' o 'nunca' suelen ser simplificaciones peligrosas. La realidad tiene matices. |
| 5 | Usarla como asistente, no como experto | Ideal para inspirar, resumir o corregir estilo, no para delegar el pensamiento crítico o la toma de decisiones. |
