La Inteligencia Artificial avanza a pasos agigantados. Y muchos usuarios están empezando a hacer un mal uso de ella, abusando de sus respuestas y generando una dependencia que, a la larga, puede ser muy perjudicial. Las empresas encargadas de estas IAs, como OpenAI, son conscientes de los peligros que puede tener abusar de estas IAs. Y, por ello, el nuevo ChatGPT va a ser capaz de detectar si estás emocionalmente agotado y recomendarte tomarte un descanso cuando esto ocurra.
Aunque la Inteligencia Artificial no es algo nuevo, OpenAI consiguió que todo el mundo fuera capaz de usarla. Esto le ha convertido en una de las empresas de IA más grandes del mundo. Su IA, ChatGPT, ha alcanzado una cuota de 700 millones de usuarios activos a la semana, lo cual es, sin duda, un signo de su gran popularidad. Para hacernos una idea de cuánto son estos 700 millones de usuarios activos semanales, TikTok cuenta con (aproximadamente) 422 millones de usuarios activos a la semana, Instagram con 600 millones de usuarios activos a la semana, y Twitter (X) tan «solo» 152 millones de usuarios activos a la semana, según los datos de StatCounter (Q3 2025).
Este volumen de usuarios implica para OpenAI una gran responsabilidad. Y es que, según los propios análisis de la compañía, hay muchos usuarios que abusan de ChatGPT y generan una dependencia tan grande de esta IA que, a corto o medio plazo, puede generar una dependencia funcional perjudicial a medio plazo. Es por ello por lo que OpenAI ha decidido aprovechar y convertir a ChatGPT en tu propio compañero de autocuidado, como detalla la nota What we’re optimizing ChatGPT for oficial de OpenAI.
Así cuidará ChatGPT de tu salud mental
OpenAI ha trabajado duro en su último algoritmo, GPT-4o, para ser capaz de detectar y reconocer cualquier signo de angustia emocional o dependencia. De esta forma, cuando el algoritmo detecte que el usuario está afligido por algo, podrá ofrecer respuestas más apropiadas. Además, un cambio importante es que, cuando el usuario haga preguntas cruciales sobre su vida personal, en vez de darle la respuesta que pide directamente, le intentará ayudar a reflexionar, analizando las ventajas y desventajas de lo que está buscando.
¿Y cómo funciona? La capacidad de interpretar el estado emocional del usuario se basa en el análisis de patrones lingüísticos. Por ejemplo, pueden identificar:
- Análisis de léxico asociado a la frustración: el sistema analizará las palabras y expresiones que usan los usuarios en sus conversaciones con la IA, detectando e identificando cierto vocabulario que indica estados de angustia, irritación o malestar emocional.
- Detección de patrones de fatiga: el algoritmo analizará los indicadores de agotamiento mental o físico en las conversaciones con el usuario, así como cambios en la coherencia del discurso, repetición de preguntas similares, o el desgaste en la calidad de las preguntas formuladas.
- Análisis de tono de voz: cuando esté disponible la función de voz, el sistema será capaz de evaluar las características vocales del usuario, incluyendo variaciones en el tono, ritmo y entonación que pueden indicar estados emocionales alterados.
Pero OpenAI no solo intentará solucionar los problemas que ronden la cabeza de los usuarios así, sino que también intentará promover un uso responsable de su plataforma. Por ello, ChatGPT ofrecerá recordatorios suaves a los usuarios que considere que están abusando de la IA para tomar descansos durante sus sesiones prolongadas, promoviendo así un uso más saludable de la tecnología.
¿Son fiables las recomendaciones médicas de ChatGPT?
OpenAI ha estado trabajando con más de 90 médicos de 30 países distintos con el fin de mejorar las respuestas en temas médicos y otras situaciones sensibles que puedan rondar la cabeza de los usuarios. No obstante, es muy importante tener en cuenta que, igual que no se recomienda buscar temas médicos en Google, tampoco debemos hacerlo en una Inteligencia Artificial.
Todos los temas médicos, especialmente los temas mentales, deben ser analizados y tratados por un profesional. Confiar demasiado en un algoritmo en este tipo de conceptos, por muchos médicos que hayan trabajado en ello, puede ser contraproducente y enmascarar la necesidad de una evaluación profesional. Sobre todo teniendo en cuenta que, en el pasado, los chats se han filtrado en Google, permitiendo a cualquiera encontrarlos y leerlos sin filtros.
