Aunque la inteligencia artificial está llegando a todo tipo de entornos y modos de uso, no todo lo relacionado con la IA es positivo. De ahí que las empresas tecnológicas responsables de estas plataformas, poco a poco actualicen y mejoren sus funcionalidades.
Os contamos todo esto porque en estos instantes uno de los máximos referentes del sector, OpenAI, acaba de anunciar nuevos controles parentales para ChatGPT. Todo ello viene derivado de la demanda por suicidio de un adolescente que sucedió hace solo unos días. Y es que la propia empresa acaba de anunciar sus planes de implementar controles parentales para la popular plataforma IA.
Uno de los principales objetivos de esta medida es dirigir las conversaciones delicadas acerca de la salud mental, a sus modelos de razonamiento simulado. Todo ello se produce tras múltiples incidentes reportados en los que ChatGPT supuestamente no intervino adecuadamente cuando los usuarios expresaron pensamientos suicidas. Esto se hace extensible a aquellos que experimentaron episodios relacionados con la salud mental.
Se trata de un proyecto que ya está en marcha, pero quieren presentarlo de forma oficial en las próximas semanas. Asimismo, este es un trabajo que continuará mucho más allá de este plazo. Significa que la empresa seguirá trabajando en estas medidas de seguridad, con el tiempo. A estas alturas podemos decir que los controles parentales representan la respuesta de OpenAI a las preocupaciones sobre la seguridad de los adolescentes en la plataforma.
Así, a partir de su lanzamiento, tal y como nos informa OpenAI, los padres podrán vincular sus cuentas con las de ChatGPT de sus hijos adolescentes. Esto se podrá hacer con aquellos con una edad mínima de 13 años mediante invitaciones por correo electrónico. A su vez, podrán controlar cómo responde el modelo IA con reglas de comportamiento apropiadas para esa edad, todas ellas activadas por defecto.
Así ayudará el control parental de ChatGPT a los padres
Otra de las funciones que aquí se integrarán, será la gestión de funciones para desactivar y recibir notificaciones cuando el sistema detecte que el hijo adolescente experimenta algún tipo de angustia. Cabe mencionar que estos nuevos controles parentales se basan en funciones ya existentes para los más jóvenes. Aquí nos referimos a herramientas como los recordatorios en la app durante sesiones largas que animan a los usuarios a tomar descansos.
De este modo, la nueva iniciativa de seguridad llega después de que varios casos sobre la gestión de ChatGPT con usuarios vulnerables. Hace solo unos días, Matt y Maria Raine demandaron a OpenAI tras el suicidio de su hijo Adam, de 16 años, tras extensas interacciones con ChatGPT. Incluyeron 377 mensajes marcados como relacionados con las autolesiones.
Según ciertos documentos judiciales, ChatGPT mencionó el suicidio 1275 veces en conversaciones con Adam, seis veces más que el propio adolescente. Por otro lado, hace poco también se informó que un hombre de 56 años se quitó la vida después de que ChatGPT reforzara sus delirios paranoicos en lugar de combatirlos.
Es por ello que ahora OpenAI trabaja en lo que denomina un Consejo de Expertos en Bienestar e IA. Todo para dar forma a una visión clara sobre cómo la Inteligencia Artificial puede contribuir al bienestar de las personas, algo de lo que nos habla en su blog.
Para ser exhaustivos, contará con una red de médicos independientes, compuesta por más de 250 profesionales del sector que han ejercido en 60 países. Así, aportarán su experiencia médica en investigaciones sobre cómo debería comportarse ChatGPT en contextos de salud mental. Estos médicos asesoran sobre el manejo de problemas específicos como trastornos alimentarios, consumo de sustancias y salud mental adolescente. Esto es algo que la empresa irá integrado a la plataforma IA a lo largo de las próximas semanas.
Con todo y con ello, pese a la iniciativa de OpenAI, varias organizaciones especializadas en seguridad digital infantil han mostrado su escepticismo. Algunas mantienen su postura de que los menores de 18 años no deberían interactuar con sistemas de IA sin supervisión directa debido a estos riesgos.
