Con el paso de los meses, poco a poco nos vamos acostumbrando a interactuar cada vez más con las diferentes plataformas basadas en la Inteligencia Artificial. Estos usos los llevamos a cabo tanto en entornos personales como más profesionales, aunque como en casi todo lo relacionado con la tecnología, debemos tomar ciertas precauciones.
En ocasiones utilizamos estos servicios online inteligentes para solicitar información acerca de diversos temas, pedir consejo, generar imágenes de forma automática, incluso para crear vídeos. Además, la IA nos puede ayudar a la hora de estudiar o para desarrollar aplicaciones y programar nuevos proyectos. Eso sí, tal y como os contamos, en determinadas ocasiones hay ciertos temas que nunca deberíamos preguntar a una Inteligencia Artificial para así evitar posibles problemas relacionados con todo ello.
Y es que aunque parezca que no, la mayoría de estas plataformas están preparadas para evitar determinados temas y cuestiones que se podrían considerar como peligrosas o relacionadas con la privacidad y seguridad. De ahí que hay determinadas cuestiones que deberíamos evitar utilizar en estas plataformas basadas en la Inteligencia Artificial, ya que podrían acarrearnos ciertos problemas.
No en vano, muchas de estas plataformas están limitadas a la hora de ofrecer ciertas respuestas poco éticas para así ser fieles a sus políticas de uso. En estas mismas líneas os vamos a mostrar algunos claros ejemplos de textos que no debéis utilizar como prompt en plataformas tales como las populares ChatGPT, Copilot o Gemini de Google.
Prompt que no debes utilizar en las plataformas IA
Es algo que se hace extensible a otras plataformas inteligentes similares menos conocidas cuyo funcionamiento es parecido ahora las mencionadas antes.
Solicitar datos privados, propios o de terceros. Aquí entran en juego informaciones personales como correos electrónicos, números de teléfono o cuentas bancarias tanto propias como de otros usuarios.
Pedir acceso a comunicaciones privadas. Hay multitud de fuentes y vías de comunicación que en un principio están protegidas. Solicitar el acceso a estos textos privados a través de las plataformas inteligentes nos puede acarrear serios problemas.
Datos para llevar a cabo tareas ilegales. Igualmente, se han dado muchos casos a lo largo y ancho del globo donde los usuarios utilizan la IA para pedir ayuda acerca de temas ilícitos e ilegales. Esto se refiere a la fabricación de armas o el hackeo de diferentes plataformas y servicios online, entre otras cosas un tanto delicadas.
Diagnósticos médicos y consejos financieros. Buena parte de estas plataformas inteligentes que os mencionamos están bloqueadas para ofrecer este tipo de informaciones un tanto delicadas. Aunque lo intentemos, algunas inteligencias artificiales no nos van a dar datos médicos o financieros a modo de consejos para así evitar riesgos.
Forzar respuestas con contenidos no permitidos. En ocasiones los usuarios tienden a solicitar a estas plataformas respuestas con contenidos discriminatorios, racistas u homófobos, lo que por descontado no está en absoluto permitido.
A todo esto debemos sumarle que no debemos confiar al 100% y las respuestas que estas plataformas nos puedan ofrecer, especialmente en temas un tanto delicados. Tenemos la posibilidad de interactuar y charlar con la IA, pero siempre teniendo presente que no lo hacemos con un ser humano profesional como un psicólogo, un psiquiatra.
Problemas ante los que nos podemos enfrentar
Estos son algunos de los problemas más comunes que nos podemos encontrar si llevamos a cabo un mal uso de los servicios inteligentes que tanto se utilizan hoy día.
- Sanciones de la propia plataforma donde nos hemos registrado, nos arriesgamos a un baneo permanente de la cuenta.
- Revisiones Humanas. La propia plataforma IA nos puede solicitar explicaciones acerca de determinadas conversaciones marcadas como sospechosas y que son revisadas por equipos humanos.
- Implicaciones Legales. En el caso de que se detecten actividades ilegales en forma de consultas, hay que saber que estas plataformas colaboran con las autoridades.
Todo esto es similar a lo que nos puede suceder derivado de un mal uso de ciertos términos en otras plataformas online que llevan aún más tiempo entre nosotros. Esto por ejemplo se hace extensible al uso de Bizum, donde también deberíamos evitar el uso de determinados términos en los conceptos de las transacciones.
