El uso de Chat GPT como si fuera un psicólogo está en auge. Esta herramienta de inteligencia artificial se ha convertido en una especie de «confesionario digital» donde las personas exponen abiertamente sus problemas, afirma Roger Canals, profesor de Antropología de la Universidad de Barcelona.
Por varias razones, explica; porque ofrece respuestas claras, directas e inmediatas. Es anónimo, rápido, está disponible las 24 horas del día y es gratuito. Además, es fácil de utilizar y da la sensación de que siempre está ahí para «ayudar».
Chat GPT presenta la información de una manera atractiva, personalizada y bien estructurada. Sin embargo, el uso excesivo puede conllevar algunos peligros.
Uno de ellos es que normalmente, según la psicóloga Raquel Córdoba, esta herramienta te da respuestas complacientes, que validan tu punto de vista; «lo que quieres escuchar» y no lo que quizás necesitas. Por lo tanto, las personas «no confrontan sus problemas», algo que puede «agravar los síntomas de las enfermedades mentales».
Chat GPT proporciona indicaciones que «afectan al comportamiento de los seres humanos». ¿Qué podríamos o deberíamos hacer? Y una vez tenemos las respuestas, ¿qué viene después? ¿Comprar un medicamento? ¿Cambiar la conducta?
Según Canals, «estamos cruzando un límite que tiene que ver con la gestión de la información y la salud, las emociones de los individuos». Considera que, «bajo una supuesta objetividad, neutralidad y profesionalidad, la inteligencia artificial podría estar dirigiendo de forma oculta temas tan importantes como la salud mental».
Además, alerta el antropólogo de la Universidad de Barcelona, tras la aparente resolución de un problema, los usuarios pueden llegar a establecer una relación de dependencia, adicción, de necesidad de consulta permanente con Chat GPT.
Dimensión lúdica y opacidad
Según Roger Canals, Chat GPT «juega con la curiosidad y la necesidad de obtener respuestas de los seres humanos». Algo que es «incremental»; va a más, cada vez hay más ganas de preguntar, al ver que siempre hay contestación. «La dimensión lúdica juega a favor de la inteligencia artificial», señala.
Considera que también juega a su favor la opacidad. Parece que «las respuestas que da caigan del cielo». Pero, ¿quién responde? ¿quién hay detrás? ¿cómo se elaboran las respuestas y qué uso se hace de nuestros datos? ¿pueden ser utilizados por grandes corporaciones, incluso por estados, para dirigir políticas de salud y de intereses privados?

A pesar de esta opacidad, falta de trazabilidad, Chat GPT «tiene autoridad y legitimidad». La gente suele confiar en la información que ofrece esta herramienta. Y esta confianza, apunta, es paradójica porque detrás de la empresa americana hay intereses económicos.
Canals concluye que el uso de Chat GPT como si fuera un psicólogo carece de aval científico. Existe la posibilidad de que su diagnóstico sea erróneo. Puede llegar a ser un complemento pero no sustituir a un profesional.
IMAGEN DE PORTADA GENERADA CON INTELIGENCIA ARTIFICIAL.
Comentarios