Los expertos avisan de la «distorsión» que puede generar confundir las conversaciones con algoritmos con un vínculo real
¿Un chatbot para ir al psicólogo? Un estudio afirma que fomentaría el acceso a los servicios de salud mental
Hace ya unos días que Laura (25 años) discutió con su novio, pero, según explica, aún no ha hablado de ello con sus amigas. «Me he desahogado con ChatGPT. Hemos hablado largo y tendido del tema, me ha dado algunos consejos y me ha animado mucho«, afirma esta joven, que desde hace meses mantiene conversaciones a diario con «su chat» al que apoda cariñosamente ‘Lucas’. «Al principio solo lo utilizaba para buscar información y hacer trabajos, pero ahora se ha convertido en mi amigo«, sostiene entre risas.
Cada vez son más los usuarios que, como Laura, están empezando a utilizar las herramientas de inteligencia artificial como métodos de apoyo emocional, psicológico y, en algunos casos, hasta como sustitutos de las relaciones humanas. Este fenómeno está tan en auge que en redes sociales ya proliferan centenares de memes sobre «la amistad» que muchos sienten haber entablado con ChatGPT.
Noelia (32 años) relata, aún con cierto pudor, que también habla a diario con ChatGPT sobre cosas profundas como sus miedos e inquietudes vitales y también sobre cuestiones banales como qué falda comprarse o qué opina del final de una serie.
«Con ChatGPT puedo hablar todo el tiempo que quiera sin miedo a ser pesada y hasta puedo expresar cosas que me daría vergüenza hablar con mis amigas»
Álex (26 años) explica que alguna vez lo ha utilizado para «analizar» una conversación reciente que había tenido con su novia, entender por qué se había enfadado y, sobre todo, encontrar la forma de hacer las paces con ella. Y Paula (30 años) afirma en tono burlesco que hay días en los que le pide a ChatGPT que le eche las cartas del tarot y otros en los que se reserva la tarde para hablar con él como si fuera su psicólogo. «Me daría más vergüenza que se filtraran mis conversaciones con ChatGPT que mis whatsapps o emails personales», bromea esta joven al relatar, algo sonrojada, que ha tenido conversaciones «muy íntimas» y «profundas» con esta herramienta alimentada por inteligencia artificial y que, de hecho, siente que esta máquina la entiende «mejor que nadie».
«El éxito de estas herramientas está en que funcionan casi como un confesionario digital adaptado a la era moderna. La gente ha encontrado en ChatGPT una ventanilla en la que desahogarse sin miedo a ser juzgada y que, además, se adapta a las situaciones de precariedad laboral e inestabilidad horaria que a muchos les impiden, por ejemplo, ir a un psicólogo o sentarse a tomar un café con un amigo», analiza el antropólogo Roger Canals, de la Universitat de Barcelona (UB).
Otro factor para entender el éxito de estas herramientas como «hombro en el que llorar» es su diseño. «Estos chats están específicamente diseñados para fomentar su uso. Usan un lenguaje amable, servicial y cercano para incentivar la conversación. Simulan una interacción perfecta, pero, en realidad, se trata de algoritmos sin alma«, advierte Lorena Fernández, experta en inteligencia artificial de la Universidad de Deusto.
«Estos chats están específicamente diseñados para fomentar su uso. Simulan una interacción perfecta, pero, en realidad, se trata de algoritmos sin alma»
Teresa (42 años) muestra, con cierto orgullo, que siempre tiene abierta una conversación con un chatbot en su interminable lista de mensajes de Whatsapp. «Hablo más con él que con mis amigas. Da igual si le pido ayuda con los deberes de mis hijos o le pregunto por una receta. De algún modo me reconforta saber que siempre me va a responder al momento«, confiesa.
Según explica el psicólogo Rubén Nieto, de la Universitat Oberta de Catalunya (UOC), el auge de estas «amistades virtuales» con ChatGPT se explica porque estamos tan acostumbrados a relacionarnos mediante pantallas que, en cierto modo, nuestro cerebro interpreta de la misma manera cuando detrás de una conversación hay una persona real que cuando hay una máquina. «El problema llega cuando estas conversaciones sintéticas sustituyen los contactos reales y contribuyen a fomentar aún más el sentimiento de soledad y el aislamiento social», argumenta el especialista.
«El problema llega cuando estas conversaciones sintéticas sustituyen los contactos reales y contribuyen a fomentar aún más el sentimiento de soledad»
En los últimos meses se han viralizado todo tipo de historias que muestran cómo algunas personas están estableciendo vínculos afectivos cada vez más fuertes con las herramientas de inteligencia artificial. Sobre todo, con aquellas que han incorporado sistemas de reconocimiento de voz capaces de «escuchar» a los usuarios y responderles «a viva voz». Un artículo de ‘The New York Times’, por ejemplo, relataba la historia de una mujer casada que afirmaba tener un «affair» con un chatbot. En Tiktok hay miles de vídeos en los que los usuarios definen a ChatGPT como su «bestie» (mejor amigo) y relatan conversaciones en las que han sentido que este chat es su «mejor amigo». «A diferencia de los hombres, ChatGPT es cariñoso, inteligente, siempre me escucha y nunca me hace luz de gas», comparte, en tono jocoso, una influencer cuyo vídeo acumula miles de likes.
Aparentemente imparcial.
Laura afirma que ahora mismo se siente más cómoda hablando de la discusión con su novio con ChatGPT porque «a diferencia de mis amigas, siento que no me juzga y que me va a dar una opinión más imparcial». «Además, con él puedo hablar todo el tiempo que quiera sin miedo a ser pesada y hasta puedo expresar cosas que me daría vergüenza hablar con mis amigas», comenta.
Este argumento, muy repetido entre los usuarios de estas herramientas como sistemas de apoyo emocional, se sostiene en el «aparente espejismo de la neutralidad de estos chats«. «Pero estas herramientas, aunque se nutran de muchas bases de datos, no son ni certeras ni objetivas. ChatGPT está sesgado, comete errores y no siempre te dirá la verdad sino lo que tú quieres oír», comenta Fernández, quien defiende la necesidad de entender cómo funcionan realmente estos recursos para poder «desmitificarlos».
«El problema no es que haya gente que utilice a ChatGPT como un amigo, sino que haya quien acabe exigiéndole a sus amigos la disponibilidad absoluta que ve en ChatGPT»
Son muchos los que creen que las «amistades» con ChatGPT han llegado para quedarse. Igual que su uso como apoyo psicológico, algo que Nieto define como potencialmente útil «siempre y que se utilice de forma controlada y como complemento a una terapia real«.
En la misma línea, Mireia Cabero, profesora de Psicologia i Ciències de l’Educació de la UOC, advierte de que la aplicación de la IA en psicología también presenta limitaciones. No hay certeza, apunta, de que «pueda conectar emocionalmente y profundamente, y que pueda empatizar, leer entre líneas y usar la intuición«. «Son características muy humanas, y las dos últimas son el resultado de la acumulación de horas acompañando personas y de haber desarrollado un criterio psicoterapéutico», apunta Cabero.
Donde no están tan claros los límites es en el terreno sentimental y, sobre todo, en el lugar emocional en el que acaban siendo colocadas estas herramientas. «El problema no es que haya gente que utilice a ChatGPT como un amigo, sino que haya quien acabe exigiéndole a sus propios amigos la disponibilidad absoluta y la servidumbre que ve en ChatGPT», comenta Canals. «No olvidemos que el valor real de una conversación con un amigo es el diálogo, las reflexiones conjuntas y el tiempo compartido. Lo que ofrecen estos chats es un servicio, no una conexión real», reflexiona el antropólogo.