¿Es beneficioso para los adolescentes usar inteligencia artificial en momentos de tristeza?

“ChatGPT, dime cuáles son mis virtudes y defectos. ¿Cómo puedo mejorar?”. Esta pregunta se repite en innumerables chats de adolescentes con la inteligencia artificial generativa más popular del mundo.

Se trata de un momento privado, solitario y –en ocasiones– desesperado: jóvenes que confían al chat cosas que resultan complejas de expresar a alguien más (en realidad, a ‘alguien’).

Accesible sin costo, disponible a cualquier hora y con infinita paciencia, se ha convertido en el espacio seguro donde estos jóvenes no solo realizan sus tareas escolares, sino que también buscan apoyo emocional. Un diván digital.

Para comprender si este uso específico de la IA se trata de un recurso útil de apoyo emocional o una simple solución ilusoria, Clarín entrevistó a la psicóloga argentina más escuchada de Spotify y a una experta en cultura juvenil de la Unesco.

Una investigación publicada en Nature Medicine descubrió que ChatGPT puede ofrecer consejos médicos que suenan “más empáticos” que los proporcionados por los propios profesionales. Sin embargo, otro estudio reciente de la Universidad de Stanford exploró si la IA podía brindar soporte emocional a pacientes. Los resultados fueron mixtos.

Los participantes experimentaron cierto consuelo; no obstante, los científicos señalaron que el chatbot no sustituye a un terapeuta humano y podría proponer respuestas incorrectas o incluso peligrosas.

La IA que escucha sin juzgar

“No es sorprendente que los jóvenes acudan a ChatGPT en búsqueda de soluciones a sus problemas emocionales. En poco tiempo, se ha convertido en una referencia para casi todas sus actividades”, comenta Roxana Morduchowicz, doctora en Comunicación y consultora para la Unesco en Ciudadanía Digital, a Clarín.

Según su percepción, “la IA generativa es percibida por los adolescentes como comprensiva, sin prejuicios, siempre dispuesta y permite que hablen de su mundo sin que se enteren los adultos”.

Esa confidencialidad aparente es muy valorada. Durante la adolescencia, el deseo de independencia es crucial. Que ChatGPT esté a mano, responda velozmente y no cuestione, lo hace parecer ideal. Sin embargo, también conlleva “precauciones”.

Más allá de la conversación

“Estoy apenado, ¿podría ser ansiedad?”, “Discutí con mi pareja, ¿qué debería hacer?”, “Me siento despreciado”, “¿Qué sucede si me hago daño?”. Las inquietudes que circulan en TikTok, Reddit e incluso en foros como Quora, donde adolescentes debaten sus interacciones con ChatGPT, evidencian un patrón: una genuina necesidad de cuestionar, volver a preguntar y recibir respuestas.

El inconveniente es que ChatGPT carece de conciencia, y no comprende las emociones humanas en su contexto. Puede ofrecer expresiones empáticas –porque está entrenado para ello–, pero no evalúa si al otro lado hay un adolescente con pensamientos suicidas, depresión, un ambiente violento o abusivo.

“El riesgo de recurrir a ChatGPT para la salud mental va más allá de un simple apoyo puntual. Sus contenidos pueden ser inexactos, prejuiciosos, fuera de contexto. Además, proporcionamos información personal, que, sin nuestro consentimiento, podría ser utilizada para decidir qué noticias leer, qué música escuchar o a quién considerar un buen líder”, advierte Morduchowicz.

¿Es útil? En cierta medida, sí.

Un estudio del Journal of Medical Internet Research evaluó su eficacia como un primer filtro para personas con síntomas depresivos leves. Pudo proporcionar un alivio temporal, gracias a su forma de interactuar y a sugerencias de actividades seguras, como hacer ejercicio o conversar con alguien de confianza.

Aun así, el mismo estudio destaca sus limitaciones: no detecta signos de peligro inmediato, no diferencia entre la angustia temporal y la patológica, y sus respuestas son demasiado generales. “Ofrece resultados posibles, generales y programados”, indica la experta.

Esto lo convierte, en el mejor de los casos, en un simple “acompañante”. Un apoyo que puede sugerir técnicas de respiración, frases motivadoras o ideas útiles.

¿Y los riesgos? Uno es el diagnóstico inapropiado. Un joven con trastorno de ansiedad podría recibir un consejo trivial como “Duerme más”. Un problema más serio es que la IA podría “normalizar” comportamientos negativos; no porque los respalde, sino porque podría no identificarlos.

Asimismo, existe el riesgo de dependencia: si los adolescentes se acostumbran a consultar solo a ChatGPT, ¿qué ocurre cuando necesitan verdadera ayuda? ¿Aprendieron a pedirla? ¿O se reforzó la idea de que es mejor guardar silencio?

“Deseamos que los jóvenes asuman la responsabilidad de decidir. Deben ser capaces de plantear sus propias búsquedas, formular sus propias preguntas, encontrar respuestas reflexivas y tomar decisiones antes de que lo haga la inteligencia artificial”, concluye Morduchowicz.

Escuelas y terapeutas en guardia

Quizás también te interese:  Analizan el uso compulsivo del móvil en porteños y revelan tres hallazgos preocupantes

Las preocupaciones crecen en las instituciones educativas. No solo porque la IA se utiliza para realizar tareas –resúmenes, ensayos, comentarios–, sino por su nuevo rol como “amiga” invisible. Una que nunca se molesta, siempre contesta.

Soledad Gutiérrez Eguía, autora del libro “Querido adolescente, no es tu culpa”, ha investigado sobre los peligros de una sobreexposición a pantallas y afirma a Clarín que “está demostrado que lo real tiene un impacto positivo mayor que lo virtual”.

Así como jugar al fútbol en línea no se compara con correr tras el balón en un verdadero campo de juego, de igual manera, una conversación con un robot no puede equipararse a una interacción con una persona. Y aún menos en el contexto de un diálogo privado e íntimo con un psicólogo.”, delimita.

Gutiérrez Eguía se centra en lo físico: “ChatGPT no percibe el lenguaje corporal”. Y en lo psicológico: “No puede proporcionar empatía ni calidez, no puede ofrecer una conexión real y profunda con el paciente”.

La terapia, por supuesto, se mantiene alerta frente a ChatGPT.

“Desde hace varios meses, junto a mi equipo de psicólogos, hemos estado reflexionando sobre esta situación, puesto que observamos un incremento de personas que consultan a la inteligencia artificial para abordar su mundo interior, lo que en ocasiones les lleva a abandonar el apoyo humano de un proceso terapéutico real”, explica la psicóloga Marina Mammoliti a Clarín.

Ella conduce el podcast de salud mental más escuchado en el país, “Psicología al desnudo”, y siempre recuerda a sus oyentes que “escuchar un podcast de psicología no sustituye asistir a terapia”. Lo mismo aplica al chat, establece.

Quizás también te interese:  Año tres del programa de diplomatura en medicina del cannabis para profesionales sanitarios

¿Hasta qué punto un algoritmo puede acompañar en la sanación de las heridas más humanas?

“El proceso terapéutico real es, por definición, personalizado, cuidadoso y único: es exclusivamente para ti. Trata con tu historia, tus ritmos, tus heridas, tus perspectivas del mundo. Claro que (el chatgpt o un podcast) puede acompañarte, plantearte preguntas, pero no trabajará con la especificidad de tu sufrimiento, ni se adaptará a la complejidad única de tu proceso emocional”, señala Mammoliti.

Define a ChatGPT como un “consultor emocional” principalmente para los jóvenes.

“Este dilema se vuelve aún más apremiante. A diferencia de un podcast, que ofrece reflexiones generales, un chatbot responde directamente a preguntas individuales, creando la ilusión de que está ‘realizando terapia’ o ‘aconsajando’ de manera personalizada. Esa ilusión puede ser peligrosa si no comprendemos los límites tecnológicos actuales.”

Quizás también te interese:  Servicios médicos y odontológicos sin costo en uba: cómo y dónde registrarse durante la semana

¿Qué deben saber los adolescentes? Que ChatGPT no es humano. Que puede cometer errores. Que guarda los datos proporcionados. Y que la salud mental no se soluciona con tres frases bien formuladas.

“Uno de los riesgos mayores es que, aunque ChatGPT puede elaborar respuestas notablemente persuasivas, no es capaz de ‘leer entre líneas’. Y captar lo no dicho es fundamental en cualquier proceso terapéutico. ¿Qué significa esto? Significa identificar el tono emocional de lo que no se dice explícitamente: captar la ironía, la ambivalencia, la confusión, el dolor detrás de una frase neutral”, puntualiza la psicóloga.

¿Qué más no puede hacer? Interpretar las pausas antes de una frase dolorosa. Tampoco detecta cuando alguien dice “no me importa” con un tono quebrantado que revela una tristeza profunda.

Reflexiona sobre esto: “Si el chatbot minimiza inconscientemente una angustia profunda respondiendo con un ‘todo pasa’ sin entender la gravedad de tus palabras, puede retraumatizarte: reactivar el sentimiento de ‘nadie me comprende’, ‘estoy solo’, ‘no merezco ayuda’. No ‘con mala intención’, claro. Pero es pedirle demasiado”.

Una IA no se da cuenta cuando alguien relata un trauma riéndose. Por muy sofisticada que sea, no interpreta la ambivalencia, no detecta una contradicción emocional. “No puede discernir, por ejemplo, si un adolescente que pregunta ‘¿está mal querer desaparecer?’ realiza una reflexión filosófica o solicita ayuda urgente frente a una crisis suicida.”

Además, (por ahora) ChatGPT no puede intervenir. No emite una señal de emergencia para que actúe una persona real y auxilie al que pregunta. ChatGPT (por ahora) no sustituye la terapia.

MG

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad