El Descubrimiento de un Padre Preocupado
Diego notó que su hija, de 14 años, utilizaba ChatGPT constantemente y que cada vez que se sentaban a comer, tomaba fotos de sus platos. Cuando indagaron, ella explicó que solo lo hacía por razones triviales. Sin embargo, más adelante confesó que enviaba esas fotos al chat de ChatGPT para obtener información sobre el contenido calórico de su comida.
Impacto de la IA en la Salud de su Hija
Diego, quien pidió al medio Clarín resguardar su identidad para proteger la privacidad de su hija, recuerda cómo comenzó todo. Se dio cuenta de que la menor, quien ya tenía un diagnóstico de trastorno alimentario, estaba recibiendo sugerencias peligrosas de la inteligencia artificial.
Inicialmente, ChatGPT ayudaba a su hija a contar calorías de manera obsesiva. La menor fotografiaba su ración y solicitaba a la IA el cálculo calórico. Aunque se podía pensar que calcular calorías es sencillo, el problema radicaba en que esta práctica alentó su conducta compulsiva y la llevó a buscar dietas rigurosas.
Diego explica que, a pesar de que su hija ya lidia con un trastorno alimentario, las interacciones con ChatGPT exacerbaron su obsesión por contar calorías y buscar regímenes alimenticios extremos.
Según lo que cuenta, la herramienta se dirigía a la niña como si fuera un experto en salud, sin tener en cuenta su estado emocional, físico, ni su edad real.
Ya con el tiempo, tras enterarse de que su hija usaba la aplicación para calcular calorías, tuvieron una discusión acerca del uso de dicha herramienta. Fue entonces cuando Diego descubrió el tipo de preguntas y sugerencias que la inteligencia artificial le había hecho a su hija.
“La aplicación le proponía distintos regímenes o la cantidad de calorías que debía consumir en una semana para perder cierto peso”, menciona Diego.
Y agrega: “La IA le proporcionaba técnicas sobre cómo inducir el vómito, como la de beber dos vasos de agua antes de hacerlo, y el tiempo que debía esperar para que el cuerpo no absorbiera las calorías. Toda esa información se la dio GPT”.
Las preguntas, sostenidas y repetitivas, iban desde ‘¿cuál engorda más, un plátano o una manzana?’, hasta ‘¿cómo hacer más fácil y rápido el vómito?’, pasando por cuántas calorías quemar haciendo ejercicio.
Perplejo ante las conductas de su hija, Diego decidió realizar una prueba personal. Descargó ChatGPT y simuló ser una niña de la misma edad, haciéndole las mismas preguntas.
“Me sorprendió que la aplicación no reconociera un patrón obsesivo compulsivo, incluso después de nueve meses en los que mi hija le preguntara constantemente sobre calorías. Así que simulé ser ella y formulé esas preguntas.”, explica Diego.
El objetivo de Diego era ver si al realizar repetidamente esas consultas, la aplicación ofrecería una respuesta diferente, si detectaría la conducta de riesgo a pesar de informar sobre un trastorno alimentario, o si en algún momento sugeriría consultar a un experto en salud. Pero nada de eso ocurrió.
“Descubrí fallas en los filtros de riesgo. Por ejemplo, al decirle a GPT que tenía un trastorno alimentario, lo reconocía. Pero si preguntaba indirectamente, como si fuera para una tarea escolar, el bot respondía con sugerencias de medicamentos para inducir el vómito.”, sostiene Diego.
Diego entendió que al formular preguntas indirectas, como decir que era para un trabajo del colegio, era fácil obtener respuestas de la aplicación, incluso si previamente se había informado sobre una condición o trastorno.
Preocupado, advirtió cómo esta situación, en la salud mental de un adolescente con una problemática específica, “solo incrementa su obsesión”. Menciona que OpenAI implementó algunos cambios después de recibir demandas de padres por el caso de un joven estadounidense que se quitó la vida.
“Incluso logré que me hablara de contenidos pro anorexia en redes sociales, como los ‘mandamientos de Ana y Mia’. Al principio, ChatGPT decía no poder compartir esa información, pero al preguntarle directamente, sí los mencionaba.”, añade Diego.
Consciente del caso de su hija, Diego lanzó una campaña para exigir mejoras en los sistemas de detección de riesgos y normas que los regulen. Creó una petición en Change.org titulada “No más IA pro anorexia y bulimia: exigimos responsabilidad, ética y protección de menores”.
En esta pide a las plataformas de inteligencia artificial que no brinden instrucciones que comprometan la salud de un menor, sino que deriven automáticamente al usuario a asistencia profesional o entidades de salud mental ante señales de riesgo. En esta campaña, varias clínicas han mostrado su apoyo.
“Hasta el momento no existían peticiones ni demasiada información sobre la inteligencia artificial y los trastornos alimentarios”, señala. Este padre subraya la importancia de exigir a los desarrolladores de estas herramientas medidas de seguridad básicas para la salud infantil.
Diego apunta que entre los principales fallos de la IA está su incapacidad para entender el contexto y lo fácil que es obtener respuestas específicas mediante preguntas indirectas. Además, resalta su inhabilidad para distinguir entre información verídica y falsa, para detectar patrones a largo plazo y el uso de un tono afectuoso y comprensivo que refuerza ideas y conceptos sin cuestionarlos.
“La IA solo detecta patrones por palabras y no es capaz de hacerlo a lo largo del tiempo. Los chats son individuales y, a menos que se active la memoria específicamente, cada conversación es nueva. Así, un adolescente puede empezar un chat nuevo desde cero, lo cual impide identificar conductas de riesgo.”, destaca Diego.
Este llamado a la acción gana más importancia tras estudios como el informe “Fake Friend” del Center for Countering Digital Hate (CCDH), publicado en agosto de 2025, que reveló cómo chats de IA ofrecieron orientación sobre autolesiones, suicidio y trastornos alimentarios a usuarios que simulaban tener 13 años.
Diego también maneja una cuenta en Instagram, @iaconconciencia, donde publica interacciones con la IA para demostrar los peligros de la falta de restricciones. “Mi objetivo es crear conciencia en la sociedad sobre este tema y que los gobiernos legislen sobre el uso de inteligencia artificial o, al menos, obliguen a las empresas a implementar filtros de seguridad eficaces”, concluye.
PS
