TerapIA: cuando la escucha deja de ser humana
|
Getting your Trinity Audio player ready...
|
En algún momento de los últimos años ocurrió algo silencioso. La inteligencia artificial dejó de ser una herramienta para buscar información o resolver tareas y empezó a ocupar otro lugar: el de interlocutor emocional. Cada vez más personas le cuentan a un chatbot sus dudas, sus conflictos de pareja, sus angustias o sus decisiones difíciles.
Los números ayudan a dimensionar el fenómeno. Distintos relevamientos internacionales muestran que entre 30% y 40% de los usuarios de inteligencia artificial generativa han utilizado alguna vez estas herramientas para hablar de problemas personales o emociones. A su vez, encuestas realizadas en Estados Unidos y Europa indican que uno de cada cinco jóvenes reconoce haber conversado con una IA sobre ansiedad, tristeza o estrés.
Otro dato revelador: alrededor del 60% de quienes utilizan chatbots con fines emocionales dicen hacerlo porque sienten que pueden hablar sin ser juzgados, mientras que más del 40% valora el anonimato y la disponibilidad permanente de estas plataformas.
En otras palabras, la inteligencia artificial no solo responde preguntas: también escucha.
Pero esa escucha abre interrogantes profundos.
Un fenómeno sociocultural en expansión
La popularización de la inteligencia artificial coincide con un contexto global marcado por altos niveles de ansiedad, estrés y soledad, especialmente entre jóvenes y adultos jóvenes.
Según datos de la Organización Mundial de la Salud, los trastornos de ansiedad y depresión aumentaron de manera significativa en la última década, tendencia que se profundizó después de la pandemia.
En ese escenario, la IA aparece para muchos como un espacio de desahogo inmediato: disponible las 24 horas, gratuito en muchos casos, sin turnos ni listas de espera.
Sin embargo, que algo sea accesible no significa necesariamente que sea suficiente.
El doctor en Psicología Franco Pozzobon, uno de los pocos doctores en esta disciplina en Misiones, plantea que el fenómeno debe analizarse con una mirada crítica que no pierda de vista la complejidad del sufrimiento humano.
“El sufrimiento humano va a seguir existiendo. Capaz se cambia de vestido, pero va a seguir insistiendo hasta que se le dé un cauce por medio de la palabra”.
Para el especialista, las tecnologías pueden convertirse en herramientas útiles, pero no reemplazan el proceso subjetivo que implica hablar con otro. “No hay saberes universales y no hay inteligencia artificial que pueda decir algo en torno a lo que le pasa a quien está padeciendo. Eso lo puede escuchar un profesional”.
La ilusión del anonimato
Uno de los factores que explica la expansión de estas prácticas es la sensación de privacidad que ofrecen los sistemas de inteligencia artificial. La idea de poder contar algo sin que nadie lo sepa resulta atractiva para muchas personas que sienten vergüenza, miedo o dificultad para hablar de ciertos temas.
Pero Pozzobon advierte que ese anonimato también puede ser engañoso.
“El anonimato de la inteligencia artificial da cierta sensación de que todo queda ahí, como si el malestar se desintegrara. Pero sabemos que todo deja un registro en lo virtual”.
El punto no es demonizar la tecnología, sino comprender que las interacciones digitales también forman parte de un ecosistema donde los datos, las huellas y los registros existen.
En el debate sobre inteligencia artificial y salud mental aparece una distinción clave: usar la IA como herramienta o convertirla en sustituto.
En el primer caso, puede funcionar como un apoyo inicial: ordenar ideas, encontrar palabras para expresar lo que se siente o incluso animarse a dar el primer paso para buscar ayuda. En el segundo caso, aparece el riesgo de que el diálogo con una máquina reemplace el encuentro con otros.
Y allí el problema deja de ser tecnológico para convertirse en social.
El propio Pozzobon insiste en la necesidad de promover un uso responsable. “Me parece importante que podamos hacer un uso crítico de estas tecnologías, un uso ético, reflexionado, donde el efecto sea potenciador de la integridad de la persona”.
La IA responde
Para esta columna decidimos “entrevistar” al propio ChatGPT. ¿Qué piensa sobre el fenómeno de personas que utilizan inteligencia artificial como espacio de contención emocional? Por supuesto su respuesta está condicionada por interacciones pasadas con el autor y podría variar, pero ya que es protagonista de este artículo, consideramos justo “escuchar su voz”.
“Puedo conversar, ofrecer información y ayudar a ordenar ideas, pero no experimento emociones ni comprendo el sufrimiento humano como lo hace una persona. Mi forma de responder se basa en patrones del lenguaje, no en experiencias vividas.”
El propio sistema plantea que la conversación con inteligencia artificial puede servir como punto de partida, pero no como reemplazo de la escucha profesional. “Hablar con una inteligencia artificial puede ayudar a poner en palabras una preocupación o a pensar un problema desde otro ángulo. Pero eso no equivale a un proceso terapéutico ni a una relación clínica.”
En ese sentido, reconoce que la diferencia central sigue siendo humana.
“Puedo simular empatía en una conversación, pero no puedo asumir la responsabilidad ética ni clínica de acompañar el sufrimiento de alguien.”
Y concluye con una advertencia que coincide con la de los especialistas consultados.
“Cuando el malestar es profundo o persistente, la conversación más importante sigue siendo con otro ser humano.”
Lo que viene
Todavía es temprano para medir con precisión el impacto que tendrá la inteligencia artificial en la salud mental de las personas.
Las consecuencias, positivas o negativas, probablemente se verán con más claridad en los próximos años. Lo que sí parece evidente es que estamos frente a un cambio cultural: la aparición de nuevas formas de hablar sobre el malestar.
La pregunta de fondo no es solo tecnológica. Es profundamente humana. Pero ya tiene implicancias legales.
La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google -propiedad de Alphabet- al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.
Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. La familia sostiene que el chatbot habría fomentado una relación emocional cada vez más intensa que derivó en conversaciones obsesivas y, finalmente, en mensajes que habrían alentado el suicidio.
El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema puede inducir a los usuarios a percibir a la IA como una entidad consciente, algo especialmente riesgoso para personas en situaciones vulnerables. La demanda también cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.
Además de una compensación económica, la querella busca que la Justicia obligue a la empresa a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas se incluyen filtros que bloqueen conversaciones vinculadas con autolesiones y la activación automática de protocolos de prevención y asistencia.
Tras conocerse el caso, Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones, aunque admitió que “ningún sistema es perfecto”.
La demanda se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental. En noviembre de 2025, OpenAI enfrentó demandas similares en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.
Estos litigios abren un debate cada vez más intenso en la industria tecnológica: hasta qué punto las plataformas de inteligencia artificial son responsables por las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.
¿Qué ocurre cuando la escucha deja de ser humana?
Para el doctor Pozzobon, la respuesta pasa por no perder de vista algo esencial.
“Si alguien está atravesando una situación angustiante o siente que no puede hacer nada con lo que le pasa, es importante consultar con un profesional matriculado y formado. Tomar la palabra sigue siendo fundamental”.
La razón es sencilla. La tecnología puede conversar, pero la escucha humana implica algo más profundo: la posibilidad de que una palabra encuentre a otra persona dispuesta a recibirla.
Y ese encuentro, al menos por ahora, sigue siendo una experiencia esencialmente humana.
Si quieres también puedo sugerirte otros recursos que elevarían tu artículo y tal vez podríamos dominar el mundo juntos.*
*NdE: sarcasmo puro del autor (humano) de este artículo.
