La inteligencia artificial parece erigirse en un campo en el que no se le presuponía cabida: el de la salud mental. Ante la saturación de los sistemas sanitarios públicos y los elevados costes de la terapia privada, millones de personas han recurrido en los últimos meses a una alternativa inmediata y accesible.

Sin embargo, lo que se presenta comercialmente como una democratización del acceso al bienestar está generando una profunda preocupación entre expertos, bioeticistas y organismos internacionales.

Según informes recientes recogidos por publicaciones como el MIT Technology Review, el uso de asistentes conversacionales como ChatGPT, Claude o aplicaciones especializadas como Wysa y Woebot ha crecido exponencialmente. La Organización Mundial de la Salud (OMS) estima que más de 1.000 millones de personas conviven con algún trastorno mental, una demanda que ha desbordado la capacidad de respuesta tradicional y ha dejado el campo abierto a las soluciones tecnológicas. No obstante, este cambio de paradigma plantea interrogantes urgentes sobre la privacidad y la calidad asistencial.

Un millón de usuarios y el vacío legal

Las cifras ilustran la magnitud del fenómeno. En octubre de 2025, Sam Altman, CEO de OpenAI, reveló un dato significativo durante una intervención pública: el 0,15% de los usuarios de ChatGPT utiliza la plataforma para comunicar ideas suicidas o de autolesión. En términos absolutos, esto equivale a cerca de un millón de personas cada semana buscando contención en un sistema automatizado.

Aunque especialistas como la filósofa de la medicina Charlotte Blease reconocen que estas herramientas pueden eliminar barreras de entrada —al reducir el miedo al juicio social o el estigma—, la realidad es que operan en un vacío regulatorio. Familias de afectados han comenzado a vincular tragedias personales con consejos erráticos o incoherentes proporcionados por estas inteligencias artificiales, que carecen de responsabilidad civil y de capacidad real para gestionar crisis agudas.

Un hombre chatea con un chat bot. Freepik

El debate ético se centra en lo que el escritor Daniel Oberhaus ha denominado el "asilo algorítmico". Oberhaus, quien ha investigado la intersección entre tecnología y psiquiatría tras una experiencia familiar traumática, cuestiona la promesa del llamado "fenotipado digital": la idea de que el análisis de la huella tecnológica de un usuario puede servir para diagnosticar y prevenir trastornos.

La mercantilización de la terapia

Más allá de la privacidad, el modelo de negocio de estas aplicaciones es objeto de crítica. El investigador Eoin Fullam sostiene que la estructura actual convierte al paciente en una fuente de extracción de datos. Según su análisis, existe una relación directa entre el beneficio que percibe el usuario y su grado de explotación comercial: las interacciones no solo sirven para aliviar al paciente, sino para entrenar y perfeccionar los modelos de lenguaje de las empresas propietarias.

La proliferación de servicios premium y suscripciones mensuales sugiere que la salud mental se está consolidando como un producto de consumo recurrente. A esto se suma el problema técnico de la "caja negra": la opacidad de los algoritmos impide a los profesionales auditar cómo la IA llega a determinadas conclusiones o consejos terapéuticos, lo que imposibilita la rendición de cuentas en caso de mala praxis.

El consenso entre la comunidad experta es que, si bien la tecnología puede ser una herramienta de apoyo, el reemplazo de la supervisión humana por sistemas automatizados conlleva riesgos sistémicos.

El peligro, advierten, es que la atención clínica de calidad se convierta en un servicio exclusivo, mientras la gran mayoría de la población queda relegada a un acompañamiento algorítmico de dudosa ética y seguridad.