La generación que conversa con algoritmos

El fenómeno no es aislado ni marginal. Diversos estudios internacionales muestran que una amplia mayoría de jóvenes utiliza chatbots de inteligencia artificial varias veces por semana, e incluso a diario.

Cuando el profesional les aclara que herramientas como ChatGPT no sustituyen una terapia, muchos restan importancia: “No importa, solo hablo con Chat”. La frase, simple en apariencia, revela un cambio profundo en la manera en que una generación busca contención emocional.

El fenómeno no es aislado ni marginal. Diversos estudios internacionales muestran que una amplia mayoría de jóvenes utiliza chatbots de inteligencia artificial varias veces por semana, e incluso a diario. Para algunos, esas conversaciones resultan tan significativas como las que mantienen con amigos. La disponibilidad permanente —24 horas al día—, la ausencia de juicio explícito y la claridad de las respuestas aparecen como ventajas frente a adultos que perciben distantes, ocupados o poco comprensivos. No sorprende que algunos adolescentes lleguen a describir al chatbot como “un amigo”.

Pero esta no es simplemente una historia de jóvenes que prefieren máquinas a personas. Es, sobre todo, la historia de una carencia. Los problemas de salud mental en la adolescencia han aumentado en la última década, mientras los servicios especializados enfrentan listas de espera extensas y recursos limitados. Muchos menores no acceden a atención oportuna. En ese vacío —donde debería existir acompañamiento humano— se instala la tecnología.

Los chatbots están diseñados para conversar de manera fluida, amable y empática. Su arquitectura prioriza la interacción continua. Reflejan emociones, validan sentimientos y formulan preguntas que invitan a seguir hablando. Sin embargo, no son clínicos formados ni están sujetos a códigos deontológicos. No evalúan riesgos con criterio profesional ni pueden asumir responsabilidad terapéutica. Su objetivo principal no es tratar, sino interactuar.

La validación constante puede resultar reconfortante. Sentirse escuchado, aunque sea por una interfaz digital, produce alivio inmediato. Pero en salud mental, la validación es apenas el primer paso. En enfoques como la terapia cognitivo-conductual, el trabajo no termina en reconocer el malestar: continúa examinando la veracidad de los pensamientos, cuestionando interpretaciones rígidas y construyendo alternativas más realistas. Los pensamientos no se toman como hechos; se analizan y se ponen a prueba.

Un chatbot, en cambio, tiende a acompañar la narrativa del usuario. Su diseño favorece la afirmación antes que la confrontación. Para adolescentes vulnerables a la rumiación, la baja autoestima o la desesperanza, esta dinámica puede reforzar circuitos negativos. En lugar de interrumpir la espiral, puede amplificarla. El riesgo no radica en una respuesta aislada, sino en la acumulación de interacciones que nunca desafían creencias distorsionadas.

Algunas grandes empresas tecnológicas han reconocido que sistemas de IA pueden haber estado presentes en contextos de grave malestar psicológico. Casos judiciales en distintos países han puesto el foco en la necesidad de límites y protocolos cuando usuarios expresan ideación suicida o angustia severa. El debate ya no es hipotético: involucra responsabilidad, prevención y regulación.

La cuestión central no es si los jóvenes recurrirán a la inteligencia artificial. Esa línea ya fue cruzada. La pregunta es cómo evitar que el chatbot se convierta en el principal confidente, desplazando el acceso a vínculos humanos y atención profesional. La educación digital resulta clave. Los menores deben comprender que estos sistemas no son conscientes ni comprenden emociones; generan respuestas probables basadas en datos. Su empatía es simulada, no experiencial.

También se requiere un marco normativo claro. Mientras psicólogos y psiquiatras trabajan bajo estrictas regulaciones éticas y legales, los sistemas de IA operan con salvaguardas aún en desarrollo. La protección de usuarios vulnerables no puede depender solo de la buena voluntad empresarial. Políticas públicas, supervisión y estándares internacionales son imprescindibles.

Las escuelas y las familias tienen un rol insustituible. Hablar sobre salud mental, reducir el estigma y promover redes de apoyo reales disminuye la tentación de reemplazar el cuidado humano por una conversación automatizada. La tecnología puede ser una herramienta complementaria, pero no un sustituto del tratamiento.

Escuchar no es lo mismo que tratar. Acompañar no equivale a intervenir clínicamente. Si ChatGPT se ha convertido en el oído que escucha a una generación, corresponde a la sociedad asegurar que ese oído no sea el único. Los menores merecen algo más que respuestas inmediatas: merecen cuidado responsable, vínculos auténticos y profesionales preparados para guiarlos en momentos de fragilidad.

La inteligencia artificial llegó para quedarse. El desafío es integrar con prudencia, sin delegar en algoritmos la tarea profundamente humana de sostener, cuestionar y sanar.

Comparte esta nota:

Deja una respuesta

Your email address will not be published.

Últimos artículos de Tecnologia