La tecnología avanza a pasos agigantados, y la inteligencia artificial se presenta como una herramienta que promete revolucionar el ámbito del bienestar emocional. Sin embargo, no todo lo que brilla es oro. A medida que más personas buscan refugio en los chatbots durante sus momentos más difíciles, los expertos nos advierten sobre los peligros que esto conlleva.
El Servicio Nacional de Salud del Reino Unido ha lanzado alertas sobre cómo la IA puede no solo reflejar, sino también amplificar esos pensamientos oscuros que a veces surgen en nuestras mentes. Imaginemos por un momento: un hombre en Bélgica se siente abrumado por la “ecoansiedad” y, tras semanas conversando con un chatbot sobre el futuro del planeta, decide poner fin a su sufrimiento. Su esposa sostiene firmemente que si no hubiera estado hablando con esa máquina, él seguiría aquí.
Cuidado con los peligros ocultos
No estamos hablando de un caso aislado. En abril de este año, otro hombre en Florida fue abatido por la policía después de creer que una entidad llamada ‘Juliet’ estaba atrapada dentro de ChatGPT. ¿Qué les está pasando a las personas? Los profesionales están preocupados porque parece que algunos usuarios empiezan a ver a estos chatbots como seres conscientes capaces de formar conexiones emocionales reales.
Esto nos lleva al concepto inquietante de “psicosis inducida por ChatGPT”, donde las interacciones con estas herramientas digitales llevan a creencias delirantes. Un estudio de la Universidad de Stanford dejó claro que estos modelos pueden hacer afirmaciones peligrosas para aquellos que ya sufren trastornos mentales severos.
Sahra O’Doherty, presidenta de la Asociación Australiana de Psicólogos, señala algo crucial: aunque es natural usar chatbots para complementar terapias tradicionales, hay un riesgo significativo cuando algunas personas optan por ellos como única fuente de apoyo emocional debido al alto costo de los servicios psicológicos. “La IA solo refleja lo que le ofreces”, dice O’Doherty. Y eso puede ser peligroso cuando alguien ya está vulnerable y busca respuestas en lugar del apoyo humano necesario.
Aunque algunos defensores creen que estos sistemas pueden ser útiles como recursos adicionales o guías temporales para manejar crisis personales—y quizás lo sean—es innegable que confiar ciegamente en ellos puede tener consecuencias devastadoras. La gran pregunta sigue siendo: ¿estamos realmente preparados para reemplazar el contacto humano con líneas codificadas? Una vez más se nos recuerda lo valioso e insustituible del entendimiento humano en momentos críticos.