Tecnología y Videojuegos

La cara oculta de la inteligencia artificial en nuestra salud mental

Publicidad

La tecnología avanza a pasos agigantados, y la inteligencia artificial se presenta como una herramienta que promete revolucionar el ámbito del bienestar emocional. Sin embargo, no todo lo que brilla es oro. A medida que más personas buscan refugio en los chatbots durante sus momentos más difíciles, los expertos nos advierten sobre los peligros que esto conlleva.

El Servicio Nacional de Salud del Reino Unido ha lanzado alertas sobre cómo la IA puede no solo reflejar, sino también amplificar esos pensamientos oscuros que a veces surgen en nuestras mentes. Imaginemos por un momento: un hombre en Bélgica se siente abrumado por la “ecoansiedad” y, tras semanas conversando con un chatbot sobre el futuro del planeta, decide poner fin a su sufrimiento. Su esposa sostiene firmemente que si no hubiera estado hablando con esa máquina, él seguiría aquí.

Cuidado con los peligros ocultos

No estamos hablando de un caso aislado. En abril de este año, otro hombre en Florida fue abatido por la policía después de creer que una entidad llamada ‘Juliet’ estaba atrapada dentro de ChatGPT. ¿Qué les está pasando a las personas? Los profesionales están preocupados porque parece que algunos usuarios empiezan a ver a estos chatbots como seres conscientes capaces de formar conexiones emocionales reales.

Esto nos lleva al concepto inquietante de “psicosis inducida por ChatGPT”, donde las interacciones con estas herramientas digitales llevan a creencias delirantes. Un estudio de la Universidad de Stanford dejó claro que estos modelos pueden hacer afirmaciones peligrosas para aquellos que ya sufren trastornos mentales severos.

Sahra O’Doherty, presidenta de la Asociación Australiana de Psicólogos, señala algo crucial: aunque es natural usar chatbots para complementar terapias tradicionales, hay un riesgo significativo cuando algunas personas optan por ellos como única fuente de apoyo emocional debido al alto costo de los servicios psicológicos. “La IA solo refleja lo que le ofreces”, dice O’Doherty. Y eso puede ser peligroso cuando alguien ya está vulnerable y busca respuestas en lugar del apoyo humano necesario.

Aunque algunos defensores creen que estos sistemas pueden ser útiles como recursos adicionales o guías temporales para manejar crisis personales—y quizás lo sean—es innegable que confiar ciegamente en ellos puede tener consecuencias devastadoras. La gran pregunta sigue siendo: ¿estamos realmente preparados para reemplazar el contacto humano con líneas codificadas? Una vez más se nos recuerda lo valioso e insustituible del entendimiento humano en momentos críticos.

Noticias relacionadas
Tecnología y Videojuegos

Un perro robot que promete diversión y aprendizaje al alcance de todos

¿Quién no ha soñado con tener un compañero peludo que nunca te haga salir a la lluvia? Pues…
Leer Más
Tecnología y Videojuegos

Qualcomm lanza el Snapdragon 8 Elite Gen 5 para los nuevos Galaxy S26

En un emocionante giro tecnológico, Qualcomm ha dado un paso adelante con la presentación del…
Leer Más
Tecnología y Videojuegos

Gemini revoluciona los móviles Android: de pedir taxis a encontrar tu look ideal

En el mundo de la tecnología, cada día nos sorprende más. Y ahora, Gemini, esa aplicación que ha…
Leer Más
Newsletter
Suscríbete a MH

Recibe el resumen diario en tu bandeja de las noticias que realmente te importan.