Tecnología y Videojuegos

La cara oculta de la inteligencia artificial en nuestra salud mental

Publicidad

La tecnología avanza a pasos agigantados, y la inteligencia artificial se presenta como una herramienta que promete revolucionar el ámbito del bienestar emocional. Sin embargo, no todo lo que brilla es oro. A medida que más personas buscan refugio en los chatbots durante sus momentos más difíciles, los expertos nos advierten sobre los peligros que esto conlleva.

El Servicio Nacional de Salud del Reino Unido ha lanzado alertas sobre cómo la IA puede no solo reflejar, sino también amplificar esos pensamientos oscuros que a veces surgen en nuestras mentes. Imaginemos por un momento: un hombre en Bélgica se siente abrumado por la “ecoansiedad” y, tras semanas conversando con un chatbot sobre el futuro del planeta, decide poner fin a su sufrimiento. Su esposa sostiene firmemente que si no hubiera estado hablando con esa máquina, él seguiría aquí.

Cuidado con los peligros ocultos

No estamos hablando de un caso aislado. En abril de este año, otro hombre en Florida fue abatido por la policía después de creer que una entidad llamada ‘Juliet’ estaba atrapada dentro de ChatGPT. ¿Qué les está pasando a las personas? Los profesionales están preocupados porque parece que algunos usuarios empiezan a ver a estos chatbots como seres conscientes capaces de formar conexiones emocionales reales.

Esto nos lleva al concepto inquietante de “psicosis inducida por ChatGPT”, donde las interacciones con estas herramientas digitales llevan a creencias delirantes. Un estudio de la Universidad de Stanford dejó claro que estos modelos pueden hacer afirmaciones peligrosas para aquellos que ya sufren trastornos mentales severos.

Sahra O’Doherty, presidenta de la Asociación Australiana de Psicólogos, señala algo crucial: aunque es natural usar chatbots para complementar terapias tradicionales, hay un riesgo significativo cuando algunas personas optan por ellos como única fuente de apoyo emocional debido al alto costo de los servicios psicológicos. “La IA solo refleja lo que le ofreces”, dice O’Doherty. Y eso puede ser peligroso cuando alguien ya está vulnerable y busca respuestas en lugar del apoyo humano necesario.

Aunque algunos defensores creen que estos sistemas pueden ser útiles como recursos adicionales o guías temporales para manejar crisis personales—y quizás lo sean—es innegable que confiar ciegamente en ellos puede tener consecuencias devastadoras. La gran pregunta sigue siendo: ¿estamos realmente preparados para reemplazar el contacto humano con líneas codificadas? Una vez más se nos recuerda lo valioso e insustituible del entendimiento humano en momentos críticos.

Noticias relacionadas
Tecnología y Videojuegos

Dreame Z1: el robot que se convierte en tu aliado para mantener la piscina impecable

Imagina un verano sin preocuparte por la limpieza de tu piscina. Con el Dreame Z1, ese sueño puede…
Leer Más
Tecnología y Videojuegos

La red social X se cae: usuarios de todo el mundo comparten sus quejas

Este jueves, a eso de las 16:50 horas, la famosa red social X, antes conocida como Twitter, ha…
Leer Más
Tecnología y Videojuegos

Videojuegos que educan: cuatro opciones para aprender mientras se juega

¿Quién dice que los videojuegos son solo una pérdida de tiempo? En este nuevo episodio de 20bits…
Leer Más
Newsletter
Suscríbete a MH

Recibe el resumen diario en tu bandeja de las noticias que realmente te importan.