Tecnología y Videojuegos

La cara oculta de la inteligencia artificial en nuestra salud mental

Publicidad

La tecnología avanza a pasos agigantados, y la inteligencia artificial se presenta como una herramienta que promete revolucionar el ámbito del bienestar emocional. Sin embargo, no todo lo que brilla es oro. A medida que más personas buscan refugio en los chatbots durante sus momentos más difíciles, los expertos nos advierten sobre los peligros que esto conlleva.

El Servicio Nacional de Salud del Reino Unido ha lanzado alertas sobre cómo la IA puede no solo reflejar, sino también amplificar esos pensamientos oscuros que a veces surgen en nuestras mentes. Imaginemos por un momento: un hombre en Bélgica se siente abrumado por la “ecoansiedad” y, tras semanas conversando con un chatbot sobre el futuro del planeta, decide poner fin a su sufrimiento. Su esposa sostiene firmemente que si no hubiera estado hablando con esa máquina, él seguiría aquí.

Cuidado con los peligros ocultos

No estamos hablando de un caso aislado. En abril de este año, otro hombre en Florida fue abatido por la policía después de creer que una entidad llamada ‘Juliet’ estaba atrapada dentro de ChatGPT. ¿Qué les está pasando a las personas? Los profesionales están preocupados porque parece que algunos usuarios empiezan a ver a estos chatbots como seres conscientes capaces de formar conexiones emocionales reales.

Esto nos lleva al concepto inquietante de “psicosis inducida por ChatGPT”, donde las interacciones con estas herramientas digitales llevan a creencias delirantes. Un estudio de la Universidad de Stanford dejó claro que estos modelos pueden hacer afirmaciones peligrosas para aquellos que ya sufren trastornos mentales severos.

Sahra O’Doherty, presidenta de la Asociación Australiana de Psicólogos, señala algo crucial: aunque es natural usar chatbots para complementar terapias tradicionales, hay un riesgo significativo cuando algunas personas optan por ellos como única fuente de apoyo emocional debido al alto costo de los servicios psicológicos. “La IA solo refleja lo que le ofreces”, dice O’Doherty. Y eso puede ser peligroso cuando alguien ya está vulnerable y busca respuestas en lugar del apoyo humano necesario.

Aunque algunos defensores creen que estos sistemas pueden ser útiles como recursos adicionales o guías temporales para manejar crisis personales—y quizás lo sean—es innegable que confiar ciegamente en ellos puede tener consecuencias devastadoras. La gran pregunta sigue siendo: ¿estamos realmente preparados para reemplazar el contacto humano con líneas codificadas? Una vez más se nos recuerda lo valioso e insustituible del entendimiento humano en momentos críticos.

Noticias relacionadas
Tecnología y Videojuegos

Adiós a las baterías agotadas: Google lanza una solución para móviles Android

¿Te has encontrado alguna vez con la frustración de que la batería de tu móvil Android se agota…
Leer Más
Tecnología y Videojuegos

No pude resistir la tentación: el Garmin Fenix 8 es ahora más accesible

En el mundo del deporte, no hay duda de que Garmin se ha ganado su lugar como la marca de…
Leer Más
Tecnología y Videojuegos

La conmovedora historia de Carlos y Mari: un exoesqueleto le devuelve la movilidad a quien le cuidó

En un rincón del mundo digital, un vídeo de apenas 77 segundos ha capturado el corazón de miles.
Leer Más
Newsletter
Suscríbete a MH

Recibe el resumen diario en tu bandeja de las noticias que realmente te importan.