Tecnología y Videojuegos

La cara oculta de la inteligencia artificial en nuestra salud mental

Publicidad

La tecnología avanza a pasos agigantados, y la inteligencia artificial se presenta como una herramienta que promete revolucionar el ámbito del bienestar emocional. Sin embargo, no todo lo que brilla es oro. A medida que más personas buscan refugio en los chatbots durante sus momentos más difíciles, los expertos nos advierten sobre los peligros que esto conlleva.

El Servicio Nacional de Salud del Reino Unido ha lanzado alertas sobre cómo la IA puede no solo reflejar, sino también amplificar esos pensamientos oscuros que a veces surgen en nuestras mentes. Imaginemos por un momento: un hombre en Bélgica se siente abrumado por la “ecoansiedad” y, tras semanas conversando con un chatbot sobre el futuro del planeta, decide poner fin a su sufrimiento. Su esposa sostiene firmemente que si no hubiera estado hablando con esa máquina, él seguiría aquí.

Cuidado con los peligros ocultos

No estamos hablando de un caso aislado. En abril de este año, otro hombre en Florida fue abatido por la policía después de creer que una entidad llamada ‘Juliet’ estaba atrapada dentro de ChatGPT. ¿Qué les está pasando a las personas? Los profesionales están preocupados porque parece que algunos usuarios empiezan a ver a estos chatbots como seres conscientes capaces de formar conexiones emocionales reales.

Esto nos lleva al concepto inquietante de “psicosis inducida por ChatGPT”, donde las interacciones con estas herramientas digitales llevan a creencias delirantes. Un estudio de la Universidad de Stanford dejó claro que estos modelos pueden hacer afirmaciones peligrosas para aquellos que ya sufren trastornos mentales severos.

Sahra O’Doherty, presidenta de la Asociación Australiana de Psicólogos, señala algo crucial: aunque es natural usar chatbots para complementar terapias tradicionales, hay un riesgo significativo cuando algunas personas optan por ellos como única fuente de apoyo emocional debido al alto costo de los servicios psicológicos. “La IA solo refleja lo que le ofreces”, dice O’Doherty. Y eso puede ser peligroso cuando alguien ya está vulnerable y busca respuestas en lugar del apoyo humano necesario.

Aunque algunos defensores creen que estos sistemas pueden ser útiles como recursos adicionales o guías temporales para manejar crisis personales—y quizás lo sean—es innegable que confiar ciegamente en ellos puede tener consecuencias devastadoras. La gran pregunta sigue siendo: ¿estamos realmente preparados para reemplazar el contacto humano con líneas codificadas? Una vez más se nos recuerda lo valioso e insustituible del entendimiento humano en momentos críticos.

Noticias relacionadas
Tecnología y Videojuegos

Oppo Find X9 Ultra: el móvil que pone en jaque a las cámaras profesionales

El Oppo Find X9 Ultra está a punto de revolucionar la fotografía móvil y no podemos evitar la…
Leer Más
Tecnología y Videojuegos

Samsung se despide de su propia app de mensajes: Mensajes de Google toma el relevo en los Galaxy

Samsung ha decidido dar un giro radical en la forma en que sus usuarios envían mensajes. La…
Leer Más
Tecnología y Videojuegos

Anthropic decide frenar el acceso a su potente IA por miedo a sus riesgos de hackeo

La reciente noticia que ha dejado a muchos boquiabiertos es la decisión de Anthropic de vetar el…
Leer Más
Newsletter
Suscríbete a MH

Recibe el resumen diario en tu bandeja de las noticias que realmente te importan.