Imagina que estás buscando información médica crucial y te topas con datos erróneos. Eso es justo lo que ha sucedido con Google y su función AI Overviews, que se suponía debía ofrecer resúmenes claros de resultados en el buscador. Sin embargo, un reciente informe de The Guardian ha sacado a la luz que este sistema está dando recomendaciones médicas equivocadas en temas delicados.
Las llamadas ‘alucinaciones’ de la inteligencia artificial han dejado de ser meros errores anecdóticos para convertirse en un asunto serio que afecta a la salud de los usuarios. A medida que las críticas llueven, Google ha decidido retirar algunas de estas respuestas fallidas. Pero, ¿es suficiente?
Cuidado con lo que buscas: ejemplos alarmantes
La investigación reveló situaciones inquietantes. Por ejemplo, cuando alguien pregunta sobre los rangos normales para pruebas hepáticas, el sistema ofrece cifras erróneas, algo que podría llevar a un paciente a pensar que todo está bien cuando, en realidad, no es así. Imagina renunciar a una cita médica porque crees que tu resultado es normal; eso puede retrasar diagnósticos importantes.
Aún más preocupante son las recomendaciones dietéticas relacionadas con el cáncer de páncreas. La IA sugirió evitar alimentos grasos cuando, según expertos médicos consultados por el medio británico, lo correcto sería hacer todo lo contrario para mantener una buena nutrición durante el tratamiento.
No nos olvidemos del impacto sobre las pruebas de detección del cáncer en mujeres; aquí hay un riesgo enorme al minimizar síntomas reales y retrasar visitas al médico. La salud no es un juego y menos aún un terreno donde podamos permitirnos errores.
A pesar del revuelo causado por estos hallazgos y la respuesta tímida de Google al eliminar algunos resultados cuestionables —especialmente aquellos relacionados con pruebas hepáticas— parece claro que aún queda mucho por hacer. La compañía sostiene que sus AI Overviews son útiles e informativas, pero después de lo ocurrido surge una pregunta crítica: ¿podemos confiar realmente en una máquina para decisiones tan vitales?
El camino hacia la automatización en la búsqueda médica está lleno de obstáculos. Las alucinaciones pueden ser inofensivas si hablamos de trivialidades como deportes o recetas, pero se vuelven letales cuando están en juego nuestra salud y bienestar.

