La trágica muerte de Charlie Kirk, un conocido activista conservador, ha sacudido a la comunidad estadounidense. Fue el pasado 10 de septiembre, en la universidad Utah Valley, donde recibió un disparo mortal en el cuello durante un debate sobre la violencia armada. Justo ahí, rodeado de estudiantes y bajo la atenta mirada del público, su voz se apagó de forma abrupta.
Desde entonces, el FBI ha estado trabajando a marchas forzadas para dar con el responsable. En medio de esta investigación, el expresidente Donald Trump no tardó en anunciar que ya habían detenido a un sospechoso, asegurando: «Lo tenemos». Sin embargo, lo que ha captado aún más atención es cómo la inteligencia artificial está siendo utilizada de forma errónea para tratar de identificar al atacante.
Desinformación y caos digital
El servicio nacional de inteligencia lanzó un vídeo del momento en que el atacante huía y proporcionó imágenes borrosas del presunto culpable pidiendo ayuda ciudadana para dar con él. Pero aquí es donde la situación se complica: algunos internautas han decidido usar IA para modificar estas fotos o incluso crear nuevas imágenes ficticias del sospechoso. El resultado ha sido una serie de identidades confusas e inexactas que no hacen más que añadir ruido a una situación ya tensa.
A pesar de que muchas publicaciones han sido eliminadas por ser engañosas, otras siguen circulando en redes sociales como X (anteriormente Twitter). Los usuarios advierten sobre las alteraciones hechas por IA; sin embargo, esto plantea una cuestión crítica: ¿cómo podemos confiar en lo que vemos? Al final del día, estos cambios pueden distorsionar completamente los rasgos físicos del sospechoso original.
Las malas prácticas en el uso de inteligencia artificial están creando una ola de desinformación peligrosa y cuestionando su uso apropiado. La verdad es que este tipo de tecnología debería ser usada con responsabilidad, pero parece que algunos prefieren tirar a la basura la credibilidad por unos pocos clicks y likes.