En un giro que ha dejado a muchos boquiabiertos, Meta, la compañía de Mark Zuckerberg, ha decidido sustituir a sus equipos humanos por inteligencia artificial para evaluar los riesgos en sus redes sociales. Cada semana, lanzan nuevas funciones en Facebook, Instagram y WhatsApp buscando hacer nuestra experiencia más fluida y segura. Pero, ¿a qué precio?
¿Adiós a la supervisión humana?
Hasta ahora, había equipos que revisaban manualmente las nuevas funcionalidades, intentando identificar esos peligros ocultos que pueden afectar nuestra privacidad o seguridad. Sin embargo, según documentos internos revelados por NPR, esta tarea pasará en su mayoría a manos de una IA que se encargará del 90% de esas evaluaciones. Un cambio radical que promete acelerar el lanzamiento de nuevos productos.
No obstante, este avance trae consigo una sombra de preocupación. La automatización significa que ya no será necesario el visto bueno de los revisores humanos antes de lanzar cualquier novedad. Y esto nos hace preguntarnos: ¿realmente podemos confiar en que una máquina entienda las complejidades del impacto humano? Empleados actuales y antiguos han expresado su inquietud ante la posibilidad de que decisiones críticas caigan en manos de algoritmos sin alma.
Aún más alarmante es saber que esta IA también tendrá voz y voto sobre asuntos tan delicados como el contenido violento o la desinformación. Mientras Meta asegura que solo se están automatizando decisiones menores, los críticos advierten sobre un posible descenso en la calidad del escrutinio y un aumento de efectos nocivos dentro del ecosistema digital.
Poco tiempo atrás, Meta optó por prescindir de verificadores externos para moderar su contenido. Desde entonces han reconocido un incremento preocupante del contenido violento y comportamientos tóxicos en Facebook. Es evidente que este nuevo camino hacia la automatización vuelve a abrir ese viejo debate entre innovación rápida y responsabilidad social.