Google ha llevado a cabo una importante actualización en su guía ética relativa al uso de la inteligencia artificial (IA), orientando sus principios hacia un enfoque más flexible. Tradicionalmente, la compañía de Mountain View había establecido un compromiso de no utilizar esta tecnología en aplicaciones de vigilancia o armamento que pudieran infringir normas internacionales o vulnerar derechos humanos.
Eliminación del compromiso anterior
Con la reciente revisión, Google ha eliminado la categoría que abordaba las ‘Aplicaciones de la inteligencia artificial que no vamos a abordar’, que abarcaba la promesa de no diseñar ni implementar herramientas de IA para fines bélicos o de vigilancia. Anteriormente, estos principios abarcaban un enfoque en evitar tecnologías que causaran o pudieran causar algún tipo de daño.
A pesar de que la compañía ha actualizado sus directrices, no ha hecho un anuncio oficial sobre la remoción de este compromiso, lo que ha generado preocupación entre los defensores de los derechos humanos y la ética en tecnología.
Los nuevos lineamientos de Google reflejan un cambio de visión, donde la empresa sugiere que “las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad y el respeto por los derechos humanos”. En este sentido, buscan promover la colaboración entre empresas, gobiernos y organizaciones alineadas con estos valores.
A pesar de la eliminación de ciertas restricciones, Google asegura que seguirá esforzándose por mitigar resultados no deseados y prevenir sesgos injustos en sus aplicaciones de IA. Además, se ha comprometido a que la tecnología que desarrolle se utilice de acuerdo a los “principios ampliamente aceptados del derecho internacional y los derechos humanos”.
Todo esto forma parte de una estrategia más amplia de Google para posicionarse como líder en la ética de la inteligencia artificial, aunque el cambio en sus políticas ha suscitado un debate sobre las implicaciones para el futuro del desarrollo tecnológico en entornos sensibles como el militar y la vigilancia.