La saga de OpenAI continúa, y esta vez la trama se complica. El fiscal general de Florida, James Uthmeier, ha decidido investigar a fondo ChatGPT, poniendo en tela de juicio no solo su manejo de datos, sino también si podría acabar «en manos de los enemigos de EEUU». ¿No es inquietante? La preocupación por la seguridad nacional ya no es un tema menor.
Este nuevo escándalo llega justo cuando la compañía fundada por Sam Altman se prepara para salir a bolsa, un momento clave que podría catapultar su valor hasta un billón de dólares. Pero con estas acusaciones flotando en el aire, ¿quién se atreverá a invertir? Uthmeier no se anda con rodeos y ha afirmado que ChatGPT ha estado vinculado a conductas delictivas como el abuso sexual infantil y hasta incitación al suicidio. En sus propias palabras: «La inteligencia artificial debe impulsar el progreso de la humanidad, no destruirla».
Las sombras del pasado y las preocupaciones del presente
No olvidemos que OpenAI ya había tenido sus más y sus menos con el gobierno estadounidense anteriormente. Recordemos aquel acuerdo firmado durante la administración Trump para ceder tecnología avanzada destinada a gestionar archivos clasificados en la nube. Ahora, con esta nueva investigación, parece que las cosas están tomando un rumbo aún más oscuro.
A lo largo del tiempo hemos visto cómo otros fiscales generales han alzado la voz. Por ejemplo, Rob Bonta, fiscal general de California, y Kathy Jennings, fiscal general de Delaware, enviaron una carta a OpenAI en septiembre pasado expresando su profunda inquietud sobre cómo sus productos interactúan con los niños. La situación está cargada de tensión y cada día se hace más evidente que la responsabilidad recae sobre quienes dirigen estas potentes herramientas tecnológicas.
A medida que avanzan las citaciones judiciales, nos queda una pregunta clara: ¿quién será realmente responsable cuando las cosas salgan mal? Las voces críticas siguen creciendo y los responsables deben rendir cuentas ante una sociedad que exige respuestas claras y transparentes.

