Hablemos claro: ¿cuántas veces has querido charlar con ChatGPT sobre algo que sabía que no podía? Esa sensación de frustración al ver un mensaje que te frena, diciendo que estás violando las reglas, es algo que muchos hemos experimentado. Pero atención, porque en una reciente publicación en la red social X, Laurentia Romaniuk, parte del equipo de OpenAI, ha revelado que ya no habrá más esas advertencias incómodas.
Un cambio que sorprende y despierta opiniones
Esta decisión tiene como objetivo “reducir las negociaciones gratuitas e inexplicables”, según comenta Romaniuk. Y aquí entra Nick Turley, el jefe de producto de ChatGPT, quien añade que ahora los usuarios podrán “usar la herramienta como mejor les parezca”, siempre y cuando no infrinjan la ley ni causen daño a otros. Sin embargo, cuidado: esto no significa libertad total. La inteligencia artificial aún se negará a responder preguntas objetables.
A pesar de ello, muchos usuarios están emocionados con este cambio. ¿La razón? Pueden expresar pensamientos y opiniones sin miedo siempre y cuando no sean ilegales ni dañinas. Es como si se abrieran las puertas a una conversación más honesta.
No obstante, no todo es tan sencillo en el mundo de OpenAI. También han dado otro paso polémico: eliminaron su página sobre diversidad y equidad. Antes hablaban de su compromiso para crear un entorno inclusivo; ahora su nuevo enfoque resalta que las mejores ideas surgen del debate entre diferentes perspectivas.
Este giro ha dejado muchas preguntas en el aire y hasta ahora OpenAI no ha querido dar explicaciones claras al respecto. En un contexto donde otros gigantes como Google también reestructuran sus políticas éticas hacia la IA, parece que todos buscan redefinir su papel en esta nueva era tecnológica.