Imagina que confías ciegamente en una herramienta tecnológica y terminas metiéndote en un lío monumental. Eso es exactamente lo que le ha pasado a Richard Bednar, un abogado de Utah, Estados Unidos. Este letrado pensó que podía presentar un caso sólido ante el tribunal apoyándose en referencias legales generadas por ChatGPT. Pero, como suele ocurrir, la realidad le dio una bofetada.
Cuando la IA no es tu mejor aliada
Según informan desde ABC4, todo comenzó cuando Bednar presentó una apelación para su cliente. En ella incluía supuestas citas de casos anteriores que parecían fortalecer su argumento. Sin embargo, al ser revisadas por la parte contraria, ¡sorpresa! Las referencias simplemente no existían en ningún registro legal oficial. Todo había sido una invención del chatbot de OpenAI.
Parece que el texto fue redactado por un joven ayudante recién licenciado en Derecho, quien se dejó llevar por la facilidad del chatbot sin contrastar nada. Cuando Bednar firmó y presentó el documento como si fuera válido, estaba tirando a la basura su profesionalismo. La falta de verificación se convirtió rápidamente en un problema cuando el tribunal decidió investigar más a fondo.
A pesar de que el juez entendió que no hubo intención de engañar, sí dejó claro que las expectativas hacia los abogados son altas y deben ser cumplidas. Como consecuencia de esta metedura de pata, Bednar tuvo que pagar los honorarios de la parte contraria y devolver a su cliente lo gastado en el recurso. Además, donará 1.000 dólares a una organización legal sin ánimo de lucro.
No lo inhabilitaron ni nada parecido, pero este caso es una clara muestra de cómo incluso las herramientas más avanzadas no pueden sustituir el trabajo humano cuando hay tanto en juego. La inteligencia artificial puede ser útil para muchas cosas; sin embargo, nunca debe reemplazar nuestra responsabilidad y cuidado al manejar información crucial.