Jueves 18 de julio de 2024
Internacionales

Sancionarán a abogado por utilizar ChatGPT para redactar documento legal con precedentes ficticios

Un abogado de Estados Unidos, identificado como Steven Schwartz, podría enfrentar sanciones tras utilizar ChatGPT, una aplicación de inteligencia artificial,…

Sancionarán a abogado por utilizar ChatGPT para redactar documento legal con precedentes ficticios
Facebook Twitter Whatsapp Telegram

Un abogado de Estados Unidos, identificado como Steven Schwartz, podría enfrentar sanciones tras utilizar ChatGPT, una aplicación de inteligencia artificial, para redactar un documento legal en un caso que se está llevando a cabo en un tribunal de Nueva York. La demanda presentada por un pasajero contra la aerolínea Avianca alega que sufrió una lesión al ser golpeado por un carrito de servicio durante un vuelo.

Según informes del medio The New York Times, Schwartz, quien representa al demandante, utilizó ChatGPT para elaborar un documento en el que se oponía a una solicitud de la defensa para desestimar el caso. El abogado citó varios casos judiciales en su presentación de diez páginas para respaldar sus argumentos. Sin embargo, pronto se descubrió que los supuestos precedentes legales citados en el documento habían sido completamente inventados por el conocido chatbot desarrollado por OpenAI.

El juez Kevin Castel calificó esta situación como inédita y expresó su sorpresa en una declaración reciente: “La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes”.

Como consecuencia de esta situación, el juez Castel ha convocado una audiencia para el próximo 8 de junio, en la cual Schwartz deberá explicar por qué no debería ser sancionado por haber intentado utilizar precedentes completamente falsos en su presentación.

La situación se complicó aún más, cuando Schwartz presentó una declaración jurada admitiendo haber utilizado ChatGPT para preparar el escrito, y reconoció que la única verificación que realizó fue preguntar a la aplicación si los casos citados eran reales.

En su defensa, Schwartz argumentó que nunca antes había utilizado una herramienta de este tipo y que no era consciente de la posibilidad de que el contenido generado pudiera ser falso. El abogado dejó claro que no tenía ninguna intención de engañar al tribunal y exculpó por completo a otro abogado del bufete que también podría enfrentar posibles sanciones.

El documento en cuestión, al cual tuvo acceso la agencia de noticias EFE, concluye con una disculpa por parte de Schwartz, quien lamenta profundamente haber utilizado inteligencia artificial para respaldar su investigación y promete no volver a hacerlo sin verificar completamente la autenticidad de los precedentes citados.

Con información de agencias

Noticias Relacionadas