Trusted

Abogado usa ChatGPT en juicio contra Avianca, pero todo fue un desastre

2 mins
Editado por José Rafael Peña
Únete a Nuestra Comunidad de Trading en Telegram

EN RESUMEN

  • Un abogado presentó un escrito de 10 páginas con información falsa brindada por ChatGPT en un juicio contra Avianca.
  • Los precedentes citados por el abogado del demandante fueron creados por ChatGPT.
  • El juez ordenó una audiencia para el 8 de junio para discutir las posibles sanciones para el abogado.
  • promo

Un abogado utilizó la herramienta de inteligencia artificial (IA), ChatGPT, en un caso en contra de la aerolínea Avianca, y el resultado fue desastroso.

La información brindada al abogado por la herramienta del mundo de la IA, no fue encontrada por nadie al no ser real.

El inicio de este desastre, parte de una demanda por el ciudadano Roberto Mata a Avianca alegando que un carrito de metal impactó en su rodilla. El evento tuvo lugar en un vuelo al Aeropuerto Internacional Kennedy en Nueva York.

Luego de que los abogados de la aerolínea solicitaron desestimar el caso, el abogado de Mata se opuso. Steven A. Schwartz presentó un escrito de 10 páginas, el cual citaba más de media docena de decisiones judiciales “relevantes”

Los precedentes citados por el abogado de Mata, eran Hubo Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines. Los precedentes se enfocaban en la discusión sobre la ley federal y el efecto negativo de la suspensión automática en un estatuto de limitaciones.

El único problema de los precedentes presentados fue que la información no era real, la misma había sido brindada por ChatGPT.

La historia detrás del abogado que utilizó mal ChatGPT

El abogado que presentó el escrito con información falsa es Steven A. Schwartz, de la firma Levidow, Levidow & Oberman.

El abogado ha ejercido la abogacía en Nueva York durante tres décadas, pero aun así cometió el error de no revisar la información brindada por ChatGPT.

Steven A. Schwartz le explicó al juez que nunca había utilizado anteriormente a ChatGPT, y que no pensó que la herramienta pudiera dar información falsa. Posteriormente, agregó que incluso le pidió a la herramienta del mundo de la IA, que verificará si los casos eran reales.

El juez Castel dijo en una orden que se le presentó una circunstancia sin precedentes, una presentación legal repleta de decisiones judiciales falsas. El juez ordenó una audiencia para el 8 de junio para discutir las posibles sanciones para el abogado.

El principal error del abogado fue no estudiar en detalle cómo funcionaba la herramienta de la IA. Asimismo, es de vital importancia no utilizar las herramientas del mundo de la IA en instancias importantes como es un juicio.

Este debate ya se ha iniciado en Colombia, cuando un juez se apoyó en ChatGPT para completar la sentencia de un juicio. Esto generó duras críticas por parte de académicos, que vieron con preocupación cómo se utilizó la herramienta tan a la ligera y generó datos no exactos, que fueron citados en la sentencia.

Las herramientas del mundo de la IA se encuentran en un momento de maduración, siendo importante utilizar las mismas con precaución, para evitar desastres como el caso de ChatGPT y Avianca.

Descargo de responsabilidad

Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.

juan-frers-e1630559605371.jpeg
Juan Frers
Juan Frers es contador y abogado, egresado de la Universidad de Buenos Aires. Actualmente, es candidato a doctorado en tecnología y derecho. Su interés especial está en el panorama regulatorio de criptomonedas y fintech.
READ FULL BIO
Patrocinado
Patrocinado