Un abogado utilizó la herramienta de inteligencia artificial (IA), ChatGPT, en un caso en contra de la aerolínea Avianca, y el resultado fue desastroso.
La información brindada al abogado por la herramienta del mundo de la IA, no fue encontrada por nadie al no ser real.
El inicio de este desastre, parte de una demanda por el ciudadano Roberto Mata a Avianca alegando que un carrito de metal impactó en su rodilla. El evento tuvo lugar en un vuelo al Aeropuerto Internacional Kennedy en Nueva York.
Luego de que los abogados de la aerolínea solicitaron desestimar el caso, el abogado de Mata se opuso. Steven A. Schwartz presentó un escrito de 10 páginas, el cual citaba más de media docena de decisiones judiciales “relevantes”.
Los precedentes citados por el abogado de Mata, eran Hubo Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines. Los precedentes se enfocaban en la discusión sobre la ley federal y el efecto negativo de la suspensión automática en un estatuto de limitaciones.
El único problema de los precedentes presentados fue que la información no era real, la misma había sido brindada por ChatGPT.
La historia detrás del abogado que utilizó mal ChatGPT
El abogado que presentó el escrito con información falsa es Steven A. Schwartz, de la firma Levidow, Levidow & Oberman.
El abogado ha ejercido la abogacía en Nueva York durante tres décadas, pero aun así cometió el error de no revisar la información brindada por ChatGPT.
Steven A. Schwartz le explicó al juez que nunca había utilizado anteriormente a ChatGPT, y que no pensó que la herramienta pudiera dar información falsa. Posteriormente, agregó que incluso le pidió a la herramienta del mundo de la IA, que verificará si los casos eran reales.
El juez Castel dijo en una orden que se le presentó una circunstancia sin precedentes, una presentación legal repleta de decisiones judiciales falsas. El juez ordenó una audiencia para el 8 de junio para discutir las posibles sanciones para el abogado.
El principal error del abogado fue no estudiar en detalle cómo funcionaba la herramienta de la IA. Asimismo, es de vital importancia no utilizar las herramientas del mundo de la IA en instancias importantes como es un juicio.
Este debate ya se ha iniciado en Colombia, cuando un juez se apoyó en ChatGPT para completar la sentencia de un juicio. Esto generó duras críticas por parte de académicos, que vieron con preocupación cómo se utilizó la herramienta tan a la ligera y generó datos no exactos, que fueron citados en la sentencia.
Las herramientas del mundo de la IA se encuentran en un momento de maduración, siendo importante utilizar las mismas con precaución, para evitar desastres como el caso de ChatGPT y Avianca.
Descargo de responsabilidad
Descargo de responsabilidad: en cumplimiento de las pautas de Trust Project, BeInCrypto se compromete a brindar informes imparciales y transparentes. Este artículo de noticias tiene como objetivo proporcionar información precisa y oportuna. Sin embargo, se recomienda a los lectores que verifiquen los hechos de forma independiente y consulten con un profesional antes de tomar cualquier decisión basada en este contenido.