El uso torpe de ChatGPT ha llevado a un bufete de abogados de la ciudad de Nueva York a una multa de $ 5,000.
Habiendo escuchado mucho sobre el impresionante chatbot impulsado por IA de OpenAI, el abogado Steven Schwartz decidió usarlo para la investigación, agregando citas de casos generadas por ChatGPT a un informe legal entregado a un juez a principios de este año. Pero pronto se supo que los casos habían sido inventados en su totalidad por el chatbot.
El juez federal de distrito P. Kevin Castel ordenó el jueves a los abogados Steven Schwartz y Peter LoDuca, quienes se hicieron cargo del caso de su compañero de trabajo, ya su bufete de abogados Levidow, Levidow & Oberman, pagar una multa de $5,000.
El juez dijo que los abogados habían realizado «actos de evasión consciente y declaraciones falsas y engañosas ante el tribunal», y agregó que habían «abandonado sus responsabilidades» al presentar el escrito escrito por AI antes de defender «las opiniones falsas después de que las órdenes judiciales llamaran su atención». existencia en cuestión.”
Castel continuó: “Muchos daños se derivan de la presentación de opiniones falsas. La parte contraria pierde tiempo y dinero en exponer el engaño. El tiempo de la corte se toma de otros esfuerzos importantes”.
El juez agregó que la acción de los abogados “promueve el cinismo sobre la profesión legal y el sistema judicial estadounidense”.
El bufete de abogados de Manhattan dijo que «respetuosamente» no estaba de acuerdo con la opinión de la corte y la describió como un «error de buena fe».
En una audiencia judicial relacionada a principios de este mes, Schwartz dijo que quería “disculparse sinceramente” por lo sucedido, y explicó que pensaba que estaba usando un motor de búsqueda y no tenía idea de que la herramienta de inteligencia artificial podría producir falsedades. Dijo que “lamenta profundamente” sus acciones”, y agregó: “Sufrí tanto profesional como personalmente. [because of] la amplia publicidad que ha generado este tema. Estoy avergonzado, humillado y extremadamente arrepentido”.
El incidente estuvo relacionado con un caso que tomó la firma de abogados que involucra a un pasajero que demandó a la aerolínea colombiana Avianca después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.
Avianca le pidió al juez que desestimara el caso, por lo que el equipo legal del pasajero compiló un escrito citando seis casos similares en un intento de persuadir al juez para que permitiera que el caso de su cliente siguiera adelante. Schwartz encontró esos casos preguntando a ChatGPT, pero no pudo verificar la autenticidad de los resultados. El equipo legal de Avianca dio la voz de alarma cuando dijo que no podía localizar los casos contenidos en el escrito.
En una orden separada el jueves, el juez concedió la moción de Avianca para desestimar la demanda en su contra, poniendo fin a todo el lamentable episodio.
ChatGPT y otros chatbots similares han ganado mucha atención en los últimos meses debido a su capacidad para conversar de forma humana y realizar hábilmente una gama cada vez mayor de tareas basadas en texto. Pero también son conocidos por inventar cosas y presentarlas como si fueran reales. Es tan frecuente que incluso hay un término para ello: «alucinación».
Aquellos que trabajan en las herramientas de IA generativa están explorando formas de reducir las alucinaciones, pero hasta entonces se recomienda a los usuarios que verifiquen cuidadosamente los «hechos» que escupen los chatbots.
Recomendaciones de los editores