Un abogado de Nueva York enfrenta una posible acción disciplinaria por citando un caso falso en documentos judiciales generados por IA, el último contratiempo para los abogados y los tribunales a la hora de navegar por la evolución de la tecnología.
Jae Lee usó ChatGPT para realizar una investigación para una demanda por negligencia médica, pero ella lo reconoció en un escrito para el Tribunal de Apelaciones de Estados Unidos para el Segundo Circuito que no volvió a verificar los resultados del chatbot para confirmar la validez de la decisión inexistente que citó.
Lee dijo a Reuters que está “comprometida a cumplir con los más altos estándares profesionales y a abordar este asunto con la seriedad que merece”.
Se sabe que los modelos de IA generativa que impulsan los chatbots “alucinan” o brindan información inexacta o detalles inventados. Este proceso de completar Los espacios en blanco son necesarios para proporcionar las respuestas creativas de ChatGPT, pero pueden surgir problemas cuando la IA fabrica detalles, especialmente aquellos que pueden tener consecuencias legales. .
Un tribunal federal de apelaciones en Nueva Orleans ha propuesta requiriendo abogados para certificar que o no dependeron de herramientas de IA para elaborar resúmenes o que los humanos revisaron la precisión de cualquier texto generado por AI en sus presentaciones en el tribunal. Los abogados que no cumplan con la regla podrían que sus presentaciones se afectado o enfrenta sanciones. Algunos abogados han rechazado la regla propuesta.
Consulte la presentación de diapositivas anterior para conocer otras tres ocasiones en las que han aparecido citaciones falsas generadas por IA en casos judiciales en los últimos años, ya sea intencionalmente o no.