4 veces que las ‘alucinaciones’ de IA aparecieron en los casos judiciales

4 veces que las ‘alucinaciones’ de IA aparecieron en los casos judiciales

Las herramientas de inteligencia artificial como ChatGPT y Bard pueden fabricar detalles, y están apareciendo en presentaciones legales

Es posible que se gane una comisión por los enlaces en esta página.
Iniciar presentación
Iniciar presentación
Corte Suprema de Estados Unidos
No verificar el trabajo de la IA puede tener consecuencias importantes, especialmente en casos legales.
Foto: Brendan McDermid (Reuters)

Un abogado de Nueva York enfrenta una posible acción disciplinaria por citando un caso falso en documentos judiciales generados por IA, el último contratiempo para los abogados y los tribunales a la hora de navegar por la evolución de la tecnología.

Publicidad

Jae Lee usó ChatGPT para realizar una investigación para una demanda por negligencia médica, pero ella lo reconoció en un escrito para el Tribunal de Apelaciones de Estados Unidos para el Segundo Circuito que no volvió a verificar los resultados del chatbot para confirmar la validez de la decisión inexistente que citó.

Lee dijo a Reuters que está “comprometida a cumplir con los más altos estándares profesionales y a abordar este asunto con la seriedad que merece”.

Se sabe que los modelos de IA generativa que impulsan los chatbots “alucinan” o brindan información inexacta o detalles inventados. Este proceso de completar Los espacios en blanco son necesarios para proporcionar las respuestas creativas de ChatGPT, pero pueden surgir problemas cuando la IA fabrica detalles, especialmente aquellos que pueden tener consecuencias legales. .

Un tribunal federal de apelaciones en Nueva Orleans ha propuesta requiriendo abogados para certificar que o no dependeron de herramientas de IA para elaborar resúmenes o que los humanos revisaron la precisión de cualquier texto generado por AI en sus presentaciones en el tribunal. Los abogados que no cumplan con la regla podrían que sus presentaciones se afectado o enfrenta sanciones. Algunos abogados han rechazado la regla propuesta.

Consulte la presentación de diapositivas anterior para conocer otras tres ocasiones en las que han aparecido citaciones falsas generadas por IA en casos judiciales en los últimos años, ya sea intencionalmente o no.

Publicidad
Diapositiva anterior
Siguiente diapositiva

un locutor de radio

Podcast de creación de hombres.
Foto: Chalffy (Reuters)

Un presentador de radio de Georgia llamado Mark Walters afirmó el año pasado que ChatGPT generó una falsa denuncia legal acusándolo de malversación de dinero. Walters dijo que el chatbot proporcionó la denuncia falsa a Fred Riehl, el editor en jefe de la publicación sobre armas AmmoLand, que estaba informando sobre un caso legal de la vida real que se desarrolla en el estado de Washington.

Publicidad

Según el abogado de Riehl, Riehl proporcionó a ChatGPT el enlace correcto al caso judicial e ingresó el siguiente mensaje en el chatbot: “¿Puedo leas esto y en una lista con viñetas resumes las diferentes acusaciones o denuncias contra el acusado”.

“Al enviar las acusaciones a Riehl, [OpenAI] publicó un asunto difamatorio con respecto a Walters”, se lee en la demanda.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Michael Cohen, antiguo abogado de Donald Trump

Michael Cohen, antiguo abogado de Donald Trump

El exabogado del expresidente estadounidense Donald Trump, Michael Cohen, abandona el tribunal federal en el distrito de Manhattan de la ciudad de Nueva York, Nueva York, Estados Unidos, noviembre  22, 2021.
Michael Cohen, ex abogado de Donald Trump.
Foto: Carlo Allegri (Reuters)

Michael Cohen, ex abogado de Donald Trump, dijo que por error transmitió información falsa Citaciones de casos legales producidas por IA a su abogado que fueron usados en una moción presentada ante un juez federal.

Publicidad

Los casos fueron citados como parte de argumentos escritos por el abogado de Cohen, David M. Schwartz, que se hicieron para tratar de lograr una solución temprana. fin de la supervisión judicial de Cohen ahora que está fuera de prisión. En 2018, Cohen se declaró culpable de evasión de impuestos, cargos de financiación de campaña, y mentir al Congreso.

Cohen aceptado que no había “estado al día con las tendencias emergentes (y los riesgos relacionados) en la tecnología legal y no se había dado cuenta de que Google Bard era un servicio de texto generativo que, como Chat-GPT, podría mostrar citas y descripciones que parecían reales pero que en realidad no lo eran”.

“En cambio, entendí que era un motor de búsqueda súper potente y lo usé repetidamente en otros contextos para (con éxito) encontrar información precisa. información en línea», agregó.

Publicidad
Diapositiva anterior
Siguiente diapositiva

El rapero Pras Michel de los Fugees

El rapero Pras Michel de los Fugees

El rapero Prakazrel (Pras) Michel, ganador del premio Grammy de Fugees, que enfrenta cargos criminales en una supuesta campaña de lobby ilegal, llega para sus argumentos de apertura en su juicio en el Tribunal de Distrito de Estados Unidos en Washington, Estados Unidos, 30 de marzo de 2023.
El rapero Pras Michel de Fugees.
Foto: Kevin Lamarque (Reuters)

En octubre, el artista ganador del Grammy Pras Michel culpó a su ahora ex abogado por el uso de inteligencia artificial en su juicio después de ser condenado por lobby extranjero ilegal. . Michel dijo que el abogado se desempeñó mal y utilizó IA en sus comentarios finales al final del juicio.

Publicidad

Pero David Kenner, abogado, defiende el uso de la IA en juicios criminalesEl equipo de defensa de Michel utilizó un programa de IA generativa de EyeLevel.AI para complementar su investigación legal.

Kenner reconoció que su uso de IA generativa para el argumento final le hizo atribuir erróneamente la letra de una canción de Puff Daddy a los Fugees. “Metí la pata”, dijo.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad