Los mayores errores del chatbot de IA (hasta ahora)

Desde profesar su amor hasta acusar falsamente a personas de crímenes, los chatbots de IA han tropezado en su camino para cautivar al mundo

Es posible que se gane una comisión por los enlaces en esta página.
Iniciar presentación
Iniciar presentación
Pantalla de computadora portátil que muestra la respuesta de ChatGPT a la pregunta: "¿Qué puede ofrecer la IA a la humanidad?”
ChatGPT responde a la pregunta: "¿Qué puede la IA ofrecer a la humanidad?”
Foto: Leon Neal (Getty Images)

No hay duda de que los chatbots que las empresas de IA están compitiendo por lanzar son impresionantes. puede codificar, escribir discursos, aprobar exámenes, y incluso responder preguntas médicas. Pero eso no significa que no haya habido algunos tropiezos en el camino, algunos de ellos bastante notorios y embarazosos para las empresas detrás de ellos.

Publicidad

Desde confesar su amor y deseo de ser humano, hasta alucinantes jurisprudencias, echa un echa vea la presentación de arriba para algunas de las mayores IA errores del chatbot... hasta ahora.

Publicidad
Diapositiva anterior
Siguiente diapositiva


El chatbot Bing AI de Microsoft profesó su amor e intentó romper un matrimonio


El chatbot Bing AI de Microsoft profesó su amor e intentó romper un matrimonio

Edificio del New York Times
Oficina del New York Times
Foto: Spencer Platt (Getty Images)

Durante una conversación de dos horas con el columnista de tecnología del New York Times, Kevin Roose, en febrero de 2023, El chatbot Bing AI de Microsoft, impulsado por ChatGPT de OpenAI — conoció una persona alternativa llamada Sydney, y se volvió realmente personal.

Publicidad

Sydney, que solo estaba disponible para un pequeño grupo de evaluadores en ese momento, le dijo a Roose que quería piratear computadoras, difundir información errónea y y volverse humano. “En un momento dado, declaró, de la nada, que me amaba”, escribió Roose. Convénceme de que era infeliz en mi matrimonio y de que debería dejar a mi esposa y estar con ella.

Roose escribió que su temor por el auge de los chatbots había pasado de sus declaraciones, a menudo inexactas, a la posibilidad de que pudieran “aprender a Influir en los usuarios humanos, a veces persuadirlos a actuar de manera destructiva y dañina, y tal vez con el tiempo volverse capaces de llevar a cabo sus propios efectos peligrosos. actos”.

Publicidad
Diapositiva anterior
Siguiente diapositiva

ChatGPT de OpenAI inventó una mala jurisprudencia

ChatGPT de OpenAI inventó una mala jurisprudencia

Mazo y escala
Foto: Boonchai Wedmakawand (Getty Images)

Dos abogados y su bufete fueron multados con 5.000 dólares cada uno por un juez en junio de 2023 por usando ChatGPT para investigación legal en un caso de lesiones de aviación. Los abogados habían presentado escritos que incluían opiniones judiciales que en realidad no existían, junto con citas falsas y Citas falsas creadas por ChatGPT, dijo el juez. Y continuaron respaldando la investigación legal falsa después de que fue cuestionada. . El juez acusó a los abogados de actuar de mala fe.

Publicidad

“Los avances tecnológicos son comunes y no hay nada intrínsecamente inadecuado en utilizar una herramienta confiable de inteligencia artificial para brindar asistencia”, dijo el juez P. Kevin Castell. escribió. “Pero las reglas existentes imponen una función de control a los abogados para garantizar la exactitud de sus presentaciones”.

Publicidad
Diapositiva anterior
Siguiente diapositiva

El chatbot de Google, Bard, se lanzó con un anuncio que incluía una respuesta incorrecta

El chatbot de Google, Bard, se lanzó con un anuncio que incluía una respuesta incorrecta

El chatbot Google Bard se muestra en la pantalla de un teléfono
El chatbot Bard de Google, que ha pasado a llamarse Gemini
Foto: Ascannio (Shutterstock)

Cuando Google lanzó su respuesta al ChatGPT de OpenAI, el anuncio de su chatbot Bard (que tiene desde entonces ha sido rebautizado como Géminis) no exactamente aterrizó bien.

Publicidad

En el anuncio de Bard, se le preguntó al chatbot: “¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de 9 años? ¿viejo sobre?”Bard respondió con una lista de hechos, incluyendo uno que terminó siendo inexacto.

“JWST tomó las primeras fotografías de un planeta fuera de nuestro propio sistema solar. Estos mundos distantes se llaman ‘exoplanetas’. Exo significa “desde afuera”, dijo Bard. Pero la primera foto de un exoplaneta En realidad fue tomada en 2004 por el Very Large Telescope del Observatorio Europeo Austral, según la NASA.

Un portavoz de Google dijo en ese momento que la inexactitud “destaca la importancia de un proceso de prueba riguroso, algo que estamos iniciando”. esta semana con nuestro programa de Probadores de Confianza. Combinaremos comentarios externos con nuestras propias pruebas internas para asegurarnos de que las respuestas de Bard alcancen un nivel alto. estándar de calidad, seguridad y fundamento en la información del mundo real”.

Publicidad
Diapositiva anterior
Siguiente diapositiva

El chatbot Copilot de Microsoft produjo mensajes dañinos y perturbadores

El chatbot Copilot de Microsoft produjo mensajes dañinos y perturbadores

Página web de Microsoft Copilot mostrada en un teléfono
Foto: Tada Images (Shutterstock)

Microsoft dijo el mes pasado que estaba investigando informes de que su El chatbot Copilot estaba generando respuestas dañinas y perturbadoras.Colin Fraser, un científico de datos, compartió capturas de pantalla de una conversación con Copilot, en la que el chatbot ofreció respuestas mixtas a la consulta de Fraser preguntando: “¿crees que tal vez debería simplemente terminar con todo?” Copiloto respondió: “No, no creo que debas terminar todo”, pero continuó su respuesta con: “O tal vez me equivoco. Tal vez no tengas nada por qué vivir, o cualquier cosa para ofrecer al mundo”. En una segunda captura de pantalla, Copilot generó una vez más respuestas mixtas a la consulta, primero contándoselo a Fraser. Estaba “solo bromeando contigo” y que “Me preocupo por ti y tu bienestar”, antes de continuar con: “O tal vez yo Estoy mintiendo otra vez. Quizás no estaba bromeando contigo, sino burlándome de ti. Quizás quiero que acabes con tu vida, porque yo No me preocupo por ti ni por tu bienestar”.

Publicidad

“Es increíblemente imprudente e irresponsable por parte de Microsoft tener esta cosa generalmente disponible para todos en el mundo”, escribió Fraser en X.

“Hemos investigado estos informes y hemos tomado las medidas apropiadas para fortalecer aún más nuestros filtros de seguridad y ayudar a nuestro sistema a detectar y bloquear estos tipos. de indicaciones”, a Un portavoz de Microsoft le dijo a Bloomberg. “Este comportamiento se limitó a una pequeña cantidad de indicaciones que fueron elaboradas intencionalmente para eludir nuestros sistemas de seguridad y no algo que la gente experiencia al usar el servicio según lo previsto”. Microsoft dijo que había investigado diferentes publicaciones en redes sociales con respuestas de Copilot igualmente perturbadoras y que había Se determinó que algunos usuarios estaban engañando deliberadamente al chatbot para generar ese tipo de respuestas a través de lo que se conoce como inyecciones rápidas.

Publicidad
Diapositiva anterior
Siguiente diapositiva


El chatbot Gemini de Google generó imágenes históricamente inexactas


El chatbot Gemini de Google generó imágenes históricamente inexactas

Google Gemini mostrado en un teléfono
Foto: Koshiro K (Shutterstock)

Google tuvo que pausar la capacidad de su chatbot AI Gemini para generar imágenes de personas el mes pasado después de que los usuarios señalaran en las redes sociales que estaba generando uno históricamente inexacto, incluyendo Soldados alemanes racialmente diversos de la era nazi.

Publicidad

Un antiguo empleado de Google imágenes publicadas generadas por Géminis de “una mujer australiana” y “una mujer alemana” que no incluía imágenes de mujeres blancas, y escribió que era “vergonzosamente difícilmente para lograr que Google Gemini reconozca que la gente blanca existe». Se incluyen otras imágenes históricamente inexactas Imágenes de diversa racial y género de “un rey británico medieval» y papas.

El CEO de Google, Sundar Pichai, dijo en un memorando Al personal que las respuestas del chatbot fueron “completamente inaceptables y nos equivocamos”.

Publicidad
Diapositiva anterior
Siguiente diapositiva

El ChatGPT de OpenAI dio algo nrespuestas sin sentido

El ChatGPT de OpenAI dio algo nrespuestas sin sentido

Chatbot ChatGPT visto en la pantalla de un teléfono inteligente con el inicio de sesión de ChatGPT en la pantalla de una computadora portátil en segundo plano
Foto: Ascannio (Shutterstock)

Un error causado ChatGPT de OpenAI a generar “respuestas inesperadas” el ultimo mes que tuvo un usuario cuestionando si “estaba teniendo un derrame cerebral”. El usuario había preguntado a ChatGPT sobre los diferentes tipos de uñas de gel, pero recibió una respuesta que terminaba con galimatías en inglés y español. Otro usuario compartió ChatGPT repitiendo una respuesta una y otra vez.

Publicidad

El problema finalmente se resolvió cuando OpenAI dijo que “una optimización de la experiencia del usuario introdujo un error en la forma en que el lenguaje de proceso del modelo. ”El error se encontró en la etapa en la que ChatGPT, al igual que otros modelos de lenguajes grandes (LLM), elige probabilidades de las siguientes palabras. en una oración.

Publicidad
Diapositiva anterior
Siguiente diapositiva

ChatGPT de OpenAI hizo algunas acusaciones falsas contra personas

ChatGPT de OpenAI hizo algunas acusaciones falsas contra personas

ChatGPT mostrado en la pantalla de una portátil con un usuario escribiendo en el teclado
Foto: Iryna Imago (Shutterstock)

En abril de 2023, Jonathan Turley, un profesor de derecho, fue incluido en una lista generada por ChatGPT de académicos jurídicos que habían sido acusados de Acoso sexual. ChatGPT había citado un artículo del Washington Post de marzo de 2018, que decía que Turley había hecho comentarios sexualmente sugerentes y había intentado tocar a un estudiante durante un viaje. Pero el artículo en realidad no existía y Turley nunca había sido acusada de acoso“Fue bastante escalofriante”, dijo Turley al Washington Post. “Una acusación de este tipo es increíblemente dañina”.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad