Salesforce dice que su chatbot de IA no alucinará, bueno, probablemente

Salesforce anunció la disponibilidad general de Einstein Copilot durante su gira mundial en Nueva York

Es posible que se gane una comisión por los enlaces en esta página.
La representación que hace Salesforce de Albert Einstein, quien, sí, es el homónimo de Einstein Copilot.
La representación que hace Salesforce de Albert Einstein, quien, sí, es el homónimo de Einstein Copilot.
Foto: Laura Bratton

Salesforce anunció el jueves la disponibilidad general de su chatbot para empresas, Einstein Copilot.

Publicidad

Los ejecutivos de Salesforce dicen que Einstein Copilot es mucho menos probable que otros chatbots de IA alucinaro generar información falsa o sin sentido, algo que otros chatbots de Google, Meta, Anthropic y OpenAI han luchado por superar.

“Pueden ser mentirosos muy seguros”, dijo Patrick Stokes, vicepresidente ejecutivo de marketing de productos de Salesforce, sobre los chatbots de IA durante una conferencia magistral en Salesforce World Tour NYC el jueves.

Publicidad

copiloto einstein Es diferente, dijo Stokes, porque utiliza los datos propios de una empresa tanto de hojas de cálculo como de documentos escritos en todas las aplicaciones en las que están almacenados. en, ya sea la propia plataforma de Salesforce, Google Cloud, Amazon Web Services, Snowflake u otros almacenes de datos.

Publicidad

El chatbot está diseñado como una especie de intermediario entre una empresa, sus datos privados y modelos en lenguaje grande (LLM) como GPT-4 de OpenAI y Gemini de Google. Los empleados pueden hacer consultas como “cuál el siguiente paso debo dar para responder a esta queja del cliente», y Einstein extraerá los datos relevantes de la empresa de Salesforce u otros servicios en la nube. Luego adjuntará esos datos a la consulta inicial para enviar a un LLM, que generará una respuesta.

Publicidad

El nuevo chatbot de Salesforce también viene con una capa protectora para que los LLM a los que envía indicaciones no puedan retener los datos de una empresa.

En una entrevista de seguimiento con Quartz, Stokes explicó más sobre por qué Einstein Copilot tiene menos probabilidades de alucinar que otros chatbots. “Antes de que nosotros Envíe la pregunta al LLM, vamos a buscar los datos”, dijo, y agregó que “no creo alguna vez podremos prevenir por completo las alucinaciones».

Publicidad

Por esta razón, el chatbot viene con una función de detección de alucinaciones. También recopila comentarios en tiempo real de los clientes de Salesforce para poder marcar debilidades del sistema a los administradores.

Las alucinaciones de la IA siempre sucederán

Stokes dijo que imaginar un mundo sin alucinaciones de IA es tan “tonto” como imaginar un mundo donde las redes de computadoras sean totalmente imposibles de piratear.

Publicidad

“Siempre habrá una manera de entrar. Creo que eso también se aplica a la IA”, dijo. “Pero lo que podemos hacer Lo que debemos hacer es hacer todo lo que podamos para asegurarnos de que estamos construyendo tecnología transparente que pueda surgir cuando eso suceda”.

El director de marketing de Salesforce, Ariel Kelmen, sostuvo. “Lo que es curioso es que los LLM fueron creados inherentemente para alucinar”, dijo. “Así es como funcionan. Tienen imaginación”.

Publicidad

Un informe del New York Times El año pasado se descubrió que la tasa de alucinaciones para los sistemas de IA era de alrededor del 5 % para Meta, hasta el 8 % para Anthropic y el 3 %. para OpenAI, y hasta 27% para Google PaLM.

Los chatbots “alucinan” cuando no tienen los datos de entrenamiento necesarios para responder una pregunta, pero aun así generan una respuesta que parece una De hecho. Las alucinaciones pueden ser causadas por diferentes factores tales como datos de entrenamiento inexactos o sesgados y sobreajuste, que es cuando un el algoritmo no puede hacer predicciones o conclusiones de otros datos distintos de los que fue entrenado.

Publicidad

Las alucinaciones son actualmente uno de los mayores problemas con los modelos de IA generativa, y son no exactamente fácil de resolver. Debido a que los modelos de IA están entrenados en conjuntos masivos de datos, puede resultar difícil encontrar problemas específicos en los datos. A veces, Los datos utilizados para entrenar modelos de IA son inexactos de todos modos, porque viene de lugares como Reddit.

Ahí es donde Salesforce dice que su chatbot será diferente. Sin embargo, aún es pronto y sólo el tiempo dirá cuál chatbot con IA es el menos delirante.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad