¿Podemos tomarnos en serio el nuevo chatbot de Elon Musk?

Se advierte a los que odian: no utilicen el chatbot de IA “Grok” si no pueden aceptar una broma

Es posible que se gane una comisión por los enlaces en esta página.
Sam Rockwell protagonizó la adaptación cinematográfica de La guía del autoestopista galaxia, que inspiró el chatbot Grok.
Sam Rockwell protagonizó la adaptación cinematográfica de La guía del autoestopista galaxia, que inspiró el chatbot Grok.
Foto: MJ Kim (Getty Images)

Un alter ego bromista de El empresario multimillonario Elon Musk está aquí, y este nuevo chatbot tiene la intención de responder “casi cualquier cosa” e “incluso sugerir qué preguntas hacer”. Pero proceda con precaución . en un blog por Musk empresa de nueva creación xAI, que desarrolló el modelo de IA, el equipo bromea diciendo que cualquiera que “odie el humor” no debería usarlo.

Publicidad

El chatbot, llamado “Grok” (pronunciado graw-k), está capacitado para el “acceso en tiempo real” a información extraída de la plataforma de redes sociales X , que Musk compró hace un año como Twitter.

el modelo de lenguaje grande (LLM) pretende competir con ChatGPT de OpenAI, Bard de Google y Claude de Anthropic, con xAI jactándose de que sus capacidades ya rivalizan con las de sus competidores. después de solo cuatro meses de desarrollo y dos meses de capacitación de datos.

Publicidad

Aun así, algunos expertos se muestran escépticos sobre las intenciones de Musk. “No tengo grandes esperanzas en lo que Elon Musk está haciendo; ni siquiera le preocupa sobre las tasas de alucinaciones», dijo Amin Ahmad, cofundador y director tecnológico de Vectara, una empresa de software especializada en búsqueda semántica.

Publicidad

“Él solo quiere mayores clics”, agregó Ahmad, ex investigador de IA en Google.

Por qué los chatbots de IA “alucinan”

La alucinación se refiere a cuando la IA inventa sus propios hechos. Eso sucede con más frecuencia de lo que podríamos pensar, según un estudio reciente por Vectara.

Publicidad

En situaciones diseñadas para evitar que la IA invente falsedades, ChatGPT4 se desvió menos de su conjunto de datos original, inventando información del 3 por ciento de la tiempo. Por el contrario, el LLM de Google, PaLM-chat, inventó respuestas el 27 por ciento de las veces.

La mejor suposición de Ahmad sobre la alta tasa de alucinaciones del chat PaLM es que sus creadores querían que fuera hablador. e ingenioso, lo que impacta el tipo de respuestas que genera el chatbot.

Publicidad

El cofundador y director ejecutivo de Vectara, Amr Awadallah, también ex alumno de Google, explicó que un LLM recibe petabytes de datos que deben comprimirse. en megabytes y luego se descomprime para obtener respuestas. La información se pierde en este proceso, lo que hace que la IA rellene los espacios en blanco con detalles que no estaban en el contenido original.

Awadallah lo comparó con ir a la escuela: Después de un tiempo, no recordamos todo lo que aprendimos y tenemos una tendencia a recuperar información si no podemos recordar algo.

Publicidad

De manera similar, cuando un chatbot resume incorrectamente un artículo de noticias, no está repitiendo información falsa de otras partes de Internet; su resumen mal al llenar los espacios vacíos.

Awadallah agregó que ChatGPT tiene la tasa de alucinaciones más baja porque lleva en el mercado más tiempo que otros LLM y obtiene millones de sesiones gratuitas. con usuarios de todo el mundo que permiten a sus creadores afinar el modelo.

Publicidad
Logo de un pájaro y X delante
La empresa de Elon Musk, xAI, ha estado desarrollando el chatbot “Grok” durante cuatro meses.
Ilustración: Dado Ruvic (Reuters)

El propósito comercial de los chatbots

“El humor oculta la deficiencia del modelo”, dijo Awadallah cuando se le preguntó sobre Grok.

Publicidad

En línea con la teoría de Ahmad sobre por qué el chatbot de Google alucina tanto, crear un robot sarcástico e ingenioso podría llevar a los mismos problemas. Pero bien podría cumplir su propósito.

“El modelo de Elon ha sido creado para los consumidores: 50% para entretenimiento”, dijo Ahmad.

Publicidad

Solo mira el ejemplo Musk compartió en X: una receta ostensiblemente “humorística” para hacer cocaína, con un descargo de que es para “fines educativos”.

Debido a que Grok no puede responder a una pregunta sin contar un chiste que la acompañe, Ahmad dijo que está bien que el chatbot tenga alucinaciones. Pero eso entra en conflicto con lo que Musk considera información confiable. el publicó que debido a que Grok extrae X en tiempo real, es más actual que su rival ChatGPT.

Publicidad

Dicho esto, dado que X es el mayor fuente de noticias falsas y la desinformación, según la Unión Europea, es apropiado que muchas de las respuestas de Grok no sean confiables. Aunque obtener comentarios de los usuarios será mejorar las respuestas del chatbot, verificar y controlar la falsedad generalizada No son exactamente el fuerte de Musk.

Las tasas de alucinaciones son más importantes cuando se utiliza un chatbot en industrias reguladas (por ejemplo, para ayudar a los abogados a preparar informes o a los contables a redactar informes) Ahmad dijo.

Publicidad

Eso es lo que Vectara pretende abordar proporcionando métricas sobre la precisión de los chatbots, muy parecidas a las ordenadas por el presidente estadounidense Joe Biden. orden ejecutiva sobre la regulación de la IA.

Tanto Ahmad como Awadallah son optimistas en cuanto a que se podrá confiar en los chatbots dentro de uno o dos años, cuando las alucinaciones se acerquen a cero, lo que hará es más fácil medir la precisión del contenido que producen.

Publicidad

¿Qué significa el nombre de Grok?

El chatbot Grok supuestamente está modelado a partir de La guía del autoestopista galaxia, una franquicia de cómic de ciencia ficción creada por Douglas Adams. Pero su nombre no proviene del trabajo de Adams, sino que fue acuñado por científicos. -fi autor Robert A. Heinlein, en su novela de 1961 Extraño en una tierra extraña.

Publicidad

Asimilar significa comprender algo de manera profunda o intuitiva, según El Diccionario Merriam-Webster.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad