OpenAI dice que hay 5 ‘niveles’ para que la IA alcance la inteligencia humana; ya está casi en el nivel 2

El creador de ChatGPT cree que está en el primer nivel, que es la IA conversacional

Es posible que se gane una comisión por los enlaces en esta página.
Sam Altman vistiendo un traje y hablando
El director ejecutivo de OpenAI, Sam Altman, en el “Foro AI Insight” en el edificio de oficinas del Senado Russell en Capitol Hill el 13 de septiembre de 2023 en Washington , DC
Foto: Chip Somodevilla (Getty Images)

OpenAI es sin duda uno de los líderes en la carrera por alcanzar la inteligencia artificial a nivel humano y, según se informa, está a cuatro pasos de lograrlo. allá.

Publicidad

La empresa compartió un sistema de cinco niveles Se desarrolló para seguir el progreso de su inteligencia general artificial, o AGI, con los empleados esta semana, dijo a Bloomberg un portavoz de OpenAI. Los niveles van De la IA conversacional actualmente disponible a una IA que puede realizar la misma cantidad de trabajo que una organización. OpenAI supuestamente compartirá la niveles con inversionistas y personas externas a la empresa.

Si bien los ejecutivos de OpenAI creen que está en el primer nivel, el portavoz dijo que está cerca del nivel dos, que se define como “Razonadores ”, o una IA que puede resolver problemas básicos y está al nivel de un ser humano con un doctorado pero sin acceso a herramientas. El tercer nivel del sistema de OpenAI se llama “Agentes” y es una IA que puede realizar diferentes acciones durante “varios días” en nombre de su usuario. El cuarto nivel supuestamente se llama “Innovadores” y describe la IA que puede ayudar a desarrollar nuevos inventos.

Publicidad

Los líderes de OpenAI también mostraron a los empleados un proyecto de investigación con GPT-4 que demostró que tiene habilidades de razonamiento similares a las humanas, informó Bloomberg, citando a un persona familiarizada con el asunto. La empresa se negó a hacer más comentarios.

Publicidad

Según se informa, el sistema fue desarrollado por ejecutivos y líderes de OpenAI que eventualmente pueden cambiar los niveles basándose en los comentarios de los empleados, inversores y consejo de administración de la empresa.

Publicidad

En mayo, OpenAI disolvió su equipo de “Superalineación”, que era responsable de trabajar en el problema de los peligros existenciales de la IA. La empresa dijo que el trabajo del equipo sería absorbido por otras investigaciones esfuerzos en OpenAI.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad