El ex director de Google (GOOGL
) dice que las computadoras pronto podrán tomar sus propias decisiones y los humanos necesitarán saber cuándo desconectarlas.Eric Schmidt, quien pasó una década como director ejecutivo de la inteligencia artificial, dijo que los humanos deben aprovechar la IA “mientras preservan la dignidad y los valores humanos” durante Una entrevista en ABC News
(
DIS)“Esta semana.”
Las redes sociales se movieron rápidamente para cambiar el espíritu de la época global, dijo Schmidt, “y ahora imaginemos una forma mucho más inteligente y más fuerte de enviar mensajes, inventar cosas, el ritmo de la innovación, el descubrimiento de medicamentos y todo eso, además de todo tipo de cosas malas, como armas y ataques cibernéticos”.
Pronto, dijo Schmidt, habrá computadoras que puedan funcionar “por sí solas, decidiendo lo que quieren hacer”. Actualmente, la industria está enfocada en
Agentes de IA
—o software que puede completar tareas complejas de forma autónoma— pero la tecnología tendrá “objetivos más poderosos”.
“Al final, le dices a la computadora: ‘Aprenda todo y haga todo’, y ese es un punto peligroso”, dijo Schmidt. “Cuando el sistema pueda mejorar por sí solo, debemos pensar seriamente en desconectarlo”.
Cuando se le preguntó si un sistema de IA tan poderoso tendría la capacidad de contrarrestar los esfuerzos por apagarlo, Schmidt dijo: “en teoría, sería mejor que tuviéramos a alguien con una mano en el enchufe”.
A medida que la IA se vuelve más inteligente, “todas y cada una de las personas tendrán el equivalente de un erudito en su bolsillo”, dijo Schmidt, pero no está claro “qué significa dar ese tipo de poder a cada individuo”. Ahora existe la preocupación de que una empresa que se apresura a desarrollar IA decida omitir pasos en las pruebas de seguridad, dijo Schmidt, y termine lanzando un sistema que sea dañino.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.