Apocalipsis humano

Sam Altman, CEO de OpenAI, alerta sobre la IA: "Ningún búnker te salvará si la IA se sale de control"

El cofundador de la empresa responsable de ChatGPT no tiene un búnker que le salve si la IA se sale de control. Incluso asegura que "es ridículo" preguntar si una infraestructura así podría salvarte

Sam Altman
Sam Altman es uno de los mayores expertos en IAJOHN G. MABANGLO EFE/EPA

Sam Altman piensa que un búnker no te salvará si la inteligencia artificial se sale de control. Uno de los mayores miedos que despierta la IA es la posibilidad de que provoque un apocalipsis. Si esta tecnología se fuese de las manos, muchas personas confían en que podrían resistir en un búnker, pero para el CEO de OpenAI, esto es "ridículo".

¿Desatará un juicio final la inteligencia artificial? Según varios expertos, es un escenario a tener en cuenta, pero, ¿qué hacer si finalmente ocurre? Un gran número de multimillonarios han optado por comprar búnkeres, pero para Altman esto no funcionaría.

"Es una pregunta ridícula"

Business Insider recogió una entrevista a Sam Altman. En ella se debatió sobre la inteligencia artificial, y también sobre los peligros de que esta desate un apocalipsis. El director ejecutivo de OpenAI, afirmó que él no tenía un búnker. Concretamente se le preguntó si estaba lo suficientemente preocupado por los avances de la IA como para tener un búnker. "Yo diría que no" respondió, "tengo ciertas estructuras, pero no diría que un búnker" prosiguió.

Sin embargo, lo más revelador fue cuando continuó: "Nada de esto te va a servir si la AGI sale mal, es una pregunta ridícula". AGI son las siglas de Artificial General Intelligence (inteligencia artificial generativa), un tipo de IA capaz de razonar, aprender y adaptarse a cualquier tarea intelectual que un humano pueda cometer.

Un búnker no es la solución, según Altman
Un búnker no es la solución, según AltmanPixabay

Esta tecnología genera preocupación porque la de la clave del dominio humano en el planeta es su inteligencia. Somos el animal más listo por mucho que destruyamos nuestro entorno así que la posibilidad de que una IA nos adelante en este ámbito es lo que despierta intranquilidad.

Como indicamos al inicio, Altman no es el único líder tecnológico que ha sopesado los peligros de la IA. Entre otros, Elon Musk también lo ha hecho. Para el polémico y, según su biógrafo, autodestructivo magnate sudafricano, resulta posible que entre 5 y 10 años la humanidad sea liquidada por robots asesinos, al más puro estilo de Skynet en Terminator.