Inteligencia artificial
Uno de los mayores expertos en IA alerta sobre los peligros de esta tecnología: “Todos moriremos”
El investigador Eliezer Yudkowsky afirma, en un artículo publicado en la revista Time, que esa será la consecuencia inevitable de desarrollar sistemas que superen las capacidades humanas y que es necesario detener todos los desarrollos
La carta abierta que una serie de personalidades del mundo tecnológico, entre ellas Elon Musk y Steve Wozniak, publicaron la semana pasada, demandando una pausa de seis meses en el entrenamiento de nuevas inteligencias artificiales mientras se desarrollan protocolos de seguridad, ha provocado un amplio debate. A esta conversación se ha unido Eliezer Yudkowsky, considerado uno de los mayores expertos en inteligencia artificial, campo que investiga desde hace más de 20 años, a través de un artículo publicado en la revista Time bajo el título "Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo".
El investigador en IA y ética explica los motivos por los que no firmó la carta y expone su visión de lo que nos podemos encontrar si se alcanza una Inteligencia Artificial General en las actuales circunstancias y qué es lo que debemos hacer para evitar que “toda la vida biológica de la Tierra muera poco después”.
Una IA mejor que los humanos
Yudkowsky cofundó en el año 2000 el Instituto de Investigación de la Inteligencia de las Máquinas MIRI y es uno de los pioneros y referentes en el campo de la inteligencia artificial amigable. Esta es la idea de que se debe diseñar la inteligencia artificial para que sea compatible con los valores y objetivos humanos.
En su artículo agradece la demanda del parón de seis meses “porque es mejor que el que no haya ninguno”, pero considera que los firmantes subestiman la seriedad de la situación y “piden demasiado poco para resolverla”. Defiende que hay que detener todo entrenamiento de inteligencias artificiales que se esté llevando a cabo, de forma indefinida y en todo el mundo, hasta que sea posible desarrollar de forma segura este tipo de sistemas.
Musk y el resto de firmantes señalaban su preocupación porque las herramientas de inteligencia artificial estaban alcanzando un nivel en el que estaban siendo “competitivas con los humanos”. Para Yudkowsky, el problema no es éste sino que llegará cuando se alcance una inteligencia artificial mejor que la natural de los humanos.
“Los umbrales clave [para llegar] allí pueden no ser obvios. Definitivamente, no podemos calcular de antemano qué sucede y cuándo, y actualmente es imaginable que un laboratorio de investigación pueda cruzar líneas críticas sin darse cuenta”, explica.
Como el australopiteco intentando superar al homo sapiens
El resultado de construir una inteligencia artificial realmente inteligente “bajo cualquier cosa remotamente parecida a las circunstancias actuales, es que literalmente todos en la Tierra morirán. No como en "tal vez, posiblemente, alguna posibilidad remota", sino como en "eso es lo obvio que sucedería".
Evitarlo requiere “precisión, preparación y nuevos conocimientos científicos”. Sin ellos, lo más probable es llegar a una IA que “no haga lo que queremos y no le importemos nosotros ni la vida sintiente en general”.
No es un problema, “en principio”, irresoluble. Este tipo de perspectiva en la que la vida tiene un valor se podría imbuir en los sistemas de inteligencia artificial, pero el problema es que “no estamos preparados y no sabemos cómo hacerlo”. Sin este enfoque, la inteligencia artificial nos vería como recursos para sus fines. Sería una IA “que no te ama ni te odia, estás hecho de átomos que puede usar para algo más”.
Para Yudkowsky, el resultado de la humanidad enfrentándose a una inteligencia superior sería desastroso. Igual que “el siglo XI combatiendo al siglo XXI o al australopiteco intentando superar al homo sapiens”.
Cómo sería una IA hostil
Visualiza a una IA superior a la humana y hostil como “una civilización completamente alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada en las computadoras”, algo que no se mantendría durante demasiado tiempo.
En un mundo en el que puedes “enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas bajo pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular post biológica”.
El investigador critica que OpenAI, el desarrollador de ChatGPT que actualmente está entrenando su próximo modelo de lenguaje, GPT-5, planee "que alguna futura inteligencia artificial haga la tarea de alineación de IA". Esta alineación es la medida en que los objetivos y acciones de un sistema de inteligencia artificial coinciden con los objetivos e intereses de sus diseñadores o usuarios. Es decir, que la inteligencia artificial haga lo que queremos que haga y no lo que no queremos que haga.
Un sistema cognitivo más poderoso
Comparte la opinión de que las IA más avanzadas, como las que utilizan el modelo de lenguaje GPT-4, no son autoconscientes sino que solo llegan a imitar esta condición empleando la información con la que han sido entrenadas, pero que “no lo sabemos con seguridad”.
Si el salto a GPT-5 es tan grande como el de GPT-3 a GPT-4, “ya no podremos decir que probablemente no tienen consciencia. Si dejamos que hagan inteligencias artificiales como GPT-5, diremos que no sabemos, que nadie lo sabe”.
Sin embargo, también afirma que el problema no es necesariamente una IA autoconsciente, algo que “tampoco sabemos determinar”, sino que el peligro es el intrínseco al enfrentarse a un sistema cognitivo más poderoso.
"Apagadlo todo"
Yudkowsky recomienda detener completamente los entrenamientos de inteligencias artificiales en todos los países mientras no se alcance la seguridad suficiente, apagar los centros de computación GPU que emplean, rastrear las GPU que se venden para impedir que un país construya uno de estos centros, poner un límite al poder computacional que puede usarse para entrenar una IA y reservarlas a campos muy específicos y sin conectarlas a Internet.
“No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo. Apagadlo todo”, concluye Yudkowsky.
✕
Accede a tu cuenta para comentar