Cargando...

Inteligencia artificial

Expertos y líderes de la industria alertan del riesgo de extinción humana por la IA

Entre los más de 350 firmantes de la declaración se encuentran los CEO de tres de las principales compañías de IA: OpenAI, Google DeepMind y Anthropic

Expertos y líderes de la industria alertan del riesgo de extinción humana por la IA La RazónLa Razón

Un grupo de líderes de la industria y expertos en inteligencia artificial ha realizado una declaración conjunta en la que alertan del peligro de extinción humana como consecuencia de la inteligencia artificial. La breve declaración, de solo 22 palabras en su redacción en inglés, ha sido publicada este martes por la organización sin ánimo de lucro Centro para la Seguridad de la IA (CAIS)y está avalada por más de 350 firmas.

Entre los líderes de la industria que la suscriben se encuentran los CEO de OpenAI (Sam Altman), Google DeepMind (Demis Hassabis) y Anthropic (Dario Almodei) junto al CTO de Microsoft (Bruce Schneier), lo que deja a Meta como la única gran empresa tecnológica, que está desarrollando grandes modelos de lenguaje, sin presencia en el documento. Otros firmantes son ingenieros e investigadores expertos en inteligencia artificial como Geoffrey Hinton, considerado como “el padrino de la IA” por su trabajo en redes neuronales que le valió el premio Turing en 2018 junto a Yoshua Bengio, también firmante, y Yann LeCun quien actualmente lidera las investigaciones de Meta en IA pero no ha suscrito la declaración. Entre los muchos nombres destacados también se encuentran los de los científicos David Silver e Ilya Sutskever que han trabajado en cada versión de GPT.

Cómo una guerra nuclear o una pandemia

El mensaje consensuado entre los más de 350 expertos dice: “Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear.

Según ha explicado Dan Hendrycks, director ejecutivo de CAIS, la brevedad del mensaje responde al objetivo de agrupar el mayor número de expertos que pueden estar de acuerdo en el diagnóstico pero no en el camino a seguir. También que esta declaración supone para algunos de los firmantes exponer públicamente por primera vez sus preocupaciones sobre la IA. “Hay una idea equivocada pero muy común, incluso en la comunidad IA, de que se trata solo de un puñado de catastrofistas, pero muchas personas expresan en privado su preocupación por estas cosas”, ha afirmado Hendrycks.

Según el CAIS, esta declaración representa una “histórica coalición de expertos en IA estableciendo el riesgo de extinción a causa de los futuros sistemas de IA avanzados como uno de los problemas más importantes del mundo”.

Una nueva alerta

Este nuevo aviso se une a la que ya es una amplia serie de opiniones y mensajes que están alertando de los riesgos de una inteligencia artificial general, más avanzada que las actuales y capaz de realizar una amplia variedad de tareas mejor que la humana, para el futuro de la sociedad.

En marzo, más de 1.000 expertos y personalidades del mundo tecnológico, entre las que se encontraba Elon Musk, pedían una moratoria de seis meses en el entrenamiento de nuevas inteligencias artificiales mientras se desarrollaban protocolos de seguridad. Posteriormente, se han unido otras como las de los investigadores Geoffrey Hinton y Eliezer Yudkowsky, el jefe de IA del pentágono Craig Martell o el propio Sam Altman, entre otras.

Este último caso es realmente curioso por tratarse de quien es. OpenAI es la empresa que actualmente encabeza el pelotón de las compañías IA por su éxito con ChatGPT y la apuesta de Microsoft de integrar sus modelos de lenguaje en su software, pero su CEO no deja de avisar de los riesgos de la inteligencia artificial y ha abogado en reiteradas ocasiones por una regulación. La última vez, en una audiencia frente a un subcomité del Senado estadounidense el pasado 16 de mayo: “Creo que si esta tecnología sale mal, puede salir bastante mal. Queremos trabajar con el gobierno para evitar que eso suceda”, dijo entonces Altman.