Tecnología
¿Cómo podría matar humanos la inteligencia artificial?
Geoffrey Hinton, considerado el padrino de la IA por su trabajo en las redes neuronales, responde a esta pregunta en una entrevista con la CNN
Cada vez son más las voces que desde la comunidad científica y tecnológica alertan de los peligros del desarrollo de sistemas de inteligencia artificial al ritmo actual y sin las salvaguardas necesarias. No solo por lo que pueden hacer hoy en día, sino porque su rápida evolución acerca la posibilidad de contar con sistemas de inteligencia artificial general en el horizonte y sus capacidades son cada vez mayores.
El pasado marzo, una carta firmada por más de 1.000 personalidades del mundo de la tecnología pedía detener el entrenamiento de las IA durante seis meses mientras se implementan protocolos de seguridad. Sam Altman, CEO de OpenAI, la empresa responsable de ChatGPT y DALL-E, entre otros modelos de lenguaje, se ha mostrado preocupado por algunos usos que se le pueden dar a estas herramientas y aboga por una regulación. Sundar Pichai, CEO de Google, ha asegurado recientemente que no entienden porque algunas inteligencias artificiales de la compañía aprenden cosas que no habían previsto y expertos en inteligencia artificial como Eliezer Yudkowsky directamente piden que se detengan todos los desarrollos porque cree que al logro de una inteligencia artificial general, mejor que la de los humanos, le seguirá que “toda la vida biológica de la Tierra muera poco después.” Puede parecer una exageración, pero alguien como Stephen Hawkings ya avisó de los riesgos hace años: ”el desarrollo de una inteligencia artificial completa podría traducirse en el fin de la raza humana”, afirmó en 2014.
Igualmente preocupado, aunque no tan apocalíptico, se ha mostrado estos días Geoffrey Hinton. Considerado el “Padrino de la IA” por su participación en el desarrollo de las redes neuronales que le valió el premio Turing, el Nobel de la computación, en 2018 y son parte de la tecnología que emplean estas herramientas.
Hinton, de 75 años, acaba de retirarse y ahora, tras más de una década trabajando en inteligencia artificial para Google, se arrepiente públicamente de su contribución a su desarrollo. Hinton aboga también por una regulación global de las inteligencias artificiales y detener la competición que están llevando entre sí las grandes tecnológicas y muchas otras empresas de menor tamaño.
Este pionero de la IA desveló públicamente su posición en una entrevista con el New York Times este lunes. Allí señaló que los mayores riesgos vendrán de sistemas de inteligencia artificial que generen su propio código y puedan ejecutarlo por su cuenta y este miércoles ha ahondado más en estos riesgos en una entrevista con la CNN.
Preguntado por como podría un sistema de inteligencia artificial podría matar humanos, Hinton señaló que “eventualmente, si llega a ser mucho más inteligente que nosotros, será muy buena manipulando, lo habrá aprendido de nosotros. Y hay muy pocos ejemplos de una cosa más inteligente controlada por una cosa menos inteligente. Y sabe cómo programar, por lo que descubrirá formas de eludir las restricciones que le imponemos. Descubrirá formas de manipular a las personas para que hagan lo que quiera”.
A la pregunta de cómo evitarlo, Hinton reconoce no saber la solución. No considera útil detener los desarrollos porque habrá países como China que continuarán con ellos, en cualquier caso. “Quiero hacer sonar las alarmas y decir que deberíamos preocuparnos seriamente sobre cómo evitar que estas cosas nos controlen y va a ser muy difícil”, añade.