Cargando...

Inteligencia artificial

El “padrino de la IA” abandona Google y avisa de sus peligros: “ya no podrá saber lo que es verdad”

Geoffrey Hinton fue fundamental en el desarrollo de las redes neuronales que usan las inteligencias artificiales generativas

El “padrino de la IA” abandona Google y avisa de sus peligros: “ya no podrá saber lo que es verdad”. La RazónLa Razón

El doctor Geoffrey Hinton tiene un historial como pocos en el campo de la inteligencia artificial. Este británico de 75 años desarrolló en 2012, junto a Ilya Sutskever y Alex Krishevsky, una red neuronal capaz de analizar miles de fotografías y aprender por si misma a identificar elementos comunes en ellas: animales, personas, objetos, etc. Esta tecnología se encuentra en la base del funcionamiento de chatbots como los que posteriormente crearon OpenAIy Googley por ella recibió en 2018, junto a sus colegas Sutskever, hoy jefe científico en OpenAI, y Krishevsky, el premio Turing, considerado el Nobel de la computación. Sin embargo, en 2023, en pleno auge de las herramientas de inteligencia artificial, se arrepiente de su trabajo. “Me consuelo pensando la excusa típica: si no lo hubiera hecho yo, otros lo habrían conseguido”, ha señalado Hinton al New York Times.

El considerado como “el padrino de la inteligencia artificial” ha abandonado Google tras una década trabajando para la compañía que compró la suya por 44 millones de dólares en 2012. Ahora se siente con libertad para alertar de los peligros de la inteligencia artificial.

La carrera por la IA que puede ser imposible detener

Hasta el año pasado, Hinton estuvo de acuerdo en cómo Google estaba enfocando la inteligencia artificial sin apresurarse a sacar nada al mercado que pudiera causar algún tipo de daño. Pero entonces llegó OpenAI con el éxito fulgurante de ChatGPT, lanzada el pasado 30 de noviembre, lo que ha llevado a Google a acelerar sus planes.

Microsoft, que ha realizado una fuerte inversión en OpenAI cifrada en 10.000 millones de dólares, comenzó a integrar GPT-4, la última versión del modelo de lenguaje que emplea ChatGPT, y DALL-E en sus productos el pasado febrero. Ahí comenzó la carrera entre las grandes tecnológicas por llevar la IA al consumidor final en una amplia variedad de servicios que ha despertado las alarmas en parte del sector tecnológico, una competición que Hinton cree que puede ser imposible detener.

La preocupación más inmediata de Hinton es cómo Internet se va a ver inundada de contenidos (imagen, vídeo y texto) falsos generados por IA y el usuario “ya no va a ser capaz de saber que es verdad”, pero no es la única. Cree que tendrá un gran impacto en el mercado laboral y que podrá reemplazar trabajos repetitivos que ahora realizan personas como asistentes legales, asistentes personales y traductores, entre otros. Hinton no se había manifestado hasta ahora porque prefería no criticar a Google u otras compañías tecnológicas hasta haber abandona su trabajo.

“No escalen más esta tecnología hasta que hayan entendido si pueden controlarla”

La idea de que estas cosas podrían volverse más inteligentes que las personas, pocos lo creían. La mayoría pensó que estaba muy lejos, yo también. Pensé que faltaban entre 30 y 50 años, incluso más. Obviamente, ya no pienso así”, explica Hinton. Este pionero de la inteligencia artificial comenzó a cambiar su punto de vista el año pasado, conforme Google y OpenAI comenzaron a entrenar modelos de lenguaje con cantidades de datos mucho mayores que las empleadas hasta entonces y vio como en algunos aspectos lograban eclipsar a la inteligencia humana. “Mira cómo eran las cosas hace cinco años y cómo son ahora. Fíjate en la diferencia y piensa cómo será más adelante. Da miedo”, afirma Hinton al medio.

Uno de los aspectos que más preocupan a Hinton es la capacidad de los modelos de lenguaje de presentar comportamientos inesperados, algo que puede convertirse en un problema conforme las compañías permiten a sistemas de inteligencia artificial no solo generar su propio código sino ejecutarlo por su cuenta.

En opinión de Hinton, esta carrera solo se detendrá cuando se regulen las inteligencias artificiales a nivel global. Y aún así, “es difícil ver como se puede evitar que quien tenga malas intenciones lo use para cosas malas”.

Al contrario de lo que sucede con otras tecnologías de riesgo como las armas nucleares, Hinton asegura que no hay forma de saber si un país o una empresa está trabajando en esta tecnología en secreto y advierte a las grandes tecnológicas: “No creo que deban escalar más esta tecnología mientras no hayan entendido si pueden controlarla”.