Ciencia y Tecnología
Una inteligencia artificial que razona
Se ha creado ya un símil de razonamiento humano pero estamos lejos de que los ordenadores sean capaces de generar nuevas ideas
Se ha creado ya un símil de razonamiento humano pero estamos lejos de que los ordenadores sean capaces de generar nuevas ideas.
En el último año, la Inteligencia Artificial (IA) se ha llevado gran parte de los titulares tecnológicos a fuerza de vencer a los seres humanos en diferentes campos. Ha derrotado a expertos en juegos como ajedrez, póker o Go. Se ha desarrollado para anticipar correctamente las decisiones del Tribunal Supremo de EE UU y hasta se ha propuesto como candidato presidencial a las pasadas elecciones de aquel país. Estos son algunos de los logros que la IA ha alcanzado y le han valido el título de «amenaza a la humanidad», como la han bautizado Stephen Hawking, Elon Musk o Bill Gates entre otros. El último avance en esta escalada llega de la mano de Google y su programa DeepMind. En dos estudios diferentes, publicados en ArXiv, buscan demostrar que DeepMind es capaz de razonar.
Definir este proceso de pensamiento es muy complejo, pero básicamente se trata de, como explica la RAE, «ordenar y relacionar ideas para llegar a una conclusión». En este sentido, los responsables de DeepMind le han enseñado a establecer relaciones entre lo que «ven», sean animales u objetos, de modo que puede llegar a preguntarse qué hace un elefante en un bar con una copa de martini. Ya no sólo es capaz de deducir las imágenes que ve, sino situarlas en un contexto y llegar a una conclusión. Esto lo consigue tanto en objetos estáticos como en aquellos que se mueven a lo largo del tiempo. De acuerdo con los estudios, en algunos casos el sistema lograba unos resultados que superaban incluso los de los humanos.
El segundo paso fue intentar que la IA predijera adecuadamente el comportamiento de lo que veía, algo que a nosotros nos sirve para atrapar un balón, anticiparnos a una caída o evitar un accidente. Es un proceso más complejo ya que se debe llevar a cabo en milésimas de segundo y en el que están involucradas numerosas variables.
Pese a tratarse de un avance importante, sigue siendo dentro de la misma hoja de ruta que llevamos recorriendo desde hace décadas. DeepMind, al igual que muchos otros sistemas de inteligencia artificial están aprehendiendo (cogiendo algo básicamente), en lugar de aprender, un proceso que involucra incorporar un nuevo conocimiento y utilizarlo luego para resolver un dilema diferente. El razonamiento basado en establecer relaciones es importante para crear un símil de inteligencia humana, pero aún está muy lejos de las capacidades para crear nuevas ideas, una cualidad que permitiría que este tipo de inteligencia comience a evolucionar y deducir por cuenta propia.
Aunque esto es algo que algunos podrían argumentar que ya se ha conseguido, y en dos ocasiones. Una hace más de una década y otra casi simultánea al anuncio de DeepMind. Vamos por orden cronológico. Hace más de diez años, Michael Schmidt y Hod Lipson, de la Universidad de Cornell crearon un programa informático al que bautizaron Eureqa. El objetivo era no sólo procesar de modo lógico la enorme cantidad de datos a los que un ordenador puede tener acceso, sino comenzar a sacar conclusiones de toda esa información. La primera prueba fue sencilla: Eureqa logró deducir y formular, a partir de la misma información que tenía Isaac Newton, la segunda ley del movimiento en apenas unas horas, cuando al genio inglés le tomó años. Este sistema de IA comenzó a hacerse famoso y actualmente más de 800.000 personas se lo han descargado de forma gratuita. Un ejemplo de lo que se consigue con Eureqa es Gurol Suel. Este experto en biología de la Universidad de Texas, incorporó la información del comportamiento de una bacteria a Eureqa, quien no sólo formuló unos cálculos que explicaban los patrones, sino que, debido a que se trataba de ecuaciones muy complejas, se las explicó a Suel para que las entendiera.
El ejemplo más reciente llega de la mano de D. Scott Phoenix y Dileep George, fundadores de Vicarious, una empresa que desarrolla sistemas de IA. Su última criatura, Schema Networks, fue presentada en la 34º Conferencia Internacional de Machine Learning en Sydney.¿Qué hace Schema? Le gustan los videojuegos y básicamente aprende a jugar igual que los humanos: sin leer instrucciones, manuales o ver tutoriales, sino basándose en lo que aprendió con otros juegos y a base de prueba y error. Y también de otro elemento inesperado: imaginación.
Phoenix aseguró en su discurso de presentación de Schema Networks en Australia que los sistema de IA deducen o aprenden que una mesa es una mesa después de ver miles de imágenes de distintas formas y materiales y desde distintos ángulos. Pero un niño que sólo ha visto una mesa de madera, reconoce otra mesa aunque sea de plástico y más pequeña. Para Phoenix esto es parte de imaginación: lo que le ha permitido deducir que, pese a todas las diferencias, el objeto recibía el mismo nombre. Y esa «imaginación» la ha aplicado a la IA: Phoenix ha conseguido que Schema Network descifre los malditos CAPTCHA. Cuando ingresamos a una página, a menudo tenemos que escribir números o letras para demostrar que no somos máquinas. Estas se encuentran curvadas, dadas vuelta, en diferentes formatos...pero son siempre letras y números. Y Schema Network sabe reconocer una mesa de plástico aunque solo haya visto una de madera, perdón, letras y números sin importar su forma.
✕
Accede a tu cuenta para comentar