Cargando...

Tecnología

¿Por qué no nos aniquilará la IA?

La aniquilación es el menor de nuestros problemas cuando hablamos de IAs

Ciudad siendo bombardeada 1987599Pixabay

¿Qué es la inteligencia artificial? A estas alturas de la película deberíamos tener una idea aproximada de qué se trata, pero parece que se nos resiste. Hace años, cuando la información a disposición del público era muy escasa y las IAs estaban relegadas a la ciencia ficción, fantaseamos con distopías en las que una mente electrónica sometía a la humanidad. Mátrix, Ultrón, HAL 9000, Skynet… Ingenios digitales que se habían vuelto contra sus inventores. Una consecuencia del llamado “síndrome de Frankenstein”, por el cual tendemos a desconfiar de nuestras propias creaciones. Ahora internet, tan solo unos años después, internet está repleto de información de primera calidad sobre la inteligencia artificial. Incluso podemos trastear con ellas, conversar y pedirles deseos como si fueran el genio de la lámpara. Deberíamos haber entendido que acarrean peligros, pero que nada tienen que ver con nuestra extinción.

Salvo algunas figuras mediáticas de corte empresarial o filosófico, los verdaderos expertos en el funcionamiento de estas tecnologías descartan la aniquilación de los humanos. Y, sin embargo, siguen apareciendo titulares y declaraciones sobre el gran peligro que existe para nuestra especie si las inteligencias artificiales se revelan. ¿Cómo es posible? O, lo que tal vez es más interesante en la práctica… ¿Por qué están tan tranquilos los expertos? ¿Cómo pueden estar tan seguros de que las IAs no amenazan nuestra supervivencia como especie? Empecemos por el principio, porque hay que hablar de matemáticas.

Matemáticas que engañan

Cuando hablamos de una inteligencia artificial nos estamos refiriendo a un puñado de números operando entre sí. Multiplicaciones de matrices, mayormente, que son aquellos paréntesis llenos de números en filas y columnas. Estas matemáticas permiten almacenar información de una forma muy interesante, porque los números de la matriz pueden cambiar si le hacemos las multiplicaciones adecuadas de tal modo que “actualizan” la información que contienen de manera muy eficiente. Podríamos decir que esta manera de “guardar” información matemáticamente es lo suficientemente flexible como para adaptarse y plasmar tendencias que nos resultan útiles. Eso es lo que hace una inteligencia artificial dicho de forma extremadamente burda: encontrar tendencias y adaptarse a la nueva situación para dar la respuesta a esa tendencia que le hemos mostrado previamente.

Por ejemplo: las palabras que haya escritas condicionarán la siguiente por escribir y, en función de los casos que le hayamos mostrado a la IA, podrá seguir esa tendencia con la palabra adecuada. En nada de esto interviene una voluntad y aunque se tomara ciertas libertades impredecibles para cumplir nuestras peticiones, estas llegarían a materializarse tanto como nosotros quisiéramos permitirlo.

El verdadero peligro

La clave está en entender que, posiblemente, sí podríamos (con el tiempo) diseñar una inteligencia artificial capaz de tomar el control del planeta, pero ¿por qué íbamos a hacer eso? Las inteligencias artificiales sirven a propósitos concretos, incluso las más flexibles, y hay buenos motivos para limitar su capacidad de actuación, de hecho, motivos mucho más prosaicos que la extinción. Por ejemplo, las IAs se pueden equivocar y, aunque tengan razón, pueden llegar a conclusiones que no queramos aplicar. No tiene sentido dotarles de la autonomía para llevar a cabo todas estas acciones sin una consulta previa. Dicho de otro modo: de la misma manera que nos conviene diseñar armas con seguros para que no se disparen sin querer, las inteligencias artificiales serán diseñadas para cumplir ciertos estándares de seguridad. Estándares que ni siquiera tienen que ser motivados por la ética, sino por la cuenta que les pueda traer a las empresas tecnológicas.

Si no queremos que una IA tenga acceso a la red, no la tendrá. Y, por supuesto, si no queremos que pueda construir autónomamente elementos tangibles (como robots o armas), será cuestión de limitar todo esto. Es cierto que ponerle límites a la IA es como ponérselos al campo, pero conviene que lo hagamos. En cualquier caso, el verdadero peligro de estas tecnologías es otro: es su uso poco ético para fines propagandísticos o para transgredir los derechos de imagen o intelectuales de una persona. Tendremos que enfrentarnos al cisma entre Occidente y Asia que se verá acrecentado por la diferente manera de conceptualizar las IAs, sus límites y sus aplicaciones. Y, por supuesto, nos encontraremos con cierta zozobra en el mercado laboral que no se corregirá de inmediato. Nada nos hace pensar que debamos preocuparnos de una aniquilación o, al menos, no por la IA. Porque mientras nos preocupamos porque la tecnología cumpla las profecías de la ciencia ficción, pasamos por alto que los monstruos siempre han sido de carne y hueso.

QUE NO TE LA CUELEN:

  • Nunca podemos estar totalmente seguros de nada, pero del mismo modo que no tememos que, por ejemplo, los Andorranos se levanten en armas contra San Marino, tampoco tenemos motivos para temer una extinción de la humanidad provocada por IAs. Esa es la clave, no la implausibilidad teórica, sino la improbabilidad, la falta de motivos para elegir ese futuro frente a otros más parsimoniosos. Los peligros existen, pero son otros, y no estamos condenados a sufrirlos.

REFERENCIAS (MLA):

  • OpenAI(2022) CHATGPT: Optimizing language models for dialogue, OpenAI. OpenAI.Available at: https://openai.com/blog/chatgpt/(Accessed:December 16, 2022).
  • Pichai, S.(2023) An important next step on our ai journey, Google. Google. Available at: https://blog.google/technology/ai/bard-google-ai-search-updates/(Accessed: February 10, 2023).
  • Reinventingsearch with a new AI-powered Microsoft Bing and EDGE, your copilot for the web(2023) The Official Microsoft Blog. Available at: https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/(Accessed:February 10, 2023).