¿Sobrevivirán la política y la democracia a la IA?
Daniel Inneratiy reflexiona sobre su impacto en las sociedades libres y su influencia para que los ciudadanos decidan con criterio en las elecciones


Creada:
Última actualización:
Lleva muy poco tiempo entre nosotros, pero la inteligencia artificial (IA) ya se ha convertido en uno de los temas centrales de la agenda mundial. No sólo porque su potencial para mejorar la calidad de vida de los ciudadanos resulta cada día más evidente, sino también por otra cosa: por las consecuencias imprevisibles que su implementación puede provocar en el ámbito político, lo cual abre la puerta a que se debatan temas relacionados con la responsabilidad, la privacidad, la equidad, la ética y, también y sobre todo, la democracia misma. Esas cuestiones son las que aborda Daniel Innerarity (Bilbao, 1959) en «Una teoría crítica de la inteligencia artificial», un libro total, inquietante y esclarecedor sobre la IA, galardonado con el III Premio de Ensayo Eugenio Trías, y en el que el filósofo y profesor titular de filosofía en la Universidad de Zaragoza ofrece una reflexión aguda sobre todo aquello que la inteligencia artificial nos obliga a repensar. En especial, sobre la manera en que, dado que muchas decisiones, cotidianas o políticas, comienzan a delegarse en sofisticados artefactos, la IA puede terminar afectando a valores fundamentales de las sociedades democráticas, como la capacidad de decidir.
«La tecnología es, actualmente, filosofía encubierta; la cuestión es hacerla abiertamente filosófica», se lee al comienzo de este ensayo. Una cita del investigador estadounidense Philip Agre, conocido por sus críticas a la tecnología, y que sirve de base para lo que Innenarity se propone: por un lado, desmenuzar el concepto de decisión democrática; y por el otro, acercarse a la IA desde una perspectiva filosófica y política más acorde con la realidad de estos tiempos.
¿Qué tipo de voluntad popular se está gestando?, se pregunta, en ese sentido, Innenarity, lejos de un determinismo tecnológico pero también lejos de una posición apocalíptica, pues la gran pregunta, en todo caso, puede ser otra: ¿sobrevivirá la política a la informática, al advenimiento, que ya está aquí, de la IA? La respuesta, en todo caso, aún no puede saberse, pero es un hecho, concluye el autor, que no fue la disciplina del cálculo, la racionalidad algorítmica, la que originó la administración política de las sociedades, sino todo lo contrario. Así, la organización política de las sociedades, sostiene Innenarity, desde sus orígenes, siempre ha pretendido tener un cierto grado de automaticidad. Cuando, una vez superada la simpleza de la familia o la tribu, las pequeñas instituciones comenzaron a crecer, también empezaron a necesitar datos y procedimientos que permitieran gestionar una vida en sociedad más compleja que la vida que hasta entonces habían tenido en el núcleo familiar.
Racionalidad algorítmica
En ese sentido, ya desde la época del imperio de Babilonia hubo muchas prácticas de control algorítmico, a través del cálculo y de las probabilidades, por parte de los estados o de los principales actores económicos. Una línea de tiempo que también puede verse en los albores del Estado moderno, durante el primer capitalismo o en la Inglaterra victoriana. Formas de administrar lo público a partir de una racionalidad algorítmica y gracias a la cual hoy en día se planifican políticas de Estado y se establecen procesos para la toma de decisiones conforme a cierto orden. Todo eso que hace que el Estado sea aquello que Thomas Hobbes definió como un «automaton», es decir, el Estado como un «hombre artificial».
Sea como fuere, la perspectiva de este ensayo destaca que se trata de un proceso histórico. De todas maneras aunque la racionalidad algorítmica hunda sus raíces en la historia, la coyuntura ahora es distinta y ya no puede hablarse de racionalidad algorítmica ni de su producto estrella, la inteligencia artificial, sin hablar de política y sin hablar, más que nada, de democracia. Porque se pregunta Innenarity: «¿Quién decide cuando, aparentemente, nadie decide?». O, mejor dicho: ¿qué respuestas posibles hay antes los problemas y las incógnitas que suscita el creciente protagonismo de la razón algorítmica en la delegación de decisiones en la inteligencia artificial? Esas tres posibles respuestas son, destaca el autor, la moratoria, la ética y la crítica política, pues cada una de ellas presupone un tipo diferente de relación entre los humanos y la tecnología, entre nosotros y ellos o, si se prefiere, un tipo diferente de «humanización».
Son muchos los investigadores y profesionales que desde la aparición del ChatGPT plantearon la idea de una moratoria en el desarrollo de ciertas aplicaciones de IA. El movimiento advierte que el impacto de la IA en la sociedad es aún desconocido y para ello creen necesario una pausa para que los legisladores puedan desarrollar marcos regulatorios adecuados y garantizar que la innovación tecnológica esté en línea con los valores humanos y el bienestar social. La propuesta no deja de ser polémica, porque argumentan que no frenaría el progreso y la competitividad en un campo que avanza rápidamente y que resulta beneficioso para la ciencia, la medicina y la carrera espacial. Para que esta propuesta sea sometida a códigos éticos, requiere de una respuesta más. Necesita un complemento ético. En este caso, afirma Innenarity, no se trataría de frenar el desarrollo, sino de orientarlo en un sentido. Pero hablar de sentido es también hablar de hacia dónde avanza la IA o cuál es la dirección que los humanos quieren darle a un automatismo que piense por ellos. Y ahí entra, la tercera respuesta: la necesidad de una perspectiva teórica y crítica, algo muy distinto, señala, de la ética de la inteligencia artificial porque la crítica comienza allí donde terminan los llamamientos a desarrollar una inteligencia artificial responsable y humanista. «La crítica no es una exhortación a hacerlo bien, sino una indagación de las condiciones estructurales que posibilitan o impiden hacerlo bien».
Nuevas definiciones
En lo relativo a las implicaciones democráticas de la inteligencia artificial, el momento histórico, la coyuntura, hace que puedan y deban examinarse de nuevo conceptos como democracia y decisión en lugar de firmar una sentencia sobre las consecuencias de una creciente digitalización. Para la filosofía, cualquier circunstancia es una invitación a revisar conceptos. Y en esta nueva encrucijada tecnológica, para los filósofos, qué mejor que poner a prueba un concepto como democracia, tan sometido a definiciones rutinarias, cuestionables o incluso malentendidos. Un concepto que la corresponde a la filosofía definir, no a la inteligencia artificial .
El objetivo de este libro es pensar una idea de control que, al mismo tiempo, cumpla las expectativas de gobernabilidad del mundo digital, un mundo que no podemos dejar fuera de cualquier comprensión, escala y orientación humanas, pero sobre el que tampoco deberíamos ejercer una forma de sujeción que arruine su performatividad. Se trataría de ir más allá de la ilusión del control y de la renuncia al control.
▲ Lo mejor: Ni apocalíptico ni integrado. Se adentra en el universo de la IA con espíritu crítico y filosófico.
▼ Lo peor: Nada que reclamarle a este ensayo completo, que invita a reflexionar sobre el futuro.