Tribuna

Libertad de expresión o moderación ética

No debería plantearse la innovación como una carrera sin ética, deberíamos proteger el respeto y las opiniones fundadas en el debate público

Amparo Alonso Betanzos
Libertad de expresión o moderación ética
Libertad de expresión o moderación éticaBarrio

El reciente informe de Stanford sobre Inteligencia Artificial (IA) revela un dato importante: el número de incidentes relacionados con usos no éticos de la IA crece exponencialmente, multiplicándose por más de 25 desde 2012. Este fenómeno plantea un debate polarizado sobre cómo debemos enfrentarnos al problema. Por un lado, existen quienes defienden la ausencia de filtros regulatorios bajo argumentos como la imprescindible libertad de expresión, la autorregulación de los usuarios, y que este contexto favorece además la innovación y el avance científico. Por otra parte, un sector creciente aboga por un marco regulatorio que garantice el desarrollo de una IA responsable y centrada en las personas, que les permita a los usuarios confiar en este tipo de tecnologías. Este contraste es particularmente evidente cuando se analizan las posturas de los principales actores globales. Mientras que las grandes multinacionales tecnológicas estadounidenses, que ejercen un dominio casi monopólico en el sector, apoyan cada vez más (y especialmente desde que Trump ha ganado las elecciones presidenciales) un enfoque de innovación sin restricciones, la Unión Europea ha liderado el camino que la ha conducido a convertirse en la primera zona del mundo en implementar regulaciones específicas para la IA. Los críticos de la falta de regulación comparan este escenario con el «salvaje oeste», un territorio a explorar, sin ley ni control. Por el contrario, los detractores de un exceso de normativas sostienen que estas pueden sofocar la creatividad y limitar el progreso. En el informe de Stanford se destaca también que las preocupaciones relacionadas con la IA varían entre regiones. Según su encuesta, en Europa predominan los riesgos asociados con la privacidad, la gobernanza de datos, la transparencia y la igualdad, mientras que en Estados Unidos se prioriza la seguridad, con ambas regiones compartiendo un interés común en la fiabilidad de los sistemas.

En cualquier caso, este debate transciende lo meramente técnico, y pone en evidencia una pregunta de fondo, ¿las decisiones empresariales responden a sus intereses económicos o a una visión ética del debate público?¿es su objetivo mantener a los usuarios enganchados a sus plataformas, o realmente promover principios éticos y la libertad de expresión?

Varios escándalos han puesto de manifiesto los riesgos inherentes a la gestión de datos y contenido en las plataformas tecnológicas. Uno de los más emblemáticos fue el caso de Cambridge Analytica, donde los datos privados de usuarios de Facebook se utilizaron sin autorización con la finalidad de clasificar a los electores en grupos con especial sensibilidad hacia cierto tipo de noticias falsas y sesgadas, para usar este conocimiento con el objetivo de intentar influir en procesos electorales. Este incidente expuso la vulnerabilidad de los usuarios frente a la explotación de sus datos y el impacto de estas prácticas en la democracia. Más recientemente, la adquisición de Twitter (ahora X) por Elon Musk ha reavivado la discusión. Sus decisiones, como la readmisión de Donald Trump tras haber sido baneado por presumible incitación a la violencia durante el ataque al Capitolio norteamericano en 2021, reflejan un cambio drástico en la filosofía de moderación. Musk ha promovido lo que el llama libertad de expresión absoluta como base de la democracia. Sin embargo, esta postura ha abierto un terreno fértil en X para la difusión de desinformación, discursos polarizantes y de mensajes de odio que a menudo generan más interacciones que las opiniones fundamentadas. Esto contradice la idea de que el debate libre conduce al triunfo de la verdad, y ha llevado a muchos usuarios y organizaciones a migrar a alternativas como BlueSky, en rápido crecimiento.

A este panorama se suma el reciente anuncio de Mark Zuckerberg, quien ha declarado que Meta, propietaria de Facebook, Instagram y Whatsapp, eliminará los verificadores de datos y los filtros en nombre de la innovación (a la que podrán dedicar más recursos) y una supuesta ampliación de la libertad de expresión. Hasta ahora, el programa de verificación de hechos de Meta trabajaba con organizaciones independientes para evaluar publicaciones dudosas, etiquetando aquellas marcadas como inexactas y limitando su difusión. Esta moderación será reemplazada por un sistema de «notas comunitarias», inspirado en la estrategia adoptada por X, donde los propios usuarios evaluarán la veracidad de las publicaciones. Esta decisión afecta a los EEUU, y por ahora no existe un calendario de implantación en otras zonas del mundo.

El impacto de esta decisión (tomada tras las muchas presiones del futuro presidente Trump, con Musk formando parte de su nueva Administración al frente del Departamento de Eficiencia Gubernamental), podría ser significativo, especialmente en contextos políticos sensibles, pero también en temas cruciales como la inmigración, la identidad de género o en contenidos relacionados con la salud mental y el suicidio. Al dejar la moderación en manos de los usuarios, se corre el riesgo de amplificar la confusión y la desinformación, con consecuencias graves para la percepción de la realidad. Además, Zuckerberg no ha perdido la oportunidad de criticar la regulación europea, calificándola de excesiva y de lastar la innovación. Este contraste entre la postura más permisiva de Estados Unidos y la regulación más estricta de Europa destaca las tensiones globales en torno a la moderación de contenido, la innovación tecnológica y la responsabilidad ética.

A medida que estas plataformas evolucionan, parece más evidente que proponer una cierta moderación no significa abogar por la censura, sino más bien optar por ella como un mecanismo necesario para proteger a las personas de los riesgos inherentes a la desinformación y los discursos dañinos. Encontrar el equilibrio entre la libertad de expresión y la responsabilidad social es un desafío que definirá el futuro de las redes sociales y su impacto en nuestras sociedades. Las plataformas que usamos deberían ser transparentes en sus políticas, y la moderación equilibrada basada en principios éticos claros e independiente es una posible vía, que implica también una responsabilidad social por parte de estas empresas, permitiéndoles establecer límites claros contra discursos dañinos y, al mismo tiempo, garantizar que no se silencien voces legítimas. No debería plantearse la innovación como una carrera sin ética, deberíamos proteger el respeto y las opiniones fundadas en el debate público. Y también es importante nuestra educación como ciudadanos en las nuevas tecnologías, lo que nos permitiría tener una opinión más crítica sobre las mismas. ¿Dónde trazamos la línea entre la libertad de expresión y la moderación responsable en un entorno digital?

Sin ninguna duda, la IA representa una de las mayores fuerzas transformadoras de nuestro tiempo, y las decisiones que tomemos ahora tendrán un impacto profundo en el futuro. Encontrar un equilibrio entre innovación y responsabilidad es un desafío que no podemos ignorar.

Amparo Alonso Betanzos.Real Academia de Ciencias Exactas, Físicas y Naturales de España.