Inteligencia artificial

OpenAi anuncia que su tecnología llega al campo de batalla

El objetivo es mejorar los sistemas de defensa que protegen al personal militar estadounidense de los ataques de aviones no tripulados y otros dispositivos aéreos”, señala el comunicado.

Inteligencia artificial
El objetivo inicial es la prevención de ataques de naves no tripuladas.Designer/JSDesigner/JS

A principios de 2024, las reglas de OpenAI sobre cómo las fuerzas armadas podrían usar su tecnología eran inequívocas. La empresa prohibía a cualquierausar sus modelos para el “desarrollo de armas” o “militares y de guerra”. Eso cambió cuando la web The Intercept informó que OpenAI había suavizado esas restricciones, prohibiendo a cualquiera usar la tecnología para “dañarte a ti mismo o a otros” mediante el desarrollo o uso de armas, herir a otros o destruir propiedades.

OpenAI dijo poco después que trabajaría con el Pentágono en software de ciberseguridad, pero no en armas. Luego, en una publicación en su blog, la empresa compartió que está trabajando en el espacio de seguridad nacional, argumentando que, en las manos adecuadas, la IA podría “ayudar a proteger a las personas, disuadir a los adversarios e incluso prevenir conflictos futuros”.

Sin embargo, ahora OpenAI ha anunciado que su tecnología se implementará directamente en el campo de batalla. La compañía dice que se asociará con la empresa de tecnología de defensa Anduril, un fabricante de drones, sistemas de radar y misiles impulsados ​​por IA, para ayudar a las fuerzas estadounidenses y aliadas a defenderse de los ataques con drones. OpenAI ayudará a construir modelos de IA que “sintetizan rápidamente datos sensibles al tiempo, reducen la carga de los operadores humanos y mejoran el conocimiento de la situación” para derribar drones enemigos, según el comunicado.

No se han publicado detalles, pero el programa se centrará estrictamente en la defensa del personal y de las instalaciones estadounidenses frente a las amenazas aéreas no tripuladas, según Liz Bourgeois, portavoz de OpenAI. “Esta asociación es coherente con nuestras políticas y no implica aprovechar nuestra tecnología para desarrollar sistemas diseñados para dañar a otros”, dijo.

Ahora, OpenAI está orientando su trabajo en materia de seguridad nacional. Si trabajar con los ejércitos o con empresas de tecnología de defensa puede ayudar a garantizar que los países democráticos dominen la carrera de la IA, ha escrito la empresa, hacerlo no es contradictorio con la misión de OpenAI de garantizar que los beneficios de la IA se compartan ampliamente. De hecho, argumenta, ayudará a cumplir esa misión. Este es un gran cambio con respecto a su posición hace apenas un año.

Para entender la rapidez con la que se desarrolló este giro, vale la pena señalar que, mientras la empresa vacilaba en su enfoque del espacio de seguridad nacional, otros en el sector tecnológico se apresuraban a adoptarlo. En pocas palabras: si no lo hacían ellos, alguien más lo haría. “Creemos que una visión democrática de la IA es esencial para liberar todo su potencial y garantizar que sus beneficios se compartan ampliamente – añade el mencionado post de OpenAI -. Creemos que las democracias deben seguir tomando la iniciativa en el desarrollo de la IA, guiadas por valores como la libertad, la equidad y el respeto por los derechos humanos”.

El problema con esto es que una vez firmado un contrato con el sistema de defensa de un país, las leyes pueden ser más flexibles de lo que se pensaba inicialmente y nunca estarán por encima de la conocida frase: “interés nacional”.