Publicado en El País de Cali el 11 de Enero del 2022

El inicio del nuevo año ha traído consigo tensiones geopolíticas mundiales, entre ellas el agudizamiento de las relaciones entre Rusia y Ucrania, y la intervención de Putin en Kazajistán. No obstante, la mayor preocupación actual de las tensiones geopolíticas no debería ubicarse en el posible accionar del líder ruso, o de otros actores internacionales. Este debe residir en la utilización de la inteligencia artificial en la guerra.

En su más reciente libro, The Age of AI, Henry A. Kissinger, Eric Schmidt y Daniel Huttenlocher discuten sobre cómo la inteligencia artificial va a afectar el futuro de los seres humanos. Entre los riesgos que describen los autores se encuentra que la interacción de la Inteligencia Artificial (IA) puede hacer que predecir, mantener o limitar conflictos sea más difícil. Esto en parte nace por la tensión natural que existe a nivel internacional, en el cual las potencias compiten por tener el armamento más letal y avanzado tecnológicamente. Este nuevo tipo de carrera armamentista podría derivar en que todos quieran ganarles el pulso a sus rivales, creando armas más sofisticadas e incluyendo mayor accionar artificial.

Según los autores, la Fuerza Aérea de los Estados Unidos desarrolló un programa denominado µZero, en el cual IA ha volado aviones y operado sistemas de radares durante vuelos pilotos. Los diseñadores de este programa lo diseñaron de tal forma que las ‘últimas llamadas’ fueran potestad de la IA y que fuera inalterable. En otras palabras, no existía una manera en la cual los humanos presentes en este vuelo piloto pudieran alterar la decisión final de la IA. Aunque esto fue un ensayo controlado y limitado, dado que buscaba operar radares y hacer un vuelo específico, como afirman los autores, no podemos esperar que los demás países tengan las mismas consideraciones.

El hecho que ya exista esta tecnología hace que el panorama de la guerra cambie. Al fin y al cabo, las guerras en la historia siempre se han hecho con humanos al mando, haciendo que existan ciertos cálculos que pueden predecirse, o unas reglas de juego mayoritariamente reconocidas. Por su parte, la IA puede adaptarse y modificar su comportamiento de una manera impredecible para los humanos.

En diciembre de 2017, Google anuncio que DeepMind (su programa de IA), después de aprender a jugar ajedrez y entrenar consigo mismo un par de horas, pudo derrotar a Stockfish 8, hasta este entonces el sistema más avanzado en este juego. Según los autores del libro, la manera en que lo hizo fue utilizando estrategias que no eran ortodoxas. DeepMind sacrificó piezas que cualquier jugador humano de ajedrez considera valiosas, como por ejemplo la reina, para obtener la victoria.

Teniendo esto en cuenta, los autores se preguntan, ¿qué pasaría si esta lógica se traslada a la guerra? ¿Qué pasaría si un sistema de IA hace un cálculo y diseña una estrategia para ganar una guerra que implique sacrificar un gran número de vidas humanas? Al fin y al cabo, el sistema de IA no sabe o entiende qué es una vida humana, esta es solo un número, una variable más. Por esta razón, es imperativo que las grandes potencias, la comunidad internacional y organizaciones multilaterales pongan unas reglas de juego que limiten la interacción de la IA en los sistemas de guerra. De lo contrario, pronto estaremos a merced de un cálculo de IA en un conflicto.

MARIO CARVAJAL CABAL

Internacionalista y Estudiante de Maestria en Estudios Latinoamericanos de St Antony’s College, University of Oxford

Twitter: @Mariocarvajal9C

Previous
Previous

Gilgamesh

Next
Next

Burocracia