Regulación de la Inteligencia ARtificial
Publicado en El País de Cali el 22 de Agosto del 2023
En su más reciente entrega, la revista Foreign Affairs hace un análisis interesante sobre los retos de la regulación de la inteligencia artificial. El artículo inicia con una puesta en escena del año 2035. En este año, según el autor Daniel Liévano, la inteligencia artificial (IA) es omnipresente en la sociedad y en la vida del ser humano; opera, entre otras cosas, aerolíneas, hospitales y hasta los casos de la justicia. Esta revolución deriva en un escenario de productividad económica nunca antes vista, con oportunidades de negocios inimaginables que escalan a gran velocidad, y generan avances importantes en la calidad de vida de los humanos.
Sin embargo, la contraparte de este avance tecnológico para el año 2035, según Liévano, es que el mundo es cada vez más impredecible y frágil, dado que terroristas están buscando maneras para utilizar la IA y tener un mayor impacto; con el objetivo de vulnerar las herramientas cibernéticas e inteligentes que tienen los Estados y las personas, para protegerse. Además, existe, para ese entonces, un éxodo de trabajadores de cuello blanco, que son reemplazados por algoritmos u otro tipo de tecnologías que hoy no dimensionamos.
Este escenario no es muy lejano. Hoy en día ya se están dando discusiones sobre los derechos de autor de la inteligencia artificial en obras de arte, dada la capacidad de esta de producirlas. Herramientas como ChatGPT hoy también pueden escribir y redactar textos enteros a partir de una corta sugerencia de un tema. Estas, y otras capacidades que la tecnología desarrollará, solo mejorarán. Según la Ley de Moore, el número de transistores en un microprocesador se duplica cada dos años, haciendo que sean cada vez más potentes y capaces de ejecutar tareas más complejas. Por ejemplo, según el artículo de Liévano, cuando la compañía OpenAI lanzó en 2018 la primera versión de ChatGPT con el modelo GPT-1, este era capaz de considerar 117 millones de parámetros. Hoy en día, en la cuarta iteración de ChatGPT, con el modelo GPT-4, el programa puede manejar 1 trillón de parámetros.
En otras palabras, los sistemas más avanzados de inteligencia artificial, aquellos considerados en la vanguardia, usan cinco billones más poder de computación que los modelos de hace 10 años. Estos avances veloces hacen que, en unos cinco años, los modelos de inteligencia artificial puedan llegar a considerar 100 trillones de parámetros, equivalentes al número de sinapsis en un cerebro humano. Esta capacidad de cómputo, al igual que cualquier tecnología, podrá ser utilizada para el bien o para el mal, todo depende del usuario.
Por consiguiente, cualquier regulación sobre el uso de la inteligencia artificial debe ser de carácter global. De lo contrario, la tecnología será adoptada por actores inescrupulosos que buscarían adoptarla para sus fines e intereses oscuros. Esto a su vez crearía un nuevo orden mundial, alejado de los Estados, donde empresas de alta tecnología y demás actores establecerán un orden tecnopolar, basado en el poder cibernético. Por este motivo, es importante que cualquier regulación, sea también construida por Estados y empresas del sector, dado su carácter técnico y la capacidad de la tecnología de sobrepasar las barreras geográficas y estales. De igual forma, es importante que la regulación sea lo suficientemente flexible para poder ser modificada de acuerdo con las nuevas amenazas tecnológicas, pero lo suficientemente robusta para sostenerse en el tiempo. De lo contrario, ser crearían nuevas inequidades globales donde, cómo dijo Tucídides sobre la guerra del Peloponeso, “los fuertes hacen lo que tienen el poder de hacer y los débiles sufren lo que deben.”
MARIO CARVAJAL CABAL
Líder de Asuntos Públicos para IDDEA Comunicaciones
Twitter: @Mariocarvajal9C