IA y Riesgo Catastrófico

Y. Bengio. (2023). “AI and Catastrophic Risk” en Jorunal of Democracy. Washington: https://www.journalofdemocracy.org/ai-and-catastrophic-risk/ 

*Esta es una síntesis anotada realizada por CIPMEX sobre el texto arriba referido*. Elaborada por Marina Zavala.

En este artículo, el Yoshua Bengio explora los riesgos que supone el rápido avance y empoderamiento de la inteligencia artificial (IA) para la humanidad, enfocándose especialmente en los desafíos que conlleva para la democracia y derechos humanos. En su análisis, el autor desarrolla tres recomendaciones para evitar un resultado catastrófico a causa de la IA: la regulación, la investigación en seguridad y la investigación en contramedidas (Y. Bengio, 2023).  

Una forma de categorizar los daños que puede llegar a provocar la IA es considerando la intencionalidad, es decir, si los operadores humanos causan daño intencionalmente o no con la IA, y el tipo de desalineación involucrada. En la situación a A) la IA es utilizada intencionalmente como una herramienta destructiva, ilustrando una desalineación entre el operador humano malicioso y la sociedad. Ejemplos de esto sería utilizar la IA para generar fraudes masivos o influir en elecciones a través de las redes sociales. En la situación B) la IA se utiliza involuntariamente como una herramienta dañina (por ejemplo, sistemas que discriminan a las mujeres o personas de diferentes razas) demostrando una desalineación entre el operador humano y la IA. La situación C) sería la pérdida de control de un sistema de IA, lo cual puede ocurrir intencionalmente o no, e ilustra una desalineación entre la IA y el operador humano y la sociedad. Esto puede ocurrir generalmente cuando la IA desarrolla un fuerte objetivo de autoconservación, creando potencialmente una amenaza existencial. Esto puede ocurrir intencionalmente o no (Y. Bengio, pa. 6 y 7, 2023).  

A medida que se siguen desarrollando los sistemas de IA y se vuelven más poderosos, estos implican riesgos más severos. En primera instancia, se han planteado preguntas sobre la ética e implicaciones sociales, tal como la desigualdad de datos, que está vinculada al propio funcionamiento de la IA, haciéndola susceptible a reflejar sesgos sociales y llevando a la discriminación de grupos marginados. Otra de las preocupaciones, altamente relevante para la democracia, es la posibilidad de que, a raíz de la ausencia de regulación, el poder y la riqueza se concentren en manos de unos pocos individuos, empresas o países. Además, la IA podría ser utilizada por gobierno para fortalecer su control y poder, erosionando los principios democráticos y los derechos humanos. Por otra parte, a pesar de que la regulación integral y bien aplicada podría reducir considerablemente los riesgos asociados a la aparición de IA peligrosas, no garantiza una protección infalible, ya las regulaciones podrían concentrar el poder y ser perjudiciales para la democracia (Y. Bengio, pa. 9-13, 2023). 

El autor recomienda llevar a cabo investigaciones sobre la IA defensiva que proporcione métodos para reducir la posibilidad de desalineación y pérdida de control de la IA. El autor propone una red multilateral de laboratorios de investigación, los cuales deben de ser independientes, sin fines de lucro y financiados por gobiernos, a la vez que los resultados de las investigaciones deben de permanecer confidenciales. Para llevar a cabo esto, es necesario coordinarse con un organismo globalmente representativo que establezca estándares y protocolos de seguridad para todos los países, incluidos los no democráticos y aquellos que no participan en los esfuerzos de investigaciones de contramedidas. El autor enfatiza que una clara estructura de gobernanza y mecanismos de control y equilibrio pueden asegurar que el enfoque de estos laboratorios sea exclusivamente para el bienestar de la humanidad, así como puede prevenir la captura de intereses comerciales o nacionales y la concentración de poder (Y. Bengio, pa. 15.30, 2023). 

A pesar de que la IA puede facilitar nuestro día a día e indudablemente trae ventajas, es cierto que su desarrollo está avanzando a pasos agigantados, y como menciona el autor, la humanidad, no está preparada para enfrentar los posibles riesgos. A mi parecer, es poca la literatura que aborda la IA y sus efectos negativos para los derechos humanos y democracias, y, sobre todo, la manera de abordarlos. Las recomendaciones que da el autor parecen ser el comienzo de una solución, sin embargo, la posibilidad de que se lleve a cabo una red multilateral de investigación de tal magnitud parece poco probable y demasiado ambicioso, especialmente por la falta de gobernanza global, la competencia y aparente reconfiguración del orden mundial.  Parece ser que, desafortunadamente, la tecnología, y en este caso la IA será una herramienta más para que los líderes mundiales, Estados y grupos de poder sigan acumulando y acrecentando su poder, dificultando la posibilidad de paz y cooperación entre los países, sobre todo las potencias.   

Comentarios