Description
Critiquing from a Latin American feminist perspective, Wanda Muñoz opens a debate on initiatives that seek to present artificial intelligence (AI) as a key tool to accelerate the achievement of the Sustainable Development Goals (SDGs).
Haciendo una crítica desde una perspectiva feminista latinoamericana, Wanda Muñoz abre un debate sobre las iniciativas que buscan presentar la inteligencia artificial (IA) como una herramienta clave para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS).
Con agradecimiento sincero a Paola Ricaurte, Mariana Díaz Figueroa y Christian Lemaitre por sus comentarios al primer borrador de este texto.
El más reciente auge de la inteligencia artificial ha venido acompañado del desarrollo de diferentes iniciativas y proyectos que afirman utilizar inteligencia artificial (IA) para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS) en el marco de la Agenda 2030. (UNESCO, s.f.) Sin embargo, existen proyectos que se autodenominan como “IA para los ODS” o “IA para el bienestar social” cuando en realidad no cumplen con criterios reconocidos internacionalmente como indispensables para implementar dicha agenda; por ejemplo, una perspectiva transversal de género o un monitoreo basado en indicadores de derechos humanos que permitan evaluar de manera objetiva y verificable su impacto. De acuerdo con el informe del Global Partnership on Artificial Intelligence - GPAI1 realizado por The Future Society (2021):
Muchas iniciativas dentro del ecosistema de IA responsable tienen métricas poco claras para monitorear el progreso… estas carecen también de metodologías sólidas para evaluar su impacto. Esto dificulta evaluar su desempeño, en particular cuando se trata de avanzar en el progreso hacia los ODS de la ONU. (The Future Society, 2021)
Este artículo explorará dos preguntas:
¿Cuáles son los criterios fundamentales que deberían considerarse para evaluar si un sistema o aplicación de IA contribuye de manera efectiva y comprobable a los ODS?
¿Qué elementos de análisis nos aporta un abordaje feminista de este tema?
Es importante reflexionar sobre estas cuestiones para adoptar una mirada crítica de los discursos sobre aplicaciones de inteligencia artificial que, de manera intencional o no intencional, pueden en realidad replicar modelos de dominación y sistemas de opresión dentro de un mismo país, o a nivel internacional; inclusive si se denominan a sí mismos “IA para el bienestar social”.
Asimismo, es fundamental cuestionar si los enormes recursos que hoy se destinan a la inteligencia artificial “para los ODS” son efectivamente la manera más eficaz de contribuir a su cumplimiento. (IDC, 2022) Sería fundamental contar con estudios comparativos que evalúen si los miles de millones que se invierten (o en algunos casos, malgastan) en inteligencia artificial son la forma más pertinente, eficaz, eficiente, sostenible y con mayor impacto (OCDE, 2019) de cumplir con la Agenda 2030; en particular si se compara con la alternativa de destinar esos mismos recursos a las organizaciones de base que hoy en día enfrentan enormes dificultades para acceder a los medios necesarios para implementar sus propios proyectos, diseñados localmente.
Un análisis feminista de los impactos diferenciados de la utilización de la inteligencia artificial
De acuerdo con la UNESCO (2021), la inteligencia artificial puede definirse como aquellos “sistemas tecnológicos con capacidades de procesar información de una manera que se asemeje a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control”. Entre los desafíos, se reconocen diferentes riesgos y afectaciones que son cada vez más identificados y denunciados, en particular desde la sociedad civil y la academia.
Tomemos como base la definición de Márgara Millán (2019), que dice que hoy los feminismos son
(…) algo más parecido a una plataforma antisistémica de lucha contra la violencia, que reconoce que la situación diversa de las mujeres y sus distintas opresiones y violencias están contenidas en una estructura capitalista, colonial y patriarcal. Y que son esas estructuras las que hay que transformar (…)
Si analizamos los riesgos y afectaciones de la inteligencia artificial desde esa perspectiva, veremos que estos no tienen un impacto similar a nivel global, ni entre los grupos poblaciones que enfrentan esas distintas opresiones y violencias. Por ejemplo:
Los sesgos en sistemas de inteligencia artificial tienen un impacto negativo desproporcionado en grupos históricamente vulnerados, en particular mujeres y personas racializadas, como lo han demostrado Dr. Joy Buolamwini, Dr. Timnit Gebru e Inioluwa Deborah Raji. (Buolamwini & Gebru, s. f.; Gebru, 2020; Hao, 2020)
La militarización de la inteligencia artificial tendría un impacto desproporcionado en el sur Global, países en conflicto y grupos históricamente marginados; como lo han hecho otras nuevas tecnologías para uso militar.2
Las deepfakes, además de un posible riesgo a la seguridad internacional, ya están siendo utilizados para cometer violencia de género en línea. (Venema, 2020)
La utilización de reconocimiento facial facilitado por inteligencia artificial para fortalecer la vigilancia policial se está utilizando contra la sociedad civil organizada, incluyendo organizaciones feministas que protestan contra el feminicidio y otras formas de violencia de género. (Pérez Villoro & Robles, 2020).
La amplificación de desinformación masiva puede fungir impunemente como facilitador de genocidio por su amplificación de discursos de odio, como en el caso del conflicto actual en Etiopía. (Mwai, 2021)
La falta de transparencia, rendición de cuentas y reparación del daño en su uso por la toma de decisiones en política pública afecta en su mayoría a grupos marginados. (Engler, 2021; Scheneider, 2020; Ledford, 2019)
Existen empresas que utilizan mano de obra en condiciones de empleos no dignas, en campos de refugiados y zonas periurbanas en situación de pobreza, para etiquetar imágenes utilizadas en IA. (Jones, 2021)
Un análisis feminista nos permite entonces identificar esta clara tendencia: las consecuencias negativas impactan de manera desproporcionada a grupos marginalizados, especialmente del sur global; esto, al mismo tiempo que una gran parte de quienes producen la inteligencia artificial mantiene que no es necesaria ninguna regulación, pues alegan que esto impediría la innovación y limitaría la competitividad. Ante este panorama, constatamos que la inteligencia artificial puede contribuir a mantener una desigualdad que fortalece las estructuras actuales de poder y reproduce los sistemas de opresión históricos, si no se toman medidas específicas para evitarlo.
Ahora bien, en los últimos años, a nivel internacional se han desarrollado tendencias y narrativas que buscan promover la utilización de inteligencia artificial como acelerador de los Objetivos de Desarrollo Sostenible. Ejemplos de estas iniciativas incluyen AI for Good3, SDG AI LAB4, IRCAI5 y Global Partnership for Artificial Intelligence6, cuya misión es específicamente
“apoyar el desarrollo y uso de inteligencia artificial tomando como base los derechos humanos, la inclusión, la diversidad, la innovación y el crecimiento económico, buscando responder a los Objetivos de Desarrollo Sostenible de Naciones Unidas”. (Benjio & Chatila, 2020)
Estas iniciativas tienen en común el objetivo de buscar documentar y promover el uso de inteligencia artificial en sectores específicos vinculados con los ODS, como el cambio climático y la biodiversidad, la educación y el empleo, e incluyen frecuentemente proyectos desarrollados ―al menos en parte― en el norte global, e implementados en el sur global. En otras palabras, estamos hablando de proyectos de cooperación internacional.
En este contexto, como lo afirman Vinuesa et al. (2019), un desafío importante de los desarrollos basados en inteligencia artificial es que se basan principalmente en las necesidades y los valores de aquellos países en que se desarrolla la IA. De ahí la importancia de identificar, visibilizar, documentar, sistematizar, financiar e impulsar a las iniciativas de este tipo que son desarrolladas en los países del sur global.7
Por otra parte, si bien la cooperación internacional y multilateral ha acordado principios y metodologías para implementar dicha cooperación de manera pertinente, eficaz, eficiente, sostenible y con impacto claramente documentado, las organizaciones e instituciones que desarrollan inteligencia artificial no necesariamente conocen y trabajan con esas metodologías. Esto es tan sorprendente como inaceptable: para contribuir al cumplimiento de los ODS, la respuesta no puede limitarse a desarrollar una aplicación de IA en un sector como salud o empleo; o identificar como “beneficiarios”8 a personas con discapacidad o mujeres en situación de pobreza. Examinaremos esto en mayor detalle en el siguiente apartado.
El bienestar social no se improvisa: medidas necesarias para garantizar que las aplicaciones de inteligencia artificial realmente contribuyan al cumplimiento de los ODS
Es innegable que la inteligencia artificial puede tener un impacto positivo en diferentes sectores y beneficiar a personas en situación de vulnerabilidad y marginación.9 Sin embargo, de acuerdo con Vinuesa et al.,
la gran riqueza impulsada por la tecnología que la inteligencia artificial tiene el potencial de crear puede ir principalmente hacia quienes ya tienen mayor educación y bienestar; mientras que el desplazamiento laboral deja a otras personas en peor situación. La creciente importancia económica de la IA puede resultar en un aumento de desigualdades debidas a la desigual distribución de la educación y de los recursos informáticos en todo el mundo. (2020, p. 6)
Amina Mohamed, Vice Secretaria de Naciones Unidas, lo ha expresado también:
Por un lado, la inteligencia artificial puede permitir un progreso más rápido en muchos de los Objetivos de Desarrollo Sostenible a través de soluciones innovadoras, un uso más eficiente de los recursos y una mejor toma de decisiones a través del análisis de big data. Por otro lado, puede perpetuar sesgos y desigualdades; o incluso usarse intencionalmente para violar los derechos humanos y desarrollar aplicaciones que perjudiquen a individuos y sociedades. (UN, 2020)
¿Qué nos señalan estas afirmaciones? Nuevamente encontramos que los riesgos, daños y beneficios de la inteligencia artificial no están repartidos de manera igualitaria: afectan más a quienes ya están marginalizados por la pobreza y sistemas históricos de opresión como el racismo, el sexismo, el colonialismo y el capacitismo.
Cualquier proyecto que no tome medidas específicas para visibilizar y responder a esta discriminación sistémica, contribuirá a fortalecerla. Y en el caso de la inteligencia artificial, si no se toman estas medidas, las consecuencias pueden ser todavía más graves por el alcance y la velocidad con las que sus aplicaciones se producen y reproducen; así como por los montos económicos extraordinarios que se están utilizando para dichos sistemas se desarrollen e implementen sin que existan estudios comparativos que demuestren que ese es el uso más eficaz de esos recursos.
¿Qué medidas son las que deben tomarse? Las metodologías exitosas —por ejemplo, las políticas que buscan garantizar la igualdad de género y el acceso a derechos de personas con discapacidad— aplicadas a diferentes sectores se basan en un enfoque “de doble vía” que busca, por un lado, implementar acciones específicas para fomentar la autonomía, capacidades y conocimientos de derechos por parte de las personas pertenecientes a grupos vulnerados; y por otro, tomar medidas específicas para que los proyectos, servicios, programas y políticas públicas sean realmente inclusivos y respondan a las prioridades de todos y todas.10 Esto se fundamenta, también, en el principio de la Agenda 2030 “No dejar a nadie atrás”. (GNUDS, 2020)
A partir, entonces, de dos elementos:
Una perspectiva feminista que nos permita reconocer que la inteligencia artificial replica y amplifica sesgos y afectaciones de manera desproporcionada contra grupos marginalizados y el sur global,
Constatar que de acuerdo con metodologías bien establecidas y reconocidas internacionalmente, es necesario tomar acciones específicas para contribuir a los ODS bajo el principio de “No dejar a nadie atrás”, se propone que todo proyecto con aplicaciones de inteligencia artificial que afirme tener como objetivo contribuir al bienestar social o a los ODS debe cumplir, monitorear e informar sobre los siguientes estándares mínimos:
Establecer alianzas formales con organizaciones representativas de los grupos que se busca beneficiar. Dicha alianzas (no solo consultas) son esenciales desde una perspectiva de derechos humanos y para garantizar la relevancia, aceptabilidad, utilidad y sostenibilidad de cualquier proyecto, incluyendo aquellos que involucran aplicaciones de inteligencia artificial.
Mapear las causas del problema que se busca resolver, y las causas subyacentes (o “causas raíz”). Este mapeo (frecuentemente realizado en la forma de “árbol de problemas”11) debe ser realizado con diversos actores incluyendo a las personas que se quiere beneficiar. El objetivo es entender bien la problemática y las soluciones que se requieren para responder a ella; y dentro de ese amplio panorama, identificar con mayor precisión si se requiere o no una solución que involucre IA; además de cómo vincular con otras iniciativas y actores que ya están buscando responder a los mismos problemas. Es fundamental que este sea un análisis realizado de manera profesional y con los actores relevantes de sociedad civil y autoridades responsables, de manera que se analice honestamente si realmente es necesaria una aplicación de IA, a quién beneficiaría y a quién afectaría su utilización y si los recursos disponibles tendrían mayor impacto y sostenibilidad siendo destinados a otros programas.12
Aplicar un enfoque de derechos humanos. Este elemento involucra acciones en diferentes aspectos; se resaltan dos elementos fundamentales (UNSDG, 2003):
La narrativa y documentación del proyecto identifica claramente los derechos humanos relacionados con la temática que se trabaja en instrumentos jurídicamente vinculantes a nivel nacional e internacional, y se busca cumplir con sus principios en la práctica;
Se identifica y menciona explícitamente quiénes son titulares de derechos y de obligaciones del sector en el que se está trabajando.
Vincular con la Agenda 2030 a nivel nacional/local. Los proyectos que incorporen IA con el objetivo de contribuir a los ODS deben estar articulados con las instancias responsables de implementar y monitorear dicha agenda en diferentes sectores. Esto, con el fin de garantizar que dichos proyectos realmente respondan a las prioridades a nivel nacional, que están coordinados con otras instancias e iniciativas para responder a los mismos desafíos y que sus resultados se contabilizan de acuerdo con las metas e indicadores establecidos en cada país.
Planificar, diseñar, implementar, monitorear y evaluar los proyectos que utilizan sistemas de IA con las organizaciones representativas de los grupos que se busca beneficiar.
Incluir indicadores de derechos humanos en sus planes de monitoreo y evaluación. Dichos indicadores deben de ser definidos y acordados sobre la base de derechos humanos y de manera participativa. (ACNUDH, 2012)
Aplicar una perspectiva de género, como lo requiere, también, la Recomendación de la Ética en Inteligencia Artificial de la UNESCO (UNESCO, 2021) e interseccionalidad13 que involucre, de acuerdo con el enfoque de doble vía:
Tomar iniciativas específicas para garantizar que mujeres, personas de diferente orientaciones sexuales e identidades de género, diferentes grupos etarios y otras características conozcan sus derechos y tengan la información, recursos y habilidades necesarias para beneficiar del proyecto con aplicaciones de IA.
Asegurarse de que todas las iniciativas, actividades, sistemas del proyecto que incluye IA son diseñadas, implementadas y evaluadas con la participación de mujeres, personas de diferentes orientaciones sexuales e identidades de género y otras características diversas, y tomando en consideración sus prioridades.
Entre las organizaciones representativas se encuentran las de mujeres, personas con discapacidad, afrodescendientes, pueblos originarios, migrantes, personas viviendo con VIH, personas con diversas orientaciones sexuales e identidades de género, víctimas de conflictos y poblaciones zonas rurales y remotas, entre otras.
Desarrollar un plan de sostenibilidad que incorpore acciones y designe recursos específicos a lo largo del proyecto con el objetivo de garantizar que este podrá continuar después de la intervención externa, o al menos quedarán habilidades y recursos instalados para evitar que se cree dependencia del apoyo externo. Esto puede incluir el desarrollo de capacidades de los actores locales para implementar un proyecto similar y apoyo para identificar recursos económicos para su continuación, incluyendo la movilización de recursos nacionales. Esto es fundamental para diferenciarse de proyectos con aplicaciones de IA autollamados “para el bienestar social” cuyo objetivo principal es en realidad buscan comercializar sus propios productos en el sur global y fomentar una dependencia de productos del exterior.
Analizar el impacto en el medio ambiente y tomar medidas para mitigarlo.
Establecer medidas de salvaguardia y protección con el objetivo de proteger a la población beneficiaria de posible acoso y abuso sexual. (OXFAM, s.f; CARE, 2022)
Repartir los recursos de forma equitativa de tal manera que se reconozcan también económicamente las contribuciones del sur global y sus organizaciones. De no hacerlo, se perpetúa la desigualdad al mantener a quienes participan en los proyectos como simples “beneficiarios”, mientras la mayor parte de los recursos e ingresos de dichos proyectos se mantienen en el norte global.
Por otra parte, considerando que algunos proyectos con aplicaciones de “inteligencia artificial para el bienestar social” provienen del norte global (donde se produce la mayor parte de la tecnología) y se implementan en sur global (donde se implementan los proyectos), conviene también analizar la temática desde una perspectiva de política exterior feminista.
De acuerdo con el Centro de Política Exterior Feminista (CFFP, 2022) una política exterior feminista puede definirse como “un marco político centrado en el bienestar de las personas marginadas que busca lanzar procesos de autorreflexión con respecto a los sistemas globales jerárquicos de política exterior desde el punto de vista de grupos históricamente marginados.” Este mismo Centro afirma que una política exterior feminista permite:
elevar las experiencias y la agencia de las mujeres y los grupos marginalizados para examinar las fuerzas destructivas del patriarcado, la colonización, la heteronormatividad, el capitalismo, el racismo, el imperialismo y el militarismo. Un enfoque feminista de la política exterior proporciona una lente poderosa a través de la cual podemos interrogar los violentos sistemas globales de poder que dejan a millones de personas en estados perpetuos de vulnerabilidad. (CFFP, 2022)
Desde esta perspectiva, podemos cuestionar las prioridades de quienes desarrollan inteligencia artificial en el norte global “para el bienestar social”. ¿Qué sistemas de poder se fortalecen cuando se asignan cantidades millonarias de recursos (públicos o privados) a instituciones del norte global desarrolladoras de inteligencia artificial, bajo pretexto de que son para el "bienestar social", cuando estas no incorporan las mínimas buenas prácticas y metodologías mencionadas anteriormente, que son fundamentales si realmente se busca cambiar la balanza de poder hacia un mundo más equitativo?
¿Es la inversión en desarrollos de inteligencia artificial piloteados por el norte global la mejor utilización de recursos para promover el bienestar social de quienes siguen viviendo hoy en día bajo diversas opresiones?
La cooperación internacional es fundamental y ha impulsando un sinnúmero de proyectos y avances alrededor del mundo – pero esta solo es significativa cuando cumple con los criterios enumerados anteriormente y cuestiona claramente los sistemas de opresión en que se desenvuelve.
Por estas razones y muchas otras, es fundamental cuestionar las narrativas de inteligencia artificial para “el bienestar social” desde una crítica feminista: debemos impedir que se sigan perpetuando los sistemas de opresión, incluyendo aquellas utilizaciones de inteligencia artificial que lo hacen sólo de nombre con el fin de contribuir al bienestar social y los Objetivos de Desarrollo Sostenible.
Conclusiones
Al permitir que aplicaciones de la IA se autonombren como “IA para los ODS” sin exigir criterios mínimos de calidad ya establecidos como fundamentales para cumplir con la Agenda 2030, se perpetúa la desigualdad sistémica entre quienes producen tecnología de punta (principalmente, una minoría con privilegios) y quienes la reciben (mayoría históricamente marginalizada, incluyendo la mayoría del sur global). Esto fortalece, también, la noción de que estos últimos no somos más que beneficiarios de soluciones desarrolladas por terceros, en lugar de reconocer que somos actores de nuestro propio bienestar; y nuestros Estados son los titulares de obligaciones para garantizar nuestros derechos.
Un acercamiento feminista al tema nos permite identificar y constatar estos desafíos, lo cual, aunado a un conocimiento de las metodologías concretas para mejorar la calidad de vida y verdadero acceso a derechos en igualdad de condiciones, nos puede llevar realmente a desarrollar sistemas y aplicaciones de inteligencia artificial que respondan verdaderamente a nuestras prioridades y necesidades. Es necesario trabajar desde estas dos perspectivas para proponer respuestas concretas que busquen y logren que la inteligencia artificial realmente sea una herramienta no solo para el bienestar, sino para la implementación de los derechos humanos de quienes han vivido y siguen viviendo en la exclusión y la opresión.
Necesitamos conocer y difundir nuestros derechos y desarrollar la agencia necesaria para poner nuestras propias reglas y parámetros y exigir rendición de cuentas -y en su caso, reparación del daño- de quienes desarrollan e implementan aplicaciones inteligencia artificial, ya sea en el sector académico, público o privado; tanto en el norte como el sur global.
Esto requiere acciones clave como divulgar información sobre derechos humanos y digitales ante la población en general; movilizar a organizaciones feministas y de derechos humanos en estos temas; y desarrollar legislación y estrategias nacionales digitales. También requiere que los organismos internacionales y de Naciones Unidas tomen conciencia de estos desafíos y no promuevan el uso de aplicaciones de inteligencia artificial que solo contribuyen a los ODS en su discurso, contraviniendo las buenas prácticas y los principios que han sido desarrollados por esos mismos organismos internacionales y el andamiaje internacional de los derechos humanos.
Finalmente, no permitamos que la inteligencia artificial se presente como la panacea. El Sur Global no quiere y no necesita ser “un proyecto” más, tampoco necesitamos caridad ni buenas intenciones; sino igualdad de género, justicia social, económica y medioambiental a nivel nacional y en el sistema internacional. Los millones que se invierten en inteligencia artificial “para los ODS” podrían hacer cambios extraordinarios en organizaciones de base, que en la mayor parte de los casos no requieren soluciones de inteligencia artificial como prioridad- eso sí sería una innovación y un desafío a los sistemas que perpetúan la desigualdad a diferentes niveles.14
El camino es largo, pero herramientas como la Recomendación de la UNESCO sobre la ética de la inteligencia artificial15 e iniciativas como la Red de Investigación sobre Inteligencia Artificial Feminista son excelentes vías, recursos e indicadores de que vamos por el camino correcto: otra forma de concebir e implementar la inteligencia artificial es posible.
Recomendaciones
A personas e instituciones desarrolladoras de inteligencia artificial que tengan como objetivo contribuir al bienestar social y los ODS, se recomienda crear alianzas con organizaciones representativas de grupos marginados y capacitarse en metodologías para implementar proyectos en diferentes sectores promoviendo los derechos humanos, la igualdad de género y la justicia social, tal y como lo demanda la Agenda 2030.
A las instancias gubernamentales, se recomienda capacitarse en inteligencia artificial desde una perspectiva de derechos humanos e igualdad de género, desarrollar legislación, establecer estrategias e impulsar diálogos inclusivos a nivel nacional que incluyan la sociedad civil y grupos representativos, y que permitan garantizar que la inteligencia artificial se va a desarrollar, monitorear y evaluar acorde con los derechos humanos y las prioridades nacionales, poniendo en el centro a las poblaciones marginadas de acuerdo con el principio de “No dejar a nadie atrás”.
A la sociedad civil, en particular organizaciones feministas, defensoras de derechos humanos y organizaciones representativas de grupos marginados, se recomienda informarse sobre los desafíos a derechos humanos que representa la inteligencia artificial, exigir diálogos con las instituciones que la desarrollan e instituciones gubernamentales relevantes para garantizar que la inteligencia artificial no se utilice en maneras que contravengan nuestros derechos humanos o avancen agendas internacionales a costa del propio bienestar de la población del sur global.
A organismos internacionales, de Naciones Unidas y agencias de cooperación, se recomienda adoptar una mirada crítica ante las aplicaciones de IA “para los ODS” y exigir que dichos proyectos implementen, por un parte, los mismos estándares que se exigen a todo proyecto de cooperación internacional; y por otra parte, tomen medidas específicas como son aquellas necesarias para obtener el consentimiento libre e informado, garantías al derecho a la privacidad y medidas de reparación del daño por uso de IA, en caso de haberlo.
Referencias
AI for Good. (s.f.). AI + sustainable development goals. https://ai4good.org/ai-for-sdgs/
Austrian Ministry for European and International Affairs. (2021). Safeguarding human control over autonomous weapons systems. https://eventmaker.at/bmeia/laws_conference_2021/streaming.html
Benjio, Y. & Chatila, R. (2020). An introduction to the Global Partnership on AI’s work on responsible AI. AI Policy Observatory. Organización para la Cooperación y el Desarrollo Económicos. https://oecd.ai/en/wonk/an-introduction-to-the-global-partnership-on-ais-work-on-responsible-ai
Buolamwini, J. & Gebru, T. (s.f.). Gender shades. Algorithmic Justice League Project - MIT MediaLab. http://gendershades.org/index.html
Cooperative for Assistance and Relief Everywhere. (2022). Política de salvaguardia de CARE International: Protección contra el acoso sexual, la explotación y abuso y el abuso infantil. https://www.care-international.org/files/files/CARE%20International%20Safeguarding%20Policy%20effective%2015%20April%202020%20Spanish(1).pdf
Centre for Feminist Foreign Policy. (s.f.). Feminist foreign policy. https://centreforfeministforeignpolicy.org/feminist-foreign-policy
Engler, A. (12 de marzo de 2021). Auditing employment algorithms for discrimination. Center for Technology Innovation. Brookings. https://www.brookings.edu/research/auditing-employment-algorithms-for-discrimination/
Fundación Vía Libre. (2021). Inteligencia artificial para el bien ¿de quién? / Who benefits from AI for Good? [Youtube]. https://www.youtube.com/watch?v=TYaoiLVE3vY
Gebru, T. (2020). Google and big tech are 'institutionally racist'. BBC News. https://www.bbc.com/news/technology-55281862
Grupo de las Naciones Unidas para el Desarrollo Sostenible. (2020). No dejar a nadie atrás: Una guía operativa del Grupo de las Naciones Unidas para el Desarrollo Sostenible para los equipos de las Naciones Unidas en los países. [Informe técnico.] https://unsdg.un.org/es/resources/no-dejar-nadie-atras-una-guia-operativa-del-grupo-de-las-naciones-unidas-para-el
Hao, K. (17 de junio de 2020). Visionaries. Technology Review. Massachusetts Institute of Technology. https://www.technologyreview.com/innovator/inioluwa-deborah-raji/
International Data Corporation. (17 de marzo de 2022). Spending on artificial intelligence solutions will double in the United States by 2025, according to a new IDC spending guide. IDC. www.idc.com/getdoc.jsp?containerId=prUS48958822
International Research Centre of Artificial Intelligence. https://ircai.org
Jones, P. (22 de septiembre de 2021). Refugees help power machine learning advances at Microsoft, Facebook, and Amazon. Rest of world. https://restofworld.org/2021/refugees-machine-learning-big-tech/
Ledford, H. (2019). Millions of black people affected by racial bias in health-care algorithms. Nature. https://www.nature.com/articles/d41586-019-03228-6
Mwai, P. (25 de marzo de 2021). Tigray conflict: The fake UN diplomat and other misleading stories. BBC News. https://www.bbc.com/news/56456535
Millán, M. (2019). Feminismos emergentes: descolonización y crisis civilizatoria. En Ribeiro, C. & Monte, M. A. (Eds.) Feminismos descoloniais e outros escritos feministas, pp. 229-246. Expressão Gráfica e Editora.
Muñoz, W. & Díaz, M. (2021). The risks of autonomous weapons: An intersectional analysis. Seguridad Humana en Latinoamérica y el Caribe. https://bit.ly/SehlacAWSBias
Organización para la Cooperación y el Desarrollo Económicos. (2019). Mejores criterios para una mejor evaluación. Definiciones revisadas de los criterios de evaluación y principios para su utilización. https://www.oecd.org/development/evaluation/Criterios-evaluacion-ES.pdf
Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. (2012). Indicadores de derechos humanos. Guía para la medición y la aplicación. https://www.ohchr.org/documents/publications/human_rights_indicators_sp.pdf
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2021). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa
OXFAM International. (s.f.). Políticas de prevención y salvaguardia. https://www.oxfam.org/es/que-hacemos/quienes-somos/politicas-de-prevencion-y-salvaguardia
Pérez Villoro, F. y Robles P. (11 de noviembre de 2020). Vigilancia biométrica: el tortuoso camino de Coahuila al reconocimiento facial. Expansión Política. https://politica.expansion.mx/estados/2020/11/11/vigilancia-biometrica-el-tortuoso-camino-de-coahuila-al-reconocimiento-facial
Scheneider, V. (2020). Locked out by big data: How big data, algorithms and machine learning may undermine housing justice. Columbia Human Rights Law Review. http://blogs.law.columbia.edu/hrlr/files/2020/11/251_Schneider.pdf
SDG AI LAB. (s. f.). Harnessing the potential of artificial intelligence for sustainable development. https://sdgailab.org/
The Future Society. (2020). Areas for future action in the responsible AI ecosystem. https://gpai.ai/projects/responsible-ai/areas-for-future-action-in-responsible-ai.pdf
The Republic of Costa Rica, the Republic of Panama, the Republic of Peru, the Republic of the Philippines, the Republic of Sierra Leone and the Eastern Republic of Uruguay. (s. f.). [Documento de trabajo conjunto.] https://documents.unoda.org/wp-content/uploads/2021/06/Costa-Rica-Panama-Peru-the-Philippines-Sierra-Leone-and-Uruguay.pdf
UNESCO. (s. f.). Los Objetivos del Desarrollo Sostenible: qué son y cómo alcanzarlos. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. https://www.un.org/sustainabledevelopment/es/development-agenda/
United Nations. (2020). “Powerful technologies must be guided by human values, solidarity, intelligence”, deputy secretary-general tells event on advancing global goals with AI. https://www.un.org/press/en/2020/dsgsm1455.doc.htm
United Nations Sustainable Development Group. (2003). The human rights based approach to development cooperation towards a common understanding among UN agencies. https://unsdg.un.org/resources/human-rights-based-approach-development-cooperation-towards-common-understanding-among-un
Venema, A. E. (4 de noviembre de 2020). Deepfakes as a security issue: Why gender matters. Women in International Security. https://wiisglobal.org/deepfakes-as-a-security-issue-why-gender-matters/
Vinuesa, R., Azizpour, H., Leite, I. et al. (2020). The role of artificial intelligence in achieving the Sustainable Development Goals. Nature communications, 11(1), 1-10, p. 233. https://www.nature.com/articles/s41467-019-14108-y