Skip to main content
SearchLoginLogin or Signup

Inteligencia artificial y la imaginación feminista descolonial

Paola Ricaurte recupera la noción de la colonialidad del poder para proponer una visión del desarrollo de IA que articule los aspectos macro y micropolíticos del desarrollo tecnológico como parte de un proyecto descolonial y feminista.

Published onJul 08, 2023
Inteligencia artificial y la imaginación feminista descolonial

Una versión en inglés de este texto fue publicada en Bot Populi y se encuentra disponible en el siguiente enlace: https://botpopuli.net/artificial-intelligence-and-the-feminist-decolonial-imagination/

En años recientes los gobiernos y las empresas de los países industrializados y las organizaciones internacionales han promovido diversos marcos éticos (UNESCO, 2021, OCDE, 2019) para orientar el desarrollo de las tecnologías, especialmente las asociadas a la inteligencia artificial (IA). En la narrativa del desarrollo tecnológico capitalista, los sistemas inteligentes son los más prometedores para la innovación, puesto que se encuentran asociados con los ideales de productividad y eficiencia. Por ello, la inteligencia artificial se ha convertido en un eje articulador del capital, del poder y de la política. Algunos de estos marcos éticos, que guían las prácticas, las políticas y los reglamentos, se basan en los derechos humanos (Adams, 2022) e incorporan principios para defenderlos, especialmente en el despliegue y el uso de la IA. Sin embargo, como hemos observado históricamente, un marco de derechos humanos no es suficiente para garantizar los derechos humanos ni para lograr la justicia.

Por un lado, estos marcos reflejan una perspectiva ética occidental (Jobin et. al, 2019) sobre el problema, que deja fuera las epistemologías no occidentales (Mhlambi, 2020) y una discusión sobre la justicia a nivel global que incorpore diferencias onto-epistémicas. La ética del diseño, desarrollo, despliegue y uso de la IA desde los marcos éticos actuales se centra en principios como la transparencia y la rendición de cuentas (Jobin et al., 2019), lejos de las poblaciones afectadas por estas tecnologías (Aguilar, 2022; Díaz, 2022). Este hecho hace evidente la distancia entre las personas que pueden producir, entender y auditar los algoritmos y las son afectadas por ellos. Por otro lado, los marcos éticos impulsados por los actores poderosos, como las corporaciones tecnológicas o los gobiernos de los países ricos, no discuten la centralidad geopolítica de los sistemas inteligentes como arma de guerra y vigilancia, su carácter extractivista, su lugar en el control social de los cuerpos-territorios, las subjetividades, las relaciones intersubjetivas y, en definitiva, su papel en el secuestro del futuro. (Bruno, 2021)

Desde una perspectiva más amplia, la discusión sobre la justicia asociada a las tecnologías debe situarse en diálogo con la realidad de los contextos y comunidades locales sobre los que recaen sus impactos. (Ricaurte & Ciacci, 2020) Además, debe apuntar al análisis de las asimetrías que hacen de este desarrollo tecnológico un instrumento para la continuidad de la violencia a escala global. (Ricaurte, 2022)

En un ámbito global, la justicia integradora debe considerar las múltiples dimensiones en las que se despliega la injusticia mediada por la tecnología: social, económica, epistémica, laboral, infraestructural, digital, climática, energética, territorial, alimentaria, entre otras, en contextos locales y para comunidades específicas. Así, por un lado, la definición de la justicia tiene que partir de la experiencia de las propias comunidades (Cortés et al., 2020), así como las visiones que poseen sobre su futuro (Trejo, 2022). Por otro lado, es necesario abordar las relaciones asimétricas globales que contribuyen a profundizar la violencia sistémica y estructural entre países a nivel planetario. Por último, debe reconocer los impactos diferenciados del desarrollo tecnológico en las poblaciones excluidas del norte y del sur global e impulsar que los países industrializados, asuman la responsabilidad de su liderazgo en las decisiones en torno a la gobernanza y el desarrollo de IA.

En este ensayo, proponemos una visión que articule los aspectos macro y micropolíticos (Rolnik, 2019) como parte del proyecto descolonial y feminista, que considera múltiples dimensiones que deberían considerarse para desarrollar tecnologías de la IA justas para la mayoría del planeta (Ricaurte, 2022). Nuestro propósito es identificar los límites e implicaciones de la aplicación de marcos éticos que no abordan el problema del poder y el papel que juegan las tecnologías de IA en la automatización de la opresión. (Peña & Varon, 2020) Así, el problema se relaciona con el poder y el papel que desempeña la inteligencia artificial dentro de la matriz de dominación como producto y herramienta de/para la perpetuación de los sistemas de violencia. Partiendo de los trabajos anteriores, identificamos las intervenciones y los marcos integrales que requerimos para construir tecnologías alineadas con el derecho a una vida digna y, al mismo tiempo, respetuosas con el ambiente. 

La colonialidad del poder: tecnología, género, ambiente

El sociólogo Aníbal Quijano desarrolló la noción de colonialidad del poder (Quijano, 2000, 2007) para explicar la dominación epistémica a través de la diferencia racial ejercida por la metrópoli europea durante la colonización. La colonialidad explica la lógica, el mecanismo de jerarquización y catalogación epistémica de unos seres humanos por encima de otros a partir de la diferencia racial producida durante la colonización y perpetuada hasta nuestros días. Por lo tanto, la colonialidad extiende la colonización en forma de epistemicidio (de Sousa Santos, 2015) basado en la diferencia racial.

La colonialidad del poder lleva a la destrucción de cualquier forma alternativa de pensar, ser, sentir, hacer y vivir diferente al modelo occidental/moderno del mundo. El locus del despojo son los recursos naturales de los territorios colonizados y nuestros cuerpos, pensamientos, acciones, afectos y relaciones. (Ricaurte, 2020) El poder colonial implica despojar al sujeto de la colonización de su valor como ser humano y ejercer la superioridad racial como dominación epistémica. Es despojar a la persona de su humanidad. Como explica el filósofo africano Sabelo J. Ndlovu Gatsheni (2020), incluso cuando se hace retroceder la colonización como proceso físico (el imperio físico), el colonialismo como estructura de poder continúa, porque invade el universo mental de un pueblo, desestabilizando lo que solía conocer, para pasar a conocer lo que trae el colonialismo.

Los valores colonialistas, racistas y patriarcales se imponen como principios universales para el diseño de la tecnología. Estos valores están codificados en marcos éticos que dan forma a los sistemas de inteligencia artificial, a la construcción de máquinas antropomórficas y blancas (Cave & Dihal, 2020), a los algoritmos racistas (Benjamin, 2019; Noble, 2018), a la construcción de narrativas sobre el progreso, el desarrollo, la productividad, la eficiencia, la modernidad y el futuro asociadas a la tecnología pero ancladas en imaginarios que consolidan la superioridad racial (Benjamin, 2016). Los sistemas sociotécnicos son parte de los ensamblajes de conocimiento que producen narrativas que contribuyen a la dominación epistémica occidental (supremacía blanca, heteropatriarcado, capitalismo y colonialismo). Por lo tanto, es crucial entender cómo la dataficación, las mediaciones algorítmicas y los sistemas inteligentes operan cognitiva, emocional y pragmáticamente para construir visiones del mundo y formas de relacionarse y concebir la existencia social. Sus efectos se plasman en la configuración de las relaciones entre los sujetos (políticos, económicos, sociales), entre los seres vivos (humanos y no humanos), pero también en la relación con los objetos (seres vivos y no vivos/máquinas) y entre los propios objetos (por ejemplo, entre las máquinas, como vemos en el internet de las cosas). El proyecto de la modernidad disocia los procesos de producción tecno-científica de sus efectos sobre los cuerpos racializados y los territorios que habitan. Sin embargo, estos territorios proporcionan las materias primas y los recursos laborales necesarios para producir tecnología y son el lugar donde los países industrializados expulsan sus residuos.

Por lo tanto, en el estudio de la inteligencia artificial desde una perspectiva decolonial y feminista, es necesario considerar todo el ciclo de la inteligencia artificial, las relaciones sociopolíticas asociadas a ella y su contribución a la reproducción de las asimetrías de poder.

Ética y justicia

El papel de algunos Estados en el desarrollo de armas autónomas es un ejemplo de la limitación de estos debates éticos que no abordan las asimetrías de poder, las fuerzas geopolíticas y la violencia. Además, es un ejemplo de doble discurso o lavado de ética cuando hablamos de inteligencia artificial:

Las armas totalmente autónomas, también conocidas como "robots asesinos", serían capaces de seleccionar y atacar objetivos sin un control humano significativo. Los precursores de estas armas, como los drones armados, están siendo desarrollados y desplegados por naciones como China, Israel, Corea del Sur, Rusia, el Reino Unido y Estados Unidos. Existen serias dudas de que las armas totalmente autónomas sean capaces de cumplir las normas del derecho internacional humanitario, incluidas las reglas de distinción, proporcionalidad y necesidad militar, al tiempo que amenazarían el derecho fundamental a la vida y el principio de la dignidad humana. (HRW, 2021)

¿Un robot asesino con un algoritmo perfectamente auditable y transparente pasaría la prueba ética internacional? Tal vez. Por lo tanto, un debate que no erradica la violencia en el centro como principio para lograr la justicia o que sólo da acceso a la justicia a poblaciones específicas y dentro de los límites de las fronteras nacionales o regionales no puede considerarse un debate honesto por la justicia. La búsqueda de la justicia asociada a los procesos de dataficación, mediación algorítmica y automatización necesita una concepción integral que articule las diferentes dimensiones de la justicia y apunte a reparar el daño infligido a las personas que históricamente han sufrido y sufren la violencia (física, emocional, económica, laboral, epistémica, algorítmica) para sostener el actual modelo de desarrollo tecnológico. Argumentamos que el modelo hegemónico de desarrollo tecnológico basado en la violencia extractivista y el despojo es, en esencia, un modelo necro-tecnológico central en el proyecto capitalista/colonial/patriarcal/moderno. Este proyecto necro-tecnológico hegemónico está anclado en el principio de exterminio de cuerpos y territorios específicos. La injusticia es el resultado de las múltiples formas de violencia ejercidas sobre los cuerpos y los territorios. La violencia se traduce en la pérdida de autonomía, en la imposibilidad de lograr una vida digna y un mundo donde la justicia sea accesible para todos. Para avanzar hacia la justicia tecnológica como horizonte, necesitamos incorporar las causas históricas de la injusticia y la violencia estructural en la reflexión crítica y, en particular, en la praxis feminista. De esta manera, propondremos reparaciones que no sean parches, ni sustitutos de la justicia, ni nos lleven a contribuir a sostener involuntariamente los sistemas de violencia. Las lentes feministas requieren una mirada histórica, procesual y relacional sobre los procesos de dataficación y la incorporación de la mediación algorítmica y la inteligencia artificial en la automatización de la vida social. Este enfoque histórico, procesual y relacional implica incorporar las nociones de corresponsabilidad y afecto (Cortés et al., 2020) asociadas a los impactos negativos del desarrollo tecnológico. También significa emprender estrategias de empoderamiento comunitario para reclamar esta justicia a través de redes de solidaridad transnacional entre comunidades vulneradas y agraviadas y comunidades aliadas. Sin embargo, el eje de la lucha no está anclado en el acceso a la justicia per se, sino en que el acceso permita un horizonte de autonomía (Acevedo, 2021; Colectivo Disonancia, 2021) y una vida digna que contribuya a recuperar la posibilidad de tener un futuro en el planeta. Sin embargo, como la justicia requiere que los actores que actualmente concentran el poder económico, político y social a nivel global asuman la responsabilidad y las consecuencias de las decisiones que nos han conducido la crisis actual derivada de su modelo de desarrollo, el acceso a la justicia será siempre un reclamo de los pueblos que han sido sistemáticamente negados. La autonomía (Acevedo, 2021; Colectivo Disonancia, 2021) y la dignidad deben ser alcanzadas en disputa con las fuerzas que buscan destruirlas.

La imaginación feminista y descolonial

La muerte de las personas defensoras de la tierra, el terrricidio, el feminicidio, el lingüicidio, el epistemicidio, la persecución de inmigrantes y refugiados, la discriminación de la diversidad en todas sus formas, la explotación laboral, están asociadas con el despliegue de sistemas inteligentes en todo su ciclo de vida. ¿Cómo, entonces, lograremos la justicia?¿Cómo erradicar las violencias en su multidimensionalidad? La respuesta a estas preguntas no es sencilla. Sin embargo, las comunidades de todo el mundo están tratando de buscar la justicia en sus propios términos, desarrollando la tecnología que necesitan, respondiendo a los intereses de la comunidad y construyendo caminos hacia la autonomía y la vida digna. Algunos ejemplos provienen de los feminismos, transfeminismos, feminismos descoloniales y comunitarios. Otros provienen de las experiencias de los pueblos originarios alrededor del mundo. 

IA transfeminista

Los interseccionales, decoloniales y ecofeminismos aportan herramientas teóricas y metodológicas que permiten reflexionar sobre el sentido de desarrollar iniciativas de inteligencia artificial considerando las asimetrías de poder y de género. Principios feministas para la recolección y uso de datos (D'Ignazio y Klein, 2020), manifiestos feministas (Zaragoza y Ahmatova 2018, Feminist Data Manifest-No), ecofeminismos que buscan poner en el centro los valores de la sostenibilidad a la par de la búsqueda de la equidad, imaginación radical tecnofeminista a través del juego, las narrativas y la ficción especulativa, como en el El Oráculo para las tecnologías transfeministas (Varon y Constanza-Shock 2018) son solo algunos ejemplos. Estas visiones provocadoras y clarividentes sobre la IA muestran que si ampliamos la diversidad epistémica podremos imaginar y crear futuros tecno-diversos y transfeministas.

Diversidad cultural y lingüística

Es bien sabido que el reconocimiento del habla y el procesamiento del lenguaje natural no están disponibles o suficientemente desarrollados para otras lenguas que no sean el inglés. En todo el mundo, muchas comunidades no tienen el inglés u otras lenguas dominantes como lengua materna. Para superar este déficit, el proyecto Papa Reo1 ha desarrollado una herramienta de transcripción automática del maorí2 que utiliza la API de conversión de voz a texto para obtener la primera voz maorí sintetizada. Como se indica en su sitio web, esta herramienta "proporciona el conjunto de datos fundamentales para el proyecto Papa Reo", "una plataforma lingüística multilingüe basada en el conocimiento y las formas de pensar indígenas y potenciada por la ciencia de datos de vanguardia". Este proyecto muestra cómo las tecnologías pueden desarrollarse para servir a las necesidades de una comunidad específica. Este proyecto puede no interesar a las grandes empresas tecnológicas, pero ofrece a la comunidad la oportunidad de expresar su identidad y su sentido de pertenencia.

Gobernanza comunitaria

Formas de gobernanza comunitaria son ejemplos de alternativas para la IA desde otros valores que no son los del mercado. Papa Reo busca desarrollar una propuesta desde la comunidad para la comunidad. Este anclaje en la comunidad implica que sus propuestas y su desarrollo responden a las necesidades de esa comunidad. Es una propuesta tecnológica creada en su idioma y con los valores que son importantes para su comunidad.

Soberanía de datos

Papa Reo desarrolló su propia licencia de software, Kaitiakitanga3, de acuerdo con los valores de la comunidad maorí. A diferencia del principio de propiedad, que implica la apropiación desde una perspectiva privada o comercial, la visión de la protección y custodia de datos implica que los datos son un bien común de la comunidad y, por tanto, deben ser protegidos:

Te Hiku Media ha desarrollado una licencia Kaitiakitanga, que establece que los datos no son propiedad, sino que se cuidan bajo el principio de kaitiakitanga y cualquier beneficio derivado de los datos fluye a la fuente de los mismos. Kaitiakitanga es un principio que expresa la tutela y no la propiedad de los datos. Los medios de comunicación de Te Hiku son meros guardianes de los datos y tratan de garantizar que todas las decisiones que se tomen sobre el uso de esos datos respeten su maná y el de las personas de las que descienden.

Papa Reo forma parte de un movimiento de innovación indígena que ha demostrado cómo contribuir desde diferentes cosmovisiones al desarrollo de la inteligencia artificial. Iniciativas similares promueven normas y protocolos basados en principios o metodologías indígenas que no implican procesos o relaciones extractivas.


Conclusión

En este ensayo, hemos discutido la limitación de desarrollar marcos éticos que no pretenden cambiar las relaciones de poder. Los marcos éticos deben considerar los impactos materiales e inmateriales diferenciados para territorios y cuerpos específicos como consecuencia de la lógica subyacente de los procesos históricos capitalistas, patriarcales y coloniales asociados a los sistemas sociotécnicos. Los sistemas de IA dominantes como construcciones sociotécnicas son instrumentos de la colonialidad del poder, una relación entre conocimiento y poder, basada en la diferencia ontológica y epistémica de los seres. Borrar la experiencia de la colonialidad y sus impactos materiales e inmateriales sobre cuerpos, subjetividades y territorios específicos, racializados, étnicos y de género, es una forma de despolitizar la crítica decolonial. La descolonialidad como praxis requiere la desvinculación de la colonialidad del poder: detener, desmantelar y reparar el proceso histórico de despojo y violencia, el epistemicidio y la necropolítica como principios del modelo occidental hegemónico del mundo. A través de la imaginación descolonial y feminista, exploramos las posibles formas de descolonización de la inteligencia artificial hacia la construcción de futuros tecnodiversos. Esta reflexión pretende pasar a la acción para revertir un orden basado en la necropolítica sobre los cuerpos racializados, principalmente de las mujeres, y la destrucción de nuestros entornos de vida.


Referencias


Acevedo, S. (2021). El horizonte de la autonomía (Tesis de maestría). Universidad Autónoma Metropolitana. Unidad Xochimilco. https://repositorio.xoc.uam.mx/jspui/handle/123456789/23274 

Adams, R. (2022). Diseño de un índice global basado en derechos sobre IA responsable. En: Ricaurte, P., & Zasso, M. R. (Eds.) Inteligencia artificial feminista hacia una agenda de investigación en América Latina y el Caribe. México: Tecnológico de Monterrey y Red f<a+i>r. 

Aguilar, Y. E. (2022). La lengua como territorio cognitivo y su relación con concepciones tecnológicas. En: Ricaurte, P., & Zasso, M. R. (Eds.) Inteligencia artificial feminista hacia una agenda de investigación en América Latina y El Caribe. México: Tecnológico de Monterrey y Red f<a+i>r. 

Benjamin, R. (2019). Race after technology: Abolitionist tools for the new jim code. Cambridge: Polity. 

Benjamin, R. (2016). Catching our breath: Critical race STS and the carceral imagination. Engaging Science, Technology, and Society 2: 145–156. DOI: 10.17351/ests2016.70

Bruno, F. (2021). #Fail tecnología y política: Pensar y crear mundos a partir de sus fallas y ruinas. Medialab UFRJ. https://fail.medialabufrj.net/es/_fail-sobre/ 

Cave, S., & Dihal, K. (2020). The whiteness of AI. Philosophy & Technology, 33(4), 685-703.

Colectivo Disonancia. (2021). Autonomía Tecnológica. colectivodisonancia.net/autonomia 

Costanza-Chock, S. (2018). Design Justice, A.I., and Escape from the Matrix of Domination. Journal of Design and Science. https://jods.mitpress.mit.edu/pub/costanza-chock/release/4 

Cortés, N.; Jes, La; Pérez, L. et al. (2020). Tecnoafecciones: Hacia una política de la corresponsabilidad. México: Instituto de Liderazgo Simone de Beauvoir. https://ia601809.us.archive.org/28/items/tecnoafecciones-web/Tecnoafecciones_web.pdf 

Díaz, T. (2022). Alexa, amënyï. Algunas consideraciones sobre la inclusión de las lenguas indígenas en las tecnologías del habla. En: Ricaurte, P., & Zasso, M. R. (Eds.) Inteligencia artificial feminista hacia una agenda de investigación en América Latina y el Caribe. México: Tecnológico de Monterrey y Red f<a+i>r. 

D'Ignazio, C., & Klein, L. (2020). Data feminism. Cambridge: MIT Press. 

Feminist Data Manifest-No. (s.f.) Feminist Data Manifest-No. www.manifestno.com 

HRW - Human Rights Watch. (2021). Killer robots: Negotiate new law to protect humanity. www.hrw.org/news/2021/12/01/killer-robots-negotiate-new-law-protect-humanity 

Jobin, A.; Ienca, M. & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence 1(9): 389–399. 

Mhlambi, S. (2020). From rationality to relationality: Ubuntu as an ethical and human rights framework for artificial intelligence governance. Carr Center for Human Rights Policy Discussion Paper Series, 9. https://carrcenter.hks.harvard.edu/publications/rationality-relationality-ubuntu-ethical-and-human-rights-framework-artificial 

Ndlovu-Gatsheni, S. (2020). Decolonization, decoloniality, and the future of African studies: A conversation with Dr. Sabelo Ndlovu-Gatsheni /Entrevistado por Duncan Omanga. Items - Insights from the Social Sciences.  items.ssrc.org/from-our-programs/decolonization-decoloniality-and-the-future-of-african-studies-a-conversation-with-dr-sabelo-ndlovu-gatsheni 

Noble, S. U. (2018). Algorithms of oppression. New York: New York University Press.

Organización para la Cooperación y el Desarrollo Económicos. (2019). AI Principles. AI Policy Observatory. https://oecd.ai/en/ai-principles/

Peña, P. (2020) Bigger, more, better, faster: The ecological paradox of digital economies. In: Technology, the environment and a Sustainable World. GISWatch Report. https://giswatch.org/node/6245 

Peña, P. & Varon, J. (2021). Not My AI. https://notmy.ai/ 

Quijano, A. (2000). Coloniality of power and eurocentrism in Latin America. International Sociology, 15(2): 215-232. https://doi.org/10.1177/0268580900015002005 

Quijano, A. (2007). Coloniality and modernity/rationality. Cultural Studies, 21(2-3): 168-178. https://doi.org/10.1080/09502380601164353 

Raval, N. (2020). Platform-living: Theorizing life, work and ethical living after the gig economy. [Tesis doctoral.] Irvine, CA: University of California. https://escholarship.org/uc/item/4qc0x3mw 

Ricaurte, P. (2019). Data epistemologies, the coloniality of power and resistance. Television & New Media 20(4): 350–365. https://doi.org/10.1177/1527476419831640 

Ricaurte, P. (2022). Ethics for the majority world: AI and the question of violence at scale. Media, Culture & Society, 44(4), 726–745. https://doi.org/10.1177/01634437221099612

Ricaurte, P., & Ciacci, J. (2020). Technology for life: Resistance from Indigenous and urban communities in Mexico. In: Technology, the environment and a Sustainable World. GISWatch Report. https://giswatch.org/node/6235 

Rolnik, S. (2019). Esferas de la insurrección. Apuntes para descolonizar el inconsciente. Buenos Aires: Tinta Limón. 

de Sousa Santos, B (2016). Epistemologies of the South: Justice Against Epistemicide. New York, NY: Routledge. 

Trejo, S. (2022). Entre la técnica y la práctica. En: Ricaurte, P., & Zasso, M. R. (Eds.) Inteligencia artificial feminista hacia una agenda de investigación en América Latina y el Caribe. México: Tecnológico de Monterrey y Red f<a+i>r. 

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://en.unesco.org/artificial-intelligence/ethics 

Varon, J. & Constanza-Shock, S. (2018). The oracle for transfeminist technologies. www.transfeministech.codingrights.org  

Zaragoza, L. & Ahmatova, A. (2018). Manifiesto por algoritmias hackfeministas. GenderIT. genderit.org/es/articles/edicion-especial-manifiesto-por-algoritmias-hackfeministas 

Comments
0
comment
No comments here
Why not start the discussion?