Skip to main content
SearchLoginLogin or Signup

Entre la técnica y la práctica

Abriendo las reflexiones e investigaciones de integrantes de la red fAIr y aliadas, Sofía Trejo aborda la emergencia de marcos éticos para el desarrollo de IA con la intención de alinear el desarrollo de esta tecnología con el bienestar, la ética o la sustentabilidad.

Published onJul 07, 2023
Entre la técnica y la práctica

En los últimos años, gobiernos, organismos internacionales, academia, sociedad civil y sector privado han formulado un sinnúmero de principios de la inteligencia artificial (IA), con la intención de alinear el desarrollo de esta tecnología con el bienestar, la ética o la sostenibilidad. Sin embargo, pese a existir más de ciento sesenta propuestas1 para desarrollar IA de forma “ética” o “responsable”,  existe poco trabajo enfocado a estudiar de forma crítica estos principios y la factibilidad de que estos sean utilizados para guiar el desarrollo tecnológico. En este sentido, los principios éticos de la IA se han convertido en dogmas tecnológicos que nos prometen desarrollo, bienestar y un mejor futuro, sin preguntarse ¿qué es el desarrollo?, ¿bienestar para quienes y a qué costo? y si existe un consenso sobre qué entendemos por un mejor futuro. Como consecuencia, los principios de la IA tienden a reforzar narrativas tecnológicas que asumen la universalidad de valores, así como de las visiones de mundo y de futuro y nutren la idea de que la tecnología (particularmente la IA) es la herramienta que nos permitirá materializar todos nuestros planes y aspiraciones. Sin embargo, antes de decidir si la IA podría acercarnos a un futuro más brillante valdría la pena dar un paso atrás y preguntarse ¿es posible usar la IA como herramienta para materializar el futuro que queremos?, ¿qué visiones del mundo posibilitan o dificultan estas herramientas?, ¿hasta qué punto es posible direccionar este fenómeno tecnológico y hacia dónde?, ¿qué agencia tenemos sobre estas problemáticas? y ¿qué papel juegan los feminismos en estas reflexiones? 

Responder estas preguntas no es una tarea sencilla, requiere de un análisis profundo, desde una pluralidad de perspectivas, de los diversos procesos involucrados en el desarrollo de esta tecnología. Estos procesos abarcan desde la extracción de minerales para la creación de dispositivos, hasta la producción de las narrativas que vinculan el progreso con la IA. En particular, en este texto exploraremos algunas estructuras de poder en el campo de la IA y la manera en la que estas se han consolidado a través de una estrecha relación entre la técnica y la práctica. Para ello comenzaremos explorando cómo es creada la IA y qué elementos son clave en su diseño. 

La IA puede ser creada mediante diversas arquitecturas. La más utilizada en la actualidad es llamada Aprendizaje Automático (Machine Learning en inglés). A grandes rasgos, podemos decir que los sistemas de Aprendizaje Automático aprenden a emular algún comportamiento con base a ejemplos de dicho comportamiento. Estos ejemplos son presentados al sistema como datos. Por ejemplo, si quisiéramos crear un sistema de IA que clasifique imágenes de animales por especie, deberíamos mostrarle numerosas imágenes de ejemplares de cada una de las especies que queremos que aprenda a clasificar. Con base en los ejemplos, el sistema podía crear un modelo de clasificación utilizando los patrones y regularidades de los datos que le fueron presentados en la etapa de aprendizaje (también conocida como de etapa de entrenamiento). 

Una vez que el sistema es entrenado, es importante saber qué tan bueno es para emular el comportamiento deseado. En nuestro ejemplo, esto equivaldría a saber qué tan bueno es el sistema para clasificar imágenes de animales por especie. Para evaluar el sistema, se le muestran datos que no haya visto antes (datos de evaluación) y se estudia la calidad de sus predicciones. Existen varias formas de evaluar el desempeño de un sistema de IA, la más utilizada en el campo es llamada exactitud. Podemos pensar en la exactitud de un sistema como el porcentaje de predicciones correctas que hace. Para dar una definición más formal, supongamos que los datos de evaluación conforman una muestra M. Entonces, la exactitud del sistema es el resultado de dividir el número de predicciones correctas que hizo el sistema sobre la muestra M, entre el tamaño de la muestra. Por ejemplo, si evaluamos nuestro sistema de clasificación de imágenes con un conjunto de 100 imágenes de animales y este clasifica correctamente la especie de 80 de estas imágenes. Entonces, el porcentaje de predicciones correctas es del 80% y la exactitud 0.8. En particular, sistemas que son mejores emulando un comportamiento (que hagan más predicciones correctas) tendrán mayor exactitud. En este sentido, es posible utilizar la exactitud para comparar el desempeño de diversos sistemas en tareas específicas. Es importante recalcar que esta no es la única forma de comparar el desempeño de los sistemas de IA, pero actualmente es la más utilizada.

Más que una cantidad o un porcentaje, podemos pensar en la exactitud como una manera de codificar qué es considerado importante para el desarrollo de IA y cómo se mide esa importancia. En otras palabras, esta métrica representa una valorización y como tal valdría la pena preguntarse ¿qué está favoreciendo esta valorización? y ¿qué impactos tiene esta métrica en el desarrollo tecnológico? Pero, sobre todo, valdría la pena cuestionar si es posible redireccionar la tecnología mediante valorizaciones distintas y qué papel puede jugar el feminismo en estas intervenciones. Para explorar estas interrogantes comenzaremos por analizar el desarrollo histórico de la IA.

Actualmente, tres factores son clave para el avance de la IA: la innovación de algoritmos, los datos y la cantidad de cómputo disponible para el entrenamiento de los sistemas. De estos tres elementos, el mejor indicador del desempeño de los sistemas es la cantidad cómputo utilizada para entrenar los modelos. (Amodei & Hernandez, 2021) Recordemos que el indicador por excelencia para medir el desempeño es la exactitud. Esto quiere decir que para poder estudiar el desarrollo de la IA en relación con el desempeño debemos entender la evolución del cómputo en el campo. 

Por más de seis décadas, entre 1950 y el 2011, la cantidad de cómputo utilizada para desarrollar sistemas de IA siguió un patrón similar al de la Ley de Moore, duplicándose cada dos años. (Ahmed & Wahed, 2020) Durante esta etapa, los diversos grupos de investigación utilizaban el mismo tipo de software y de hardware, y el equipo de cómputo tenía propósitos generales. (Ahmed & Wahed, 2020) Sin embargo, el año 2012 marcó el inicio de una nueva era en el desarrollo de IA. A partir de este momento la tasa de cómputo utilizada para entrenar modelos de IA comenzó a duplicarse cada 3.4 meses. (Amodei & Hernandez, 2021) (ver Figura 1)  

Figura 1

Tasa de cómputo demandada por el deep learning

Fuente: Thompson et. al, 2020.

Este cambio drástico en la utilización de cómputo está relacionada con la introducción de hardware especializado para procesamiento, en particular con el uso de Unidades de Procesamiento Gráfico (GPU, por sus siglas en inglés). (Amodei & Hernandez, 2021) Las unidades GPU existían antes del 2012, pero eran utilizadas principalmente para videojuegos y animaciones gráficas. Sin embargo, después del 2012 el hardware especializado se convirtió en una pieza clave para el desarrollo de la IA. De hecho, las grandes empresas de tecnología, como Amazon, Apple, Google y Tesla, trabajan en el diseño de hardware especializado. (Ahmed & Wahed, 2020)  En muchos casos este hardware, como las Unidades de Procesamiento Tensorial (TPU por sus siglas en inglés) creadas por Google2, son accesibles a desarrolladores trabajando fuera de estas empresas mediante la renta de servicios de nube (como Google Cloud). Sin embargo, el costo de rentar estos equipos para crear modelos grandes de IA es extremadamente alto, por lo que no es accesible para la mayoría de los grupos de investigación.3 Por lo tanto, el desarrollo de hardware especializado y de otras infraestructuras digitales ha colaborado a la creación de un oligopolio que controla gran parte de los recursos computacionales requeridos para crear sistemas de IA de alto desempeño. En otras palabras, el aumento de la cantidad de cómputo requerida para crear sistemas de IA ha influenciado significativamente el desarrollo del campo, al favorecer a un pequeño grupo de actores (aquellos con acceso a hardware especializado). 

Además de la aparición de hardware especializado, los cambios en el desarrollo de hardware para uso general también han jugado un papel importante en el desarrollo de la IA a nivel global. En particular entre los 60 y la primera década de los 2000 la velocidad de procesamiento de los microchips de uso general se incrementó a una tasa predecible, siguiendo la llamada Ley de Moore. (Cowls et al., 2021) Esta ley, nombrada así por Gordon Moore, el cofundador de Intel, predecía que la cantidad de transistores en un microchip se duplicaría cada dos años. (Cowls et al., 2021) Como consecuencia de que el desarrollo tecnológico siguiera dicho patrón de crecimiento, fue posible duplicar el desempeño del equipo de cómputo aproximadamente cada 18 meses, sin incrementar los costos. (Markoff, 2015) Sin embargo, desde mediados del 2010, la tasa de crecimiento del desempeño de las mejores supercomputadoras se ha reducido sustancialmente. (Markoff, 2015) En otras palabras, después del 2012 el desempeño de las computadoras de uso general dejó de incrementarse siguiendo su patrón histórico. Esto quiere decir que desde la primera década del los 2000 tres fenómenos han estado ocurriendo: 1) el uso de hardware especializado ha cobrado mayor importancia en el desarrollo de la IA;  2) el desempeño del hardware de uso general ha dejado de aumentar siguiendo la Ley de Moore y; 3) la cantidad de cómputo requerida para producir sistemas de IA ha aumentando a una tasa sin precedentes. ¿Qué consecuencias en el campo se han derivado de esto?

Uno de los cambios más significativos en el desarrollo de la IA en esta nueva etapa de la IA, post Moore y post 2012, es que los grupos de investigación han dejado de estar en circunstancias comparables. Esto se debe a que en este campo el acceso a cómputo está fuertemente ligado con la producción de los resultados de alto nivel, por lo que aquellos grupos sin acceso a hardware especializado y sin la capacidad de crear el software requerido para implementarlo, están en desventaja. (Ahmed & Wahed, 2020) En otras palabras, a partir del 2012 se abrió una brecha de cómputo que provocó la centralización de la producción de conocimiento sobre IA en grupo pequeño de actores (varios de ellos grandes empresas de tecnología) des-democratizando el campo. (Ahmed & Wahed, 2020) Además, estos cambios han generado que los grupos que actualmente producen los mejores sistemas de IA (basados en exactitud o en métricas relacionadas) lo hagan a través del uso de cantidades masivas de cómputo, lo que esencialmente significa que están comprando mejores resultados. (Schwartz et al., 2020)

Como es de imaginarse, este nuevo paradigma tecnológico no ha afectado a todas las regiones del mundo de la misma forma. De hecho, ha favorecido al Norte Global y ha limitado el desarrollo tecnológico en diversas regiones del Sur. Para dar idea de la manera en la que estos cambios han influido la producción de conocimiento sobre IA podemos observar la Figura 2. Esta figura muestra el porcentaje de publicaciones (revisadas por pares) producidas en diversas regiones a nivel mundial. (Zhang et al., 2021) En particular, esta gráfica permite observar que el porcentaje de representación de América Latina y el Caribe en el campo ha estado decreciendo, marginal pero constantemente, desde el 2012. De manera complementaria a la información presentada en la gráfica, destacamos que en las últimas dos décadas la participación de empresas tecnológicas (como Google y Facebook) en las principales conferencias de IA ha incrementado y que actualmente estas empresas presentan aproximadamente el 30% de los trabajos en estos espacios. (Ahmed & Wahed, 2020) 

Figura 2

Porcentaje de publicaciones revisadas por pares producidas por regiones

Fuente: Zhang et al. (2021)

Además de las problemáticas antes mencionadas, crear sistemas de IA tiene altos costos  económicos y ambientales. Actualmente, el entrenamiento de un sistema de IA de última generación requiere millones de dólares. (Ahmed & Wahed, 2020) Por lo que desarrollar este tipo de sistemas está fuera del alcance de la mayoría de los grupos de investigación, particularmente de aquellos en el Sur Global. Por otro lado, la enorme cantidad de cómputo requerida para crear estos sistemas ha provocado que el entrenamiento de un único sistema de IA produzca emisiones de gases invernadero comparables a las emisiones anuales combinadas de 60 automóviles.4

Como hemos observado, mejorar el desempeño de la IA (utilizando como parámetro principal la exactitud) ha tenido consecuencias significativas en el desarrollo del campo a nivel global. Principalmente el incremento de los costos e impactos ambientales asociados con el desarrollo de estos sistemas y en la desigualdad, sobre todo en el Norte y el Sur Global. Por lo tanto valdría la pena preguntarnos ¿qué ganamos con este enfoque de desarrollo? y sobre todo ¿existen otros caminos posibles? 

Por extraño que parezca, aunque la exactitud mide qué tan buenos son los sistemas para predecir un comportamiento, los incrementos en esta métrica no hacen que esta tecnología sea más inteligente. Esto es de suma relevancia, ya que en la actualidad gran parte de la investigación en IA está enfocada en a diseñar sistemas con mayor desempeño (i.e., mayor exactitud) en pruebas específicas y en crear nuevas pruebas una vez que las existentes han sido superadas. (Bender et al., 2021; Schwartz et al., 2020) Sin embargo, existe poca claridad sobre si esta forma de desarrollar IA efectivamente crea sistemas con mayor inteligencia o si en realidad los resultados dependen de enormes cantidades de cómputo y datos (en otras palabras de la estadística). (Bender et al., 2021) Por estos motivos, algunas expertas, entre ellas Timnit Gebru, abogan por un cambio en las metas de investigación que guían la IA y proponen dejar de priorizar diseñar sistemas con la intención de mejorar su desempeño en pruebas específicas, para poner énfasis en investigación que ayude a entender cómo es que las máquinas superan estas pruebas. (Bender et al., 2021) En otras palabras, se propone redireccionar las líneas de investigación en IA para mejorar el entendimiento de la manera en la que operan los sistemas, en lugar de seguir produciendo sistemas más exactos cuyo funcionamiento no entendemos.

Además de enfocar la investigación en IA en mejorar entendimiento de los sistemas de IA, sería interesante pensar si es posible desarrollar estrategias que de manera conjunta permitan aminorar otras problemáticas derivadas de la excesiva importancia que el campo le ha dado a la exactitud, como el incremento de la desigualdad y de los impactos ambientales. Afortunadamente, el trabajo sobre IA y cambio climático podría servir como apoyo para proponer alternativas. En particular, estudios recientes han identificado la eficiencia como una métrica más adecuada que la exactitud para evaluar los sistemas de IA. (Cowls et al., 2021; Schwartz et al., 2020) Esto se debe a que medir la eficiencia significa reportar la cantidad de trabajo requerido para producir un resultado de IA. (Schwartz et al., 2020) Lo que incluye cuantificar el trabajo requerido para entrenar el modelo y, de ser aplicable, el trabajo utilizado para todos los experimentos de calibración (hyperparameter tuning). Algunas de las ventajas de la eficiencia sobre la exactitud son que esta métrica permite cuantificar impactos ambientales y favorece mejoras en manejo de recursos (en lugar de favorecer el uso de mayores cantidades de cómputo). En este sentido, la eficiencia permite hacer comparaciones más justas entre sistemas, ya que toma en consideración la cantidad de recursos utilizados para crear los modelos.

Sin embargo, definir qué se entiende por eficiencia no es una tarea sencilla. Esto se debe a que si queremos que esta métrica sirva para comparar sistemas esta debe ser independiente del laboratorio, del tiempo y del hardware utilizado. Y encontrar la forma de satisfacer estos requerimientos de forma simultánea no es fácil. Por ejemplo, podría parecer una buena idea definir la eficiencia de un sistema de IA tomando en consideración la cantidad de emisiones de carbono generadas durante su desarrollo. El problema con esta propuesta es que las emisiones generadas por sistemas de IA dependen de las emisiones de las redes eléctricas y estas varían sustancialmente dependiendo de la localidad y de los tipos de energía (eléctrica, eólica, hidráulica etc). (Cowls et al., 2021) Por lo que las emisiones de carbono producidas por un sistema de IA dependen del lugar en donde este fue desarrollado. 

Tomando en cuenta esta dependencia entre la localidad y los impactos ambientales, se podría proponer medir la eficiencia tomando en cuenta la cantidad de electricidad utilizada para crear cada modelo, en lugar de las emisiones de carbono. Esta propuesta tiene la ventaja de ser independiente tanto del tiempo como de la localización. Además la mayoría de los GPUs reportan la cantidad de electricidad que consumen, lo que facilita el cálculo de la cantidad de electricidad requerida para generar cada modelo de IA. Sin embargo esta métrica tiene un inconveniente, el consumo de energía utilizado para crear un modelo depende del hardware que se haya utilizado. (Schwartz et al., 2020) Por lo tanto, usar la cantidad de energía requerida para crear el sistema como métrica es independiente del tiempo y de la localización, pero no es independiente del equipo. Esto quiere decir que no es trivial encontrar nuevas métricas que permitan hacer comparaciones más justas entre los sistemas y que tomen en cuenta los impactos ambientales generados por esta tecnología, ya que estas valorizaciones deberán tomar en cuenta que los sistemas de IA son producidos en diversas localidades que varían tanto en equipo como en infraestructuras, lo que afecta la capacidad de cómputo e impactos ambientales derivados cada desarrollo tecnológico. 

En este sentido, definir nuevas valorizaciones que permitan guiar el desarrollo de la IA hacia una mayor equidad y sostenibilidad, dependerá de una reflexión profunda sobre qué queremos priorizar y cuál sería la mejor manera de hacerlo. Como hemos visto, este proceso debe estar acompañado de un entendimiento de las relaciones de poder y la manera en la que estas permean tanto la técnica como con la práctica. Es en estas conversaciones que las perspectivas feministas y del sur global tienen mucho que aportar, ya que diseñar estrategias para guiar esta tecnología hacia nuevos horizontes requerirá conceptualizar intervenciones que permitan redireccionar los diversos procesos involucrados este desarrollo tecnológico, tomando en consideración la manera en la que estos se interrelacionan con experiencias y contextos específicos. El cambio no será fácil, pero una cosa es clara: otros caminos son posibles. Construirlos dependerá nuestra capacidad de crear estrategias conjuntas que nos permitan caminar hacia ellos.


Referencias


Ahmed, N. & Wahed, M. (22 de octubre de 2020). The de-democratization of AI: deep learning and the compute divide in artificial intelligence research. https://arxiv.org/abs/2010.15581 

Amodei, D., & Hernandez, D. (21 de junio de 2021). AI and Compute. [Blog post]. OpenAI. https://openai.com/blog/ai-and-compute/ 

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623). https://dl.acm.org/doi/abs/10.1145/3442188.3445922 

Cowls, J., Tsamados, A., Taddeo, M., & Floridi, L. (2021). The AI gambit: Leveraging artificial intelligence to combat climate change —Opportunities, challenges, and recommendations. Ai & Society, 1-25.  https://link.springer.com/article/10.1007/s00146-021-01294-x 

Li, C. (11 de septiembre de 2020). OpenAI's GPT-3 Language Model: A Technical Overview. [Blog post]. Lambda Deep Learning Blog. https://lambdalabs.com/blog/demystifying-gpt-3/ 

Markoff, J. (27 de septiembre de 2015). Smaller, Faster, Cheaper, Over: The Future of Computer Chips. The New York Times. https://www.nytimes.com/2015/09/27/technology/smaller-faster-cheaper-over-the-future-of-computer-chips.html 

Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2020). Green ai. Communications of the ACM, 63(12), pp. 54-63. https://dl.acm.org/doi/abs/10.1145/3381831 

Thompson, N. C., Greenewald, K., Lee, K. & Manso, G. (10 de julio de 2020). The Computational Limits of Deep Learning. https://arxiv.org/abs/2007.05558  

Zhang, D., Mishra, S., Brynjolfsson, E., Etchemendy, J., Ganguli, D., Grosz, B., Lyons, T, Manyika, J., Niebles, J.C., Sellito, M., Shoham, Y., Clark, J. & Perrault, R. (9 de marzo de 2021). The AI Index 2021 Annual Report. https://arxiv.org/abs/2103.06312 





Comments
0
comment
No comments here
Why not start the discussion?