Skip to main content
SearchLoginLogin or Signup

Iniciativas desde la sociedad civil para la sensibilización en temas de ética en inteligencia artificial

El equipo de Fundación Vía Libre, de Argentina, nos comparte los aprendizajes de una serie de conversaciones organizadas durante el 2021 y que tratan la relación entre ética e IA.

Published onJul 10, 2023
Iniciativas desde la sociedad civil para la sensibilización en temas de ética en inteligencia artificial

Laura Ación, Laura Alonso Alemany, Luciana Benotti, Matías Bordone, Beatriz Busaniche, Lucía González y Alexia Halvorsen

Fundación Vía Libre

Argentina

Cada día más procesos sociales y decisiones son atravesados por sistemas automatizados basados en sistemas algorítmicos. Estos procesos rara vez son transparentes e implican impactos sobre los derechos de la ciudadanía. Desde Fundación Vía libre trabajamos hace tiempo en el seguimiento, análisis y el debate desde la ética y los Derechos Humanos para que la adopción de Inteligencia Artificial (IA) no implique retrocesos en la calidad de vida y la dignidad de las personas.1

Durante el 2021, llevamos adelante una serie de conversaciones que tratan la relación entre ética e IA desde distintos puntos de vista y que pretenden contribuir al objetivo de analizar críticamente las tecnologías que atraviesan nuestra vida, sin perder de vista que la capacidad de desarrollarlas e implementarlas. El enfoque de estas conversaciones consistió en la búsqueda de la diversidad de voces presentes en esta área, desde el sur y con una perspectiva feminista por ser crítica, multidisciplinar y por poner en el escenario a distintos tipos de minorías en IA: mujeres, argentines, colombianes, inmigrantes y personas con formación en humanidades.

A lo largo del 2022, estamos trabajando en el desarrollo del proyecto “Diagnóstico y mitigación de sesgos desde América Latina en procesamiento de lenguaje natural” en el marco del programa de investigación de la <A+> Alliance.

En esta publicación desarrollaremos brevemente cada una de las conversaciones y expondremos los puntos claves de debate, discusión y conflicto que emergieron en cada una de ellas. Pretendemos que este resumen colabore en la construcción de una agenda de investigación-acción en inteligencia artificial elaborada desde Latinoamérica.

¿A dónde entra la ética en el desarrollo de IA?: Luciana Benotti, Laura Ación y Laura Alonso Alemany

En esta conversación inicial, tres integrantes de nuestro grupo debatieron sobre el lugar de la ética en el desarrollo de tecnología. Luciana Benotti es Doctora en Informática del Instituto Francés de Investigación en Informática y Automatización e investigadora en CONICET sobre tecnologías para sistemas de diálogo y sus interacciones con aspectos sociales y contextuales. Laura Ación es doctora en estadística de la Universidad de Iowa en EEUU e investigadora del CONICET en el Instituto de Cálculo de la Universidad de Buenos Aires. Trabaja en investigación con datos de salud desde 1999. Laura Alonso Alemany es doctora en lingüística, profesora en la Universidad de Córdoba y trabaja en aplicaciones de procesamiento del lenguaje natural usando aprendizaje automático.

Uno de los principios que se establecieron fue la idea de que la tecnología no es neutral y los desarrolladores deben estar sensibilizados sobre los posibles impactos sociales de lo que desarrollan. La falta de sensibilización actual podría relacionarse con que gran parte de las carreras de desarrollo de software, históricamente, no incluían ética entre sus materias.

Por ética se refirieron a tres principios fundamentales: 1. Respeto por las personas, los animales y el medio ambiente y su autonomía; 2. Justicia, es decir tratar a las personas de manera justa, equitativa y digna; 3. Bienestar de quienes participan directa e indirectamente de desarrollos de IA.

Para poder integrar la ética a la actividad informática hay que desarrollar contenidos curriculares locales y atender a los escenarios locales con ejemplos ligados a la disciplina. “Estamos muy acostumbrados a copiarnos currícula de otros países para materias técnicas [...] pero en este tipo de cosas necesitamos material desarrollado acá” comentó Luciana Benotti.

Otro punto relevante fue la importancia de incluir diferentes perspectivas en el ciclo de vida del software, además de métricas y herramientas que ayuden a reducir los impactos sociales negativos. No se puede reducir la responsabilidad ética únicamente a los valores personales y aparecen los financiadores, quienes toman gran parte de las decisiones condicionantes y los Estados, que pueden incidir no solamente como sancionadores sino a través de programas de incentivos.

Sobre el cierre, las entrevistadas concluyen que muchos de los problemas éticos no son nuevos y el enfoque debe ponerse en aprender de y dialogar con otras áreas. Este punto abre la puerta al resto de las conversaciones que llevamos adelante durante el ciclo.

Regulación de inteligencia artificial desde Argentina: Vanina Martinez, Sofia Scaserra, Enrique Chaparro y Beatríz Busaniche

Vanina Martinez es doctora en Ciencias de la Computación, investigadora del CONICET y coordinadora de Ciencia de Datos e Inteligencia Artificial en la Fundación Sadosky. Sofía Scaserra es economista especialista en comercio internacional. Se desempeña como docente e investigadora del Instituto del Mundo del Trabajo (Universidad Nacional de Tres de Febrero, UNTREF). Enrique Chaparro es matemático e integrante de la Fundación de Vía Libre donde estudia hace años los impactos sociales de las tecnologías.

Un primer problema es que el objeto de lo que queremos regular está mal definido. “Para poder establecer los límites es necesario determinar aquello que estamos limitando” enfatiza Enrique Chaparro. Esto se complica además por la transversalidad en la que se aplica la inteligencia artificial.

Otro punto de debate es la soberanía de los Estados. En este punto surge la idea de que debe haber una normativa de arquitectura digital y este es un debate que falta a nivel nacional. Desde Argentina uno de los marcos que tenemos disponibles para aplicar es la Ley de Protección de Datos personales la cual es, a su vez, anacrónica. Ante estos interrogantes los Estados deben fortalecerse. Por otro lado, hay debates que están saldados por derechos existentes, solo se tienen que hacer cumplir. Como pueden ser los derechos laborales.

Ante la pregunta de qué es lo más urgente se mencionan algunos aspectos que efectivamente es necesario una moratoria como pueden ser el reconocimiento facial y las armas autónomas. Más allá de estos ejemplos, la conversación derivó en que es necesario pedir transparencia en todo el proceso y velar por el proceso democrático.

A modo de cierre quienes integran la mesa concluyen en que la ética es un buen punto de partida, pero es necesaria la regulación para hacer prácticos estos principios. Es un problema político.

¿Cuáles son las preguntas necesarias sobre el rol de la IA en nuestras vidas? – Tomás Balmaceda y Diana Pérez

Laura Ación entabla una conversación con Tomás Balmaceda y Diana Pérez, doctores en filosofía que forman parte del Grupo de Inteligencia artificial, Filosofía y Tecnología (GIFT). Este grupo viene profundizando en diferentes miradas sobre “cómo la tecnología afecta nuestra forma de ser humanos o humanas sobre la tierra, nuestras formas de desarrollarnos y de dar sentido a nuestras vidas”. Así abre Diana la conversación, contándonos cómo la filosofía nos provee de dimensión histórica, diferencias transculturales y experimentos mentales como herramientas para entender aspectos complejos de la relación entre la tecnología y las personas.

En la charla se hace un recorrido por diferentes tipos de artefactos tecnológicos a lo largo de la historia y cómo esos cambios tecnológicos han producido cambios sociales y en nuestra forma de vida y, en ese sentido, la Inteligencia Artificial puede suponer una revolución como lo supuso la Revolución Industrial, aunque es difícil en este momento dimensionar su magnitud. En cualquier caso, señalan una cuestión fundamental: las aproximaciones basadas en aprendizaje automático, que identifican y repiten patrones, no parecen exactamente una herramienta para el cambio, sino más bien para la consolidación del statu quo.

Los filósofos nos comparten reflexiones sobre el proceso de traducir situaciones complejas de la vida real a lenguaje matemático, para poder trabajar con algoritmos. En este trabajo de traducción se pierden matices y eso ya es un indicador de que no podemos confiar en que el resultado sea objetivo. Dice Diana que “es una ilusión pensar que porque hay algo formal, lógico o matemático al medio todas nuestras acciones humanas alrededor de eso lógico-matemático que tenemos delante nuestro resulta objetivo y neutral”, porque sigue habiendo decisiones y valoraciones humanas involucradas.

Sobre el problema de los sesgos en inteligencia artificial, Tomás propone desbancar el concepto de que algo sea intrínsecamente bueno. Plantea en cambio una conversación sobre los valores comprometidos en los desarrollos con inteligencia artificial. Esta gran conversación tiene que incorporar perspectivas diversas: distintas generaciones, distintas orientaciones, distintas identidades, distintas formas de comprender el mundo, distintos lugares que tienen las personas frente al mundo.

Inteligencia Artificial Abierta - Matthias Gallé y Pedro Ortíz Suárez

En esta entrevista realizada por Luciana Benotti, Matthias Gallé y Pedro Ortíz Suárez nos cuentan del proyecto Big Science para hacer más accesibles algunos modelos muy grandes de inteligencia artificial. Matthias Gallé dirige varios equipos de investigación en Francia, en un centro de investigación de una empresa coreana. Pedro Ortíz es máster en matemáticas en la Universidad de Aix-Marseille en Francia. Actualmente es doctorante en tercer año de tesis en Sorbonne Université y en el INRIA. Pedro investiga aplicaciones de aprendizaje automático a las ciencias humanas y Matthias investiga sobre grandes modelos neuronales para entender mejor su comportamiento.

A medida que la carrera por quién tiene el modelo más preciso se intensifica, cada vez es necesario más poder de cómputo para poder siquiera hacer uso de estas tecnologías. Como consecuencia, quienes desarrollan estos modelos son unas pocas (y cada vez menos) empresas privadas que pueden permitirse el hardware necesario. Ninguno de estos modelos es accesible. Si bien muchos de estos modelos son de “código abierto”, la gran mayoría de instituciones no puede acceder al hardware necesario para utilizarlos e inspeccionarlos para entender mejor su comportamiento.

Mediante la iniciativa Big Science se consiguió el poder de cómputo necesario para entrenar un modelo para varios idiomas y dejarlo abierto para que se pueda acceder, analizar y estudiar. Aproximadamente 800 investigadores y científicos de 45 países de todo el mundo participan en este proyecto de forma altruista. El área de Inteligencia Artificial es muy competitiva, pero el modelo colaborativo permite cosas que no son factibles en el modelo competitivo. Por ejemplo, tener personas de todos los continentes y países facilita contactar instituciones, bibliotecas, distintas organizaciones en diferentes países para obtener datos de calidad.

Otro de los objetivos del proyecto es la recolección, filtrado y selección de datos de texto de calidad, inspeccionados por personas con diversas perspectivas, formaciones y sesgos. “Los modelos van y vienen, lo que quedan son los datos”. Cuando los modelos se entrenan con datos sin curar suelen filtrarse contenido que termina siendo reproducido por el modelo: racismo, sexismo, violencia, homofobia.
A modo de conclusión, la sociedad civil puede alentar y promover la diversidad en el mundo digital y, por otro lado, mantener el espíritu crítico: no dudar en hacer preguntas, no dejar de quejarse, no asumir que porque la computadora lo dijo no hay nada más que hacer.

Una visión crítica de la inteligencia artificial para el bien - Sasha Luccioni

En esta entrevista Luciana Benotti entrevista a Sasha Luccioni. Sasha es investigadora en IA en Canadá con formación en ciencias cognitivas y ha colaborado con la UNESCO en proyectos que intentan combatir la desinformación. El objetivo de esta entrevista es dar una visión crítica sobre la IA para el bien. A continuación describimos tres aportes de la entrevista: definir IA para el bien, ilustrar lo contraproducente que puede ser, y discutir aspectos a tener en cuenta al intentar hacerla.

Desde la perspectiva de Sasha, la IA para el bien es un movimiento y también un área de investigación que toma aplicaciones de la IA como traducción automática o clasificación automática de textos y las usa para beneficiar a la sociedad. Hay personas que argumentan que algunas empresas desarrollan proyectos bajo este slogan desde el área de relaciones públicas para conseguir un lavado de imagen de la IA que usan estas empresas y de las empresas mismas.

La inteligencia artificial para el bien se aplica en áreas relacionadas con los derechos humanos, como la salud, la educación y la pobreza. Por ejemplo, Inglaterra desarrolló una herramienta de IA para predecir las calificaciones de los estudiantes durante la pandemia. El modelo resultó sesgado en contra de las escuelas pobres. La intención fue evitar que los estudiantes tuvieran que hacer un examen en la pandemia, pero con buenas intenciones no alcanza para hacer IA para el bien.

La entrevista concluye con preguntas a tener en cuenta antes de iniciar un proyecto que se supone que usa IA para el bien: ¿Quién define el problema a ser abordado? ¿Se incluye a diversas personas que serán afectadas por la tecnología? ¿Cuáles son las limitaciones de los datos? ¿Qué métricas servirán para medir progreso? ¿Quién va a tomar la decisión en base a las predicciones? Según Sasha, estas preguntas deben hacerse y rehacerse antes de empezar y durante el proyecto por un equipo diverso que incluya a representantes de las especialidades y roles relevantes para el proyecto, siguiendo el espíritu de la frase “nada sobre nosotres sin nosotres”. Es fácil subestimar el esfuerzo de este tipo de proyecto y esa es una de las razones por las cuáles más de un proyecto de IA para el bien, no hace bien, concluye Sasha.

La industria del software ante el surgimiento de la ética en IA

En esta charla Matías Bordone conversa con el Licenciado en Ciencias de la Computación Pablo Zivic y el Doctor en Matemáticas Leandro Lombardi, científicos de datos de dos empresas importantes en Argentina y Latinoamérica.

En los últimos 15 años la definición de ciencia de datos ha evolucionado desde un mero análisis de datos offline hasta productos que adquieren datos en tiempo real y toman decisiones de manera directa. Los llamados sesgos de los sistemas de inteligencia artificial, la reproducción de estereotipos y prejuicios, es algo que comienza a estar en boca de los desarrolladores dentro de la industria. Ante la pregunta tácita de por qué encontramos sesgos en los productos, los entrevistados opinan que puede considerarse que el “intento de desarrollo técnico” le haya ganado a lo que debería ser un desarrollo cuidado de productos. Muchas empresas se dejan llevar por la idea que si algo es técnicamente posible, se haga. Los entrevistados opinan que si el modelo funciona peor con ciertos grupos sociales que con otros, no es un buen producto.

Otro punto clave es que los desarrolladores y demás responsables del ciclo de producción de software se pregunten qué desean del producto. Esto lleva a los programadores a preguntarse cuál es la función que uno optimiza ¿Queremos optimizar la cantidad de clicks que hace la gente aun a costa de someter a las personas a emociones fuertes como la ira? Quizás podemos optimizar otra cosa, opinan los entrevistados, por ejemplo “el bienestar”.

Si nos preguntamos qué incentivos tiene la industria en el uso de datos hay que distinguir entre las empresas que hacen productos propios, que están regulados únicamente por los marcos legales existentes, y las empresas que desarrollan para terceros. Estas se ven interpeladas por los clientes, que comienzan a ser conscientes de estas problemáticas que todavía no están reguladas de forma específica. De manera general, en todas las empresas otro incentivo puede ser no “hacer un papelón” en la prensa, sumándole que de acá a un tiempo esos papelones van a tener consecuencias legales.

Termina la entrevista con la pregunta sobre qué se puede hacer. Desde la industria se puede comenzar a inspeccionar sistemáticamente sesgos en los modelos de datos. Una parte importante es incorporar diversidad dentro de los equipos de desarrollo, que puedan ver diferentes sesgos. Además, pensar una profesionalización del área, considerando que la dimensión ética es parte del rendimiento del sistema, es decir, si tu modelo discrimina, es un mal modelo.

A modo de cierre, encontramos algunos puntos en común en estas seis charlas. Por un lado, identificamos la necesidad de entender que la tecnología no es neutral y que a raíz de ello más que generar un cambio termina consolidando un status quo. Esto deriva en la importancia de la diversidad de perspectivas dentro de los equipos de desarrollo y de la contextualización regional. Por otro lado, identificamos la necesidad del fortalecimiento de los estados, la demanda de transparencia, el debate y la participación como otro punto en común entre varias de las conversaciones.

Desde Fundación Vía Libre entendemos que la incorporación de tecnologías no puede ser un camino lineal y acrítico, romántico y tecnofílico, sino que cada abordaje debe ser respetuoso de los derechos de las personas involucradas, especialmente cuando se trate de derechos humanos fundamentales.

Referencias

Fundación Vía Libre. (Septiembre, 2021). ¿A dónde entra la ética en el desarrollo de IA?. YouTube. https://youtu.be/x1jE0rc-geE

Fundación Vía Libre. (Septiembre, 2021). ¿Cuáles son las preguntas necesarias sobre el rol de la IA en nuestras vidas?. YouTube. https://youtu.be/QJJKdPXUmkI

Fundación Vía Libre. (Septiembre, 2021). Mesa redonda: Hablemos de regulación de la IA. YouTube. https://youtu.be/2DzFpm0sXX4

Fundación Vía Libre. (Diciembre, 2021). Inteligencia Artificial Abierta. YouTube. https://youtu.be/elWH0g-q7xM

Fundación Vía Libre. (Diciembre, 2021). La industria del software ante la emergencia de la ética en IA. YouTube. https://youtu.be/Gz-s_6MSDXE

Fundación Vía Libre. (Diciembre, 2021). Inteligencia artificial para el bien ¿de quién? / Who benefits from AI for Good?. YouTube. https://youtu.be/TYaoiLVE3vY

Comments
0
comment
No comments here
Why not start the discussion?