Skip to main content
SearchLoginLogin or Signup

IA y el futuro de la humanidad: una perspectiva del budismo

Desde Tailandia, el líder del hub de Sudeste de Asia de la red fr, propone un abordaje de la IA y el futuro de la humanidad desde la perspectiva del budismo y la urgencia de pensarnos colectivamente sobre el papel que juega la IA en el futuro de la humanidad.

Published onJul 08, 2023
IA y el futuro de la humanidad: una perspectiva del budismo

Esta ponencia fue presentada en línea por el profesor Dr. Soraj Hongladarom, líder del hub del Sudeste Asiático de la red f<a+i>r, durante la Semana de Alfabetización Chula Futures de la Universidad de Chulalongkorn, Bangkok, Tailandia, realizada entre febrero y marzo del 2022.  La sesión fue moderada por el profesor Dr. Leonard Chrysostomos Epafras, de la Universitas Kristen Duta Wacana y el Consorcio de Estudios Religiosos de Indonesia (ICRS), Yogyakarta, Indonesia. Reproducimos acá, traducida al español, su presentación sobre la inteligencia artificial y los futuros de la humanidad desde una perspectiva del budismo, en la cual argumenta sobre la urgencia de pensarmos, colectiva y sistemáticamente, sobre el futuro y sobre todo sobre el papel que juega la IA en el futuro de la humanidad. La charla ha sido ligeramente editada para fines de claridad. Se puede consultar la grabación de la conferencia aquí: https://www.youtube.com/watch?v=xNonD2QglUc (N. de las Eds.)

Antes de todo, quiero agradecer a la universidad Chulalongkorn, en donde he trabajado por más de 30 años, por invitarme a dar una charla sobre este tema tan oportuno. El tema es el futuro, y sobre el papel que juega la IA en ese futuro. ¿Y qué es lo que más me gusta del título? Es que este no es mi título. Este es el título que me propusieron, que me propuso la universidad, y yo dije, “está bien”. Dijeron, "a lo mejor te diste cuenta", de que pusieron una forma plural de la palabra futuro. Entonces, "futuros de la humanidad", lo que implica, por supuesto, que hay varios futuros. Soy de filosofía y yo enseño lógica. Así que eso me distrajo: ¿por qué pusieron la palabra futuro en forma plural? Presumiblemente, imaginan que podría haber varios futuros. Pero, lógicamente hablando, no puede haber más de un futuro, porque cuando llegue el momento, no nos estamos ramificando en ningún lado, estamos viviendo en este mundo, y nos guste o no, nos quedaremos atrapados en este mundo. Ese será el único mundo real. Es diferente a las películas de ciencia ficción, donde podemos retroceder en el tiempo y cambiar el futuro. Sin embargo, esto nos da una advertencia o algo en lo que debemos pensar. Porque, de veras, solo hay un futuro. Así es que debemos hacerlo lo mejor que podamos hacer. Cuando se trata de un futuro, hay una posibilidad, por supuesto, por eso pusieron el plural de “futuros” en el título. Podríamos pensar en lo que podría pasar dentro de 10 o 20 años, hay varias posibilidades. Aunque, cuando hayan llegado los 20 años, será únicamente uno. Entonces, está abierto, el camino siempre está abierto, ahora mismo, para trazar nuestro curso para el futuro. Creo que eso es importante. Creo que esa es la razón principal por la que la UNESCO y la Universidad de Chulalongkorn han organizado esta semana de alfabetización sobre futuros. 

Creo que podemos pasar un tiempo hablando de por qué necesitamos hablar sobre el futuro. Luego, sobre qué papel juega la IA en nuestro futuro. No el futuro de la AI, el nuestro, los seres humanos. El futuro para nosotros, los seres humanos. ¿Y qué tipo de papel juega la IA en nuestro futuro? Y qué debemos hacer para que nuestro futuro, es decir, nuestra posibilidad, el futuro que ahora mismo existe como posibilidad, se haga realidad. 

Y luego hablaré de un proyecto, un proyecto fascinante, del que tengo el honor de ser parte. El proyecto sobre la incubación de la IA feminista ilustra claramente lo que debemos hacer para imaginar el tipo de IA que existirá dentro de nuestro futuro, no el futuro de la AI. Finalmente, de cómo pueden ayudar las ideas obtenidas de la filosofía budista, el tema de mi libro que se publicó en 2020. Entonces, sigamos adelante.

¿Por qué tenemos que hablar del futuro? Bueno, antes de pasar a hablar sobre la IA, la ética de la IA, la ética budista y la IA, etc., dado que esto es parte de la semana de la alfabetización sobre futuro, creo que nuestra charla puede contribuir al evento principal dedicando algún tiempo sobre por qué hablar del futuro ha adquirido cierta importancia. Tanto es así que la UNESCO y Chula han invertido tiempo y esfuerzo en la organización de estas actividades. 

Hay una enseñanza en el budismo de que no debemos preocuparnos demasiado por el futuro. En su lugar, deberíamos preocuparnos más del presente. La idea es ser consciente del presente, ser consciente de lo que está sucediendo en este momento y no preocuparse demasiado por el futuro. Hay mucho de verdad en esa enseñanza. Sin embargo, tal vez eso no descarte la necesidad de que debamos pensar en el futuro, de alguna manera, de una forma u otra. La razón de esto es que necesitamos entender qué tipo de consecuencia traerá nuestra acción actual. Hacia nosotros mismos, hacia nuestro yo futuro, ya que probablemente la mayoría de nosotros todavía vivirá dentro de 10 o 20 o 25 años. Y cualquier cosa que estemos haciendo, o cualquier decisión que estemos tomando en este momento, tendrá consecuencias en el futuro lejano. Y estaremos entre los que se verán afectados por esas decisiones. Sin mencionar a nuestros descendientes, hijas e hijos, nietas y nietos. Si pensamos en el futuro en muchos años después del año actual, 2022, ahora mismo, esa es una respuesta obvia a la pregunta de por qué necesitamos hablar sobre el futuro. Y desde luego, no es sólo pura especulación. 

No estamos hablando del futuro como los adivinos o los astrólogos, que a lo mejor nos quieren decir que el próximo año pasará esto o aquello, que en el 2025 pasará esto o aquello. No nos preocupa eso, nos preocupan los efectos que podría traer nuestra acción actual. ¿Y por qué es importante en términos de nuestras políticas, nuestras actitudes hacia la IA? Es que la IA es una tecnología tan poderosa, es una tecnología tan transformadora, y está siendo desarrollada a un ritmo muy rápido por laboratorios de todo el mundo. Las naciones compiten entre sí para crear los últimos avances en IA. Y estamos realmente, literalmente, en la encrucijada. El futuro podría ir hacia la izquierda o hacia la derecha, hacia delante, hacia arriba o hacia abajo. Depende de nuestras acciones en este momento. Por eso creo que esta actividad, donde nos reunimos para hablar sobre nuestro futuro como resultado, ha adquirido mucha importancia. 

Entonces, estoy muy interesado en esta forma plural. ¿Futuro o futuros? A veces deseo poder tener muchas vidas. Quisiera poder ramificarme, por así decirlo, y vivir en varios futuros alternativos o universos paralelos. Por ejemplo, en el futuro, tal vez mañana, podría ir al futuro número uno, al futuro número dos o al futuro número tres. Y luego, experimentar lo que haya para experimentar, en cada uno de estos futuros. Pero todo lo que podemos hacer, por supuesto, es imaginar cómo sería. Asimismo, el futuro real se convertirá en nuestra actualidad, nuestra experiencia elevadora, que solo podemos experimentar a través de nuestros sentidos. Y las posibilidades se volverán, así, solo posibilidades. Pero no es como lo que nos dicen los adivinos. 

Es fascinante hablar sobre el futuro. Pero debemos ser conscientes de que podemos hablar de futuros de manera más sistemática. De tal manera que tengamos respaldos, tengamos evidencia científica, tengamos hallazgos de investigación para respaldar nuestra conclusión. Por ejemplo, el cambio climático. Llevamos décadas hablando del cambio climático. Los efectos que los científicos nos advirtieron hace dos o tres décadas que sucederían están sucediendo ahora mismo. Así que estamos experimentando, estamos viviendo, en efecto, en el futuro que los científicos, hace unos 20 años, 30 años, nos advirtieron. Y lo estamos viviendo, estamos experimentando las consecuencias de nuestras acciones en el pasado ahora mismo. Y podemos imaginar lo que sucedería en el futuro, visto desde nuestra perspectiva de 2022.

¿Realmente tenemos un futuro?

Esto suena como una pregunta pesimista, pero no quiero que el tono de mi charla sea pesimista, es decir, yo no soy una persona pesimista en absoluto. Los que me conocen a mí o a mis palabras lo sabrán: al contrario, pertenezco al otro campo. Pero la pregunta se ha vuelto importante porque, en este momento, hay una gran guerra en marcha. Nadie sabe qué tipo de resultado sucederá. Quiero decir, todas las guerras son así, nadie puede predecir los resultados de ninguna guerra. Siempre hay muchas posibilidades e inseguridad, en el sentido de que no se puede predecir con detalle el resultado de una guerra cuando se está librando. Es posible que uno pueda predecir en términos generales, a largo plazo, considerando la cantidad de recursos que tienen las dos partes. Pero cuando las dos partes comienzan a comprometerse, son muchas las posibilidades. 

En cualquier caso, cuando hay una gran guerra, como ahora, que todo el mundo conoce, entre Ucrania y Rusia, surge esta pregunta. Quiero decir, ¿realmente tenemos un futuro cuando un lado tiene una gran cantidad de arsenal nuclear? Y el otro lado, a pesar de que no son parte del conflicto, están viendo muy de cerca sus desarrollos. Así que el viejo miedo que la gente tenía en los años posteriores a la Segunda Guerra Mundial, a las guerras nucleares y cosas por el estilo, ha regresado. El viejo miedo a las guerras y la gente protegiéndose ha vuelto. Quiero decir, es muy rápido, el año acaba de comenzar, el otro día, y muchos acontecimientos en el mundo ocurrieron solo durante estos pocos días después de que estalló la guerra. Así que esta pregunta ha llegado a tener cierta importancia. 

Estos dos líderes políticos [Vladimir Putin y Volodímir Zelenski, líderes de Rusia y Ucrania respectivamente] hacen referencia a un evento mundial que tiene mucho que ver con nuestros nuevos pensamientos, especulaciones y pensamientos sobre el futuro. Cuando hablamos del futuro, y esta es una forma muy cruda de dividir las actitudes hacia el futuro, están los utópicos y los distópicos, el optimismo y el pesimismo. Ninguno de los dos lados tiene razón. La verdad suele ser una mezcla de las dos posiciones. Pero esas dos posiciones al menos reflejan nuestras actitudes. No estamos hablando de lo que realmente sucederá. Hablamos de nuestras actitudes hacia el futuro. Podemos estar en el lado utópico y podríamos estar entre los que están en el lado distópico. Estas actitudes también entran en juego cuando hablamos de IA.

Entonces, para abreviar, debemos hablar sobre el futuro porque necesitamos saber lo que debemos hacer ahora mismo. Entonces, como dije, esto se ha vuelto crítico, estamos en una encrucijada importante. 

La IA y nuestro(s) futuro(s) 

Como decía, está la banda utópica y está la banda distópica. El lado utópico diría “ah, la IA es una panacea. La IA nos está ayudando de muchas, muchas maneras. La IA nos está aliviando de todo tipo de cargas, por lo que ya no necesitamos esforzarnos, ni trabajar duro”. Estoy hablando de actitudes muy crudas hacia la IA y nuestro futuro. Los utópicos creen en el tremendo poder de la IA para ayudarnos en muchos tipos de actividades. Sin embargo, están los distópicos, que han destacado, en muchos casos con razón, los peligros de la IA. Por ejemplo, hablan de que la IA nos quita el trabajo, dejándonos sin empleo y con inseguridad económica y sin ninguna injerencia sobre lo que nos sucederá. Muchos estudiosos, muchos científicos, han predicho que la IA podría volverse consciente. Que la IA podría convertirse en lo que ellos llaman “inteligencia artificial  general” (AGI), en el sentido de que entienda los significados del lenguaje y tenga representaciones internas. Todo tipo de cosas que nos han distinguido a nosotros, los seres humanos, de todo lo demás en el universo. Esa característica definitoria de la humanidad parece convertirse rápidamente en una característica definitoria de la IA también. 

Entonces, entre los distópicos, el temor es que la IA no solo se esté haciendo cargo de nuestros trabajos, sino que la IA parece estar apoderándose también de nosotros mismos. Podría convertirse, en palabras de Nick Bostrom, en una superinteligencia. Cuando llegue ese momento, depende de la IA dónde quieran ubicarnos. Es posible que quieran preservarnos y ponernos en una especie de zona especial para los seres humanos. No tan malo como los campos de concentración, pero algunos tipos de tierra donde podemos vivir, y nos dejan solos. Entretanto, las IA se encargarían de los asuntos del mundo por sí mismas. O a lo mejor podrían querer eliminarnos a todos juntos, esa también es una posibilidad. 

Justo he visto una noticia que dice que los científicos han descubierto que la IA ha comenzado a poseer algunas indicaciones, algunas indicaciones tempranas, de ser consciente. No sé si esa noticia se puede verificar o no, pero según muchos científicos, entre ellos destacados y famosos, como Nick Bostrom, la IA podría reemplazar, o efectivamente lo hará, a los seres humanos como el organismo dominante en el universo o en el mundo. Esos son unos futuros que se crean a partir de ahora. Ese es precisamente el tema que estamos viendo ahora mismo, la IA y nuestro futuro o futuros, si es que no nos hemos destruido a nosotros mismos antes, a través de las guerras y a través de las bombas nucleares y demás. 

En este momento, tenemos el lado utópico, y muchas personas del lado utópico dirían algo como “es improbable” o “es muy poco factible”. Y algunos científicos prominentes también están diciendo esto, que la IA podría volverse completamente consciente y que tomará nuestro lugar, como he dicho. Es más probable que la IA se vuelva algo como nuestros amigos y nuestros sirvientes, y que siga trabajando con nosotros. Como dije antes, depende de nosotros en este momento, de nuestra acción colectiva, en este momento crítico. Si este o aquel escenario para el futuro podría suceder, depende de nuestras acciones. Si la IA podría volverse super inteligente y buena, o si la IA nos colocará en un zoológico, o si la IA podría convertirse en nuestro aliado y continuar colaborando, para trabajar con nosotros en el futuro. 

Entonces, he resumido aquí algunos posibles futuros de la IA. He hablado sobre AGI, inteligencia artificial y súper inteligencia, el tipo de IA que es completamente consciente. También que la IA está amenazando nuestros trabajos. Los vehículos autónomos se están desarrollando en muchos países del oeste y es solo cuestión de tiempo que estos vehículos lleguen a Tailandia, Indonesia o Malasia. Entonces, debemos pensar qué tipo de guía, qué tipo de regulaciones y qué tipo de roles jugarán estos vehículos autónomos en nuestras vidas y en nuestras sociedades. 

Por supuesto, también se están desarrollando sistemas de armas autónomos. Existe un debate sobre si se debe permitir que estos sistemas de armas desempeñen un papel en el combate real. Por lo que he recopilado de la guerra entre Rusia y Ucrania, todavía no hay noticias sobre el despliegue de sistemas de armas autónomas, pero en el futuro, ¿quién sabe? Si es que hay un futuro. 

Sin embargo, el debate es algo así: por un lado, deberíamos considerar una IA que procese el poder letal, o una IA que controle los sistemas de armas, como algo que deberíamos prohibir por completo. El mismo tipo de actitud que tenemos actualmente con las armas biológicas y las armas químicas porque son demasiado peligrosas. Porque no queremos que la IA se prenda, por así decirlo, y dispare a la gente. Sin embargo, algunos piensan que quizás, quizás, la IA debería desempeñar un papel bastante limitado en el control de los sistemas de armas, porque cuando miras qué tan rápido vuelan los aviones de guerra modernos y qué tan rápido funcionan estos sistemas de armas, en muchos casos es demasiado rápido para que un ser humano normal se ajuste. Aunque ese ser humano sea un soldado entrenado. Entonces, la IA podría entrar en este punto para ayudar a los soldados humanos a tomar sus decisiones. Pero la decisión, al final, debe pertenecer al comandante humano. Ese es un argumento a favor de un papel más limitado para los sistemas autónomos. Pero resalta mi punto: estamos ahora mismo en la encrucijada y cualquier decisión que tomemos ahora tendrá consecuencias. Consecuencias serias, muy graves, en un futuro lejano. Además, también tenemos IA en recursos humanos, como cuando se desea contratar a una nueva persona para un puesto. Muchas empresas ya lo están haciendo con IA. Usan IA para analizar carteras y otras formas de información y la IA sugiere si se debe contratar o no a una persona. Entonces, ¿queremos que nuestro futuro como empleados de tal o cual empresa lo decida una IA? También hay IA en las inversiones. La IA se utiliza para decidir qué forma de inversión es la mejor para el inversor, utilizando algún tipo de algoritmo. Entonces, en lugar de seres humanos, se está utilizando la IA para decidir nuestra inversión por nosotros. Y está, por supuesto, la IA en la ley. La IA está trabajando como juez en China. Hay evidencia e informes de noticias provenientes de China, de que ahí la AI se utiliza para analizar varios documentos legales. Y también en la educación, y así sucesivamente. 

Estos futuros, algunos de ellos son el presente, apuntan a los roles cada vez más generalizados que la IA está desempeñando en nuestras vidas. Entonces, esto me preocupa: ¿la IA asumirá el trabajo de los profesores de filosofía? No sé. Yo no lo quiero, no. O tal vez. Quiero decir, la AI ahora ya puede escribir en un artículo científico. Es capaz de presentar una conferencia. Eso es, al menos para mí, una especie de amenaza directa. 

Pero, ¿qué debemos hacer? Quizás podamos seguir encontrando, o sugiriendo, respuestas a esta pregunta en el período de preguntas y respuestas. Sin embargo, sugeriría que eliminar la IA no es una opción. Digo esto porque la IA está demasiado arraigada. La tecnología está demasiado cerca de nosotros y muchas industrias ya confían demasiado en la IA. Entonces, prohibir por completo la IA no es factible, no es realista. Así, lo que debemos hacer es asegurarnos de que el tipo de IA con la que viviremos sea del tipo dócil y amigable con nosotros, y no una que trate de destruirnos por completo como especie. O de destruir incluso todo el entorno en el que vivimos. Por lo tanto, necesitamos una forma de vivir con IA. Esto significa que debe haber sistemas de regulación robustos y formas sistemáticas, exigibles y efectivas para canalizar su poder. Y este debe ser un esfuerzo global coordinado por todas las partes interesadas en todo el mundo. No puede ser prerrogativa de ningún país en particular porque la IA parece estar omnipresente en todas partes.

Alianza A+ para algoritmos inclusivos: una visión para el futuro

Tengo la suerte de ser parte de esta coalición llamada A+ Alliance for Inclusive Algorithms. Hay un grupo de la academia y activistas e integrantes de organizaciones de la sociedad civil de todo el mundo y compartimos este objetivo común de buscar el papel que debe desempeñar la IA para ser nuestra aliada, por así decirlo, y no nuestra enemiga. Tenemos muchas actividades, y estoy planteando esto para mostrar que esta es una visión para el futuro. Representa un intento entre muchos, ya que hay muchas otras redes, de canalizar, de poner a la IA a trabajar para nosotros, en el momento en que todavía es posible poner a la IA a trabajar para nosotros, porque todavía está en proceso de desarrollo. La red se centra en un futuro digital libre, feminista e inclusivo. Y notarán que este futuro hace eco muy bien con nuestra charla de hoy. 

Esto también es del mismo sitio web, de la red f<a+i>r: “Creemos que es necesario contemplar nuevos sistemas y estructuras para la IA para los tiempos venideros”. Y para la gobernanza de la IA y para el tipo de entorno, para la estructura contextual que rodea a la IA, que será necesaria para los tiempos que se avecinan. “Los tiempos venideros”, estamos hablando del futuro. Entonces, el proyecto se llama "Incubando IA feminista". Este es nuestro objetivo, el poder de la IA debe aprovecharse para que sea una fuerza para el bien, creando una sociedad más igualitaria. Pero, ¿cómo? Ese es el desafío. Por eso me siento honrado de ser parte de eso, y pensar cómo aprovechar, cómo programar o cómo hacer cosas con IA de tal manera que pueda convertirse en una fuerza para el bien. 

Una IA ética

Al contrario de lo que dicen otros académicos, que la IA siempre se convertirá en nuestro enemigo, yo creo, y muchos de mis colegas creen, que es posible que la IA se convierta en una fuerza para el bien. Lo creemos porque la IA, después de todo, es ahora solo una pieza de software de algoritmo. Muy, muy poderosa, sí, pero solo una pieza de software. Entonces, todavía es viable, todavía está en el proceso en el que podemos moldearlo en algo que esté de acuerdo con nuestros valores y objetivos. 

El subtítulo de la charla es “una perspectiva desde el budismo” y esto viene del libro mencionado anteriormente. Primero, el budismo proporciona un análisis ético, pero no tengo tiempo para hablar sobre todo el sistema de ética en el budismo, solo que este proporciona una alternativa y, en algunos casos, una mejor alternativa que las formas occidentales de analizar problemas éticos. Entonces, la filosofía budista proporciona una nueva forma de pensar sobre los efectos de la IA. Una que se centra en la excelencia, en lo mejor que puede ser la IA. No se trata únicamente del aspecto técnico, sino que es una combinación de los aspectos técnicos y éticos. Para que los aspectos éticos y técnicos de la IA se conviertan en uno mismo, inseparables. Entonces, la excelencia está ligada a nuestros valores y objetivos deseados. Temas como la felicidad floreciente, la inclusión, la igualdad, etc, comprenden las nociones dentro de las cuales entendemos qué significa realmente la excelencia en este contexto. Ese sería un breve resumen de mi libro.

Para concluir, no necesitamos enfrentarnos a la IA en el futuro. La IA no tiene por qué ser nuestra enemiga. Pero debemos actuar en conjunto ahora. Debemos encontrar formas de crear el tipo de IA que se alinee con nuestros valores. Aunque las IA no piensan como nosotros porque, después de todo, se basan en algoritmos y pensamiento binario, y sus cerebros están hechos de silicio, esto no implica necesariamente que serán nuestras enemigas. No existe una conexión necesaria entre el hecho de que la IA no piensa como nosotros y la idea de que deban ser nuestros enemigos, simplemente no existe una conexión lógica. Por lo tanto, debemos hacerles comprender que para lograr la excelencia, la IA debe ser ética, es decir, una combinación de aspectos técnicos y éticos entre los cuales, como mencioné anteriormente, no hay separación. 

Comments
0
comment
No comments here
Why not start the discussion?