_
_
_
_
_
Inteligencia artificial

“La protección mínima no basta para quienes se encuentran en lo más bajo de la sociedad”

Sabelo Mhlambi, investigador de Harvard, defiende la necesidad de separar la inteligencia artificial del marco de pensamiento occidental en el que siempre se ha desarrollado

La cultura zulú es oral. A falta de una escritura en la que inmortalizar su filosofía, esta se engarzó en el lenguaje. En vocablos tan básicos como el saludo, sawubona, habitan connotaciones que van más allá de un mero hola. “Significa literalmente te veo, te siento, te reconozco”, explica Sabelo Mhlambi, investigador de origen zambiano de los centros Harvard Carr y Berkman Klein, de Harvard.

Esa fuerte interrelación entre la comunidad, propia de la filosofía postcolonial africana, choca con todo lo que hoy es la industria tecnológica y, en concreto, el campo de la inteligencia artificial. Formado en ciencias de la computación y centrado en el estudio de las implicaciones éticas de la tecnología en las regiones en vías de desarrollo, Mhlambi pasó por Silicon Valley antes de regresar a la academia. Desde su experiencia en startups y compañías del Fortune 500, rechaza que desde un rincón del mundo se pueda crear una herramienta global y personalizada para los habitantes del resto del planeta.

“Si quiero construir algo que te ayude, no puedo hacerlo desde California y esperar que sea perfecto. Tengo que estar en relación contigo para saber lo que necesitas. Tengo que verte”, explica. “Da igual la tecnología, las matemáticas y los programas que desarrollemos. Nunca reemplazaremos la necesidad de ser relacionales. Nunca reemplazaremos el input de otras personas”. El hecho de que ya haya sistemas automatizados decidiendo la suerte de ciudadanos anónimos y convirtiendo sus experiencias vitales en un puñado de datos procesables prueba según el investigador que algo ha estado fallando… durante siglos.

P. Defiende que el desarrollo de la inteligencia artificial ha estado históricamente dominado por el marco de pensamiento occidental. ¿Cuál es el coste de esto?
R. La forma de pensar que tenemos hoy en día, al menos en lo que respecta a la inteligencia artificial, nació en la Ilustración. La misma era en la que esas mismas filosofías se utilizaron para justificar la esclavitud, el racismo y la colonización. La idea principal es que puedes ver el mundo de forma objetiva y predecible. Que puedes usar números, lógica, computación y no necesitar la visión de otras personas porque ‘los números no mienten, no son racistas, no están sesgados’.

Este movimiento hacia el pensamiento racionalista estaba en realidad acompañado por lo irracional. Lo que normalmente era racional y objetivo tendía a ser lo que era bueno para Europa occidental y la economía americana. Este tipo de pensamiento conduce a la desigualdad. Si queremos encontrar algo que empodere a la sociedad en lugar de a individuos específicos necesitamos encontrar filosofías que estén construidas para enfrentar la desigualdad.

Puede que esto no lo resuelva todo, pero seguramente funcionará mejor que lo que estamos usando ahora. Y no tiene que ser un marco de pensamiento africano. Encontramos lo mismo en América Latina, en filosofías indígenas, asiáticas, orientales, en Hawaii… Estas ideas probablemente representan la mayoría del mundo, pero por razones históricas, por la expansión europea, tenemos esta visión dominante. No porque sea popular, porque funcione mejor, o porque sea más ética. Está ahí por la fuerza.

P. ¿En algún momento hubo una aproximación alternativa a este campo?
R. Siempre ha sido un movimiento de minorías. Incluso ahora. Un modo en que vemos a las compañías tratar de acallar el temor a estas tecnologías es decir: ‘Tenemos juntas éticas, políticas de derechos humanos, comités de desinformación… Todo está bien’. Si miramos esto desde el contexto histórico, es otra manera de permitir que la tecnología se siga desarrollando bajo el pretexto de que puede ser segura. Eso no es práctico, especialmente cuando ni siquiera estás implicando al resto del mundo en esa tecnología. Nos están engañando cuando nos dicen que, si tenemos juntas éticas, estamos a salvo. No estaremos a salvo hasta que todo el mundo participe en ello.
P. Su propuesta es incorporar el concepto africano de Ubuntu a estos desarrollos. ¿En qué consiste?
R. Todo se reduce a lo que significa ser una persona. A diferencia de las principales posturas occidentales, en las que el ser humano es puramente individual, y pensar, ser racional es lo que le hace humano; decimos que ser humano es la habilidad de ser relacional, colaborar, cooperar, estar en comunidad. En Ubuntu no naces como una persona completa, tienes que alcanzar la máxima expresión de lo que significa ser humano. Es un proceso de desarrollo continuo, te vuelves persona en el modo en que te relacionas con otra gente. Si les tratas de forma inhumana, te vuelves menos persona. Si les tratas de forma humana eres más persona.

Quien eres no está basado en quién eres individualmente, sino en tu relación con otros. Como resultado de esto, todos estamos conectados. Lo que a ti te afecta, puede afectarme a mí. Compartimos una humanidad común, y por eso debemos intentar alcanzar un equilibrio colectivo en lugar de pensar únicamente en reclamos individuales y tratar los objetivos comunes como algo secundario.

P. ¿Cómo se relaciona esto con la inteligencia artificial?
R. Cuando los matemáticos, lógicos, filósofos y científicos de la computación estaban trabajando en ella, también estaban respondiendo a la pregunta de qué significa ser humano. Su primer error fue pensar que podemos hacer máquinas que son sencillamente matemáticas y lógicas. La idea de que los humanos son seres racionales nos anima a pensar que no necesitamos hablar con los demás porque esto es matemático, lógico. Nos anima a buscar soluciones que no toman en cuenta la perspectiva humana.

Otra cosa que falta en este ecosistema es la idea de reparación o restauración. El pensamiento racionalista no fomenta la restauración, sino la retribución: el ojo por ojo. En el caso de la tecnología, la idea es que si se admite culpa, se debe pagar lo equivalente. No tenemos un sistema que permita decir: “Perdón, quiero hacer las cosas mejor”. Así que lo que hacen es evitar la cuestión.

Ubuntu nos da una solución a largo plazo en el sentido de que es una forma de decir: “Vamos a lidiar con este problema de una vez”. Y la manera de hacerlo es decir a los responsables que necesitan un sistema para volver a ser parte de la sociedad, de modo que no estén distantes y temerosos de que si admiten su culpa serán perseguidos. Se trata de decir “hay redención para ti, puedes admitirlo y no serás crucificado por ello ello. Tendrás un lugar en la sociedad y podrás ser parte de la comunidad”. Una vez que alcancemos este entendimiento podremos empezar a reestructurar la sociedad.

P. Teniendo en cuenta nuestros antecedentes, ¿cómo valora cómo valora la constante competición de EE UU y China?
R. Hay una tercera parte aquí: la gente que está al final de la jerarquía. No quieren el modelo chino porque es demasiada invasión, pero tampoco quieren el modelo estadounidense de capitalismo digital. Además, aquí hay una amenaza, porque ahora mismo China está en relaciones con muchos países africanos para la explotación y entrenamiento en tecnología. Zimbabue fue el primer país en recibir tecnología china de reconocimiento facial. Y Zimbabue es internacionalmente conocido por problemas de violaciones de los derechos humanos, ataques, secuestros… ¿Te puedes imaginar lo que pasaría si tuvieran una herramienta mejor para controlar y vigilar a la gente?

Creo que hay espacio para un nuevo modelo que no tenga que ser ninguno de esos extremos. Algo con lo que podamos tener lo que necesitamos como sociedad sin estar sobrevigilados ni sobremercantilizados.

P. El cambio que propone y la introducción del concepto de Ubuntu en este sector es un proceso lento. ¿Es realista esperar que las tecnológicas aminoren el paso?
R. No. Si eres una startup con dos ingenieros, tu objetivo es estar listo para el mercado cuanto antes. Esa es la cultura. Es difícil esperar que los empleadores cambien cuando el ecosistema no cambia. Esperamos de Google y Facebook que sean más éticos, menos invasivos. Pero están respondiendo a su entorno, a sus accionistas. Tienen que actuar así para mantener su modelo de negocio. Tienen que dejar las cuestiones éticas para más adelante porque si no, la competencia les sacará ventaja. Y también están las cuestiones geopolíticas. Es difícil detenerse cuando piensas: “Si no lo hago yo, Rusia lo hará primero”.

Para justificar ese cambio de ritmo necesitaríamos tener un nuevo modelo que colocase a los humanos por encima del beneficio. Pero eso es lo contrario del capitalismo de vigilancia, que está centrado en poner el beneficio por encima de los humanos.

P. Entonces, ¿hay esperanza?
R. Creo que esto podría ocurrir en el continente africano. Porque es un lugar donde ahora mismo solo el 26% de la población tiene acceso a internet. Así que puede ser un lugar donde formar nuevos hábitos, nuevas relaciones. Pero cuando esa ventana se cierre, jamás podremos escapar.
P. ¿Trae el reciente despido de Timnit Gebru en Google más motivos para el pesimismo?
R. Sí, pero también motiva una acción más radical. Al menos para gente como yo, el ejemplo de Timnit reafirma que estas compañías son incapaces de cambiar y transformarse. Que una activista tan prominente haya sido despedida por hacer su trabajo es solo un ejemplo más.

Siento pesimismo, pero no sorpresa. Para serte sincero, cada vez que veo buena gente trabajando en esas compañías, me pregunto, ¿cómo de lejos van a llegar? Intento silenciar esos pensamientos y esperar lo mejor, pero luego ocurre esto.

P. Mientras tanto, hay diferentes iniciativas que están tratando de desarrollar un marco ético para la inteligencia artificial. ¿Tienen los cimientos correctos?
R. En general, no se están construyendo con valores indígenas o africanos. No han consultado. Y lo sé porque normalmente soy parte de esos esfuerzos, donde soy la única persona africana, esencialmente está tratando de representar a mil millones de personas. Eso no es suficiente cuando tienes diez expertos europeos. No es representativo.

El argumento suele ser que tenemos el marco de los derechos humanos que es global y en el que todos estamos de acuerdo. Pero al mismo tiempo ese acuerdo es dudoso, porque el 10 de diciembre de 1948, cuando se firmó la Declaración Universal de los Derechos Humanos, muchos países de África no eran libres.

Estos marcos no incluyen la Carta Africana de Derechos Humanos y de los Pueblos, que es lo que la gente llama la tercera ola de los derechos humanos. Así que no tengo ninguna esperanza en esas iniciativas porque no creo que sean suficientemente inclusivas. Y ni siquiera aspiran a serlo: pretenden ser la protección mínima. Para los africanos, lo mínimo es nada. No es protección. Eso funciona para la gente que ya tiene el poder y ya está protegida. Pero no basta para quienes se encuentran a sí mismos en lo más bajo de la sociedad.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_