#MILGlobalUnderstanding

#RethinkingHumanHorizon

Entrevistas

Lorena Jaume-Palasí: “Los perfiles radicalizados usan la estructura de Facebook pero evaden a sus algoritmos como estrategia desinformativa”

Entrevista a Lorena Jaume-Palasí.
Lorena Jaume-Palasí, experta en IA y gobernanza de algoritmos.

Si hablamos de vigilar algoritmos y su diseño ético a nivel de Europa, el nombre de Lorena Jaume-Palasí surge de inmediato. Considerada la dama de la inteligencia artificial (IA) de España, ella es toda una autoridad en la materia. Por gusto no fue nombrada como una de las sabias que aconsejará al gobierno español en esta materia, convirtiéndose en vocal del Consejo Asesor de Inteligencia Artificial de España, perteneciente al Ministerio de Asuntos Económicos y Transformación Digital. Además, Lorena forma parte del Consejo asesor del Institute Goethe de sistemas de IA en Alemania, en donde vive hace más de quince años y fundadora de las ONG´s de gobernanza de algoritmos e IA “AlgorithmWatch”  y “Ethical Tech Society

Después de más de una década de trabajo centrada en la observación de la IA y los algoritmos usados por las plataformas de social media, desde una visión que va más allá de la efectividad y la lógica-numérica para centrarse en el factor social, quien mejor que ella puede abordar el por qué las estrategias contra la desinformación empleadas desde Sillicon Valley o el fact-checking están siendo desbordadas por la imparable circulación de contenidos falsos.

A.A.: En una era de abundancia de desinformación, polarización y teorías conspiratorias discurriendo en redes sociales, ¿cuál ha sido el papel de tecnologías, como la IA, los algoritmos y la automatización en este escenario?

L.J-P.: Si partimos de las redes sociales, claro con la IA, son gestionadas de forma diferente a sus orígenes, cuando teníamos una timeline cronológica en la que se podía ver todo. Ahora rigen otros principios más oscuros y difíciles de entender, que determinan lo que veo, y están basados en factores como mi ubicación geográfica, género, preferencias o lo que ven mis amigos.

Por otro lado, en un espacio público o digital estamos expuestos a cosas de las que no tenemos control, porque es una mezcla de interacciones. Así sucede con los algoritmos de los medios sociales, que son una instancia de control social muy fuerte, pero dependen de los datos y reacciones que los usuarios producen. Por ello, la situación es complicada. Tenemos compañías que crean sistemas que no están claros y los usuarios co-creamos con nuestras interacciones.

Eso sí, los medios sociales no son el único espacio público que tenemos. Hay muchas más cosas que juegan un rol a la hora de marcar la forma que pensamos y evaluar como el entorno influye en nuestras ideas políticas. Hablamos de contextos plurifactoriales.

A.A.: Claro, las redes sociales son solo una herramienta. Hablando de esto, pienso en el mal uso que se ha dado a la IA para interferir en procesos democráticos, como las elecciones estadounidenses del 2016, o en crisis sociales como las del coronavirus ¿cuándo las nuevas tecnologías son en una amenaza para la democracia?

L.J-P.: Estamos intentando entenderlo, porque el que una persona cambié de opinión es difícil. Si vemos la historia de la propaganda, lo que tienen que hacer los regímenes fascistas para que en una sociedad la gente no se atreva a tener una opinión divergente es mucho trabajo. Por ejemplo, China a pesar de que controla todo en internet tiene muchas medidas adicionales para que las personas no perciban opiniones diferentes. La efectividad de la propaganda se relaciona con hasta que punto la gente puede ver otras opiniones, lo que determina si hay un grado de homogeneización alto. Las democracias no están basadas en la verdad, responden a las estrategias de la desinformación con pluralidad, libertad de expresión para que cada uno se forme su opinión.

Aparte, hay que analizar lo que esa información pretende a nivel discursivo. Las estrategias de la desinformación apelan a un nivel de identificación. Por eso vemos que en los medios sociales el fact-checking no ayuda en la mayoría de los perfiles de gente que ha decidido creer en hechos alternativos sino lo contrario. No se trata de convencerlos, porque se apela a su identidad y al confrontarla con hechos, pones a esa persona en un conflicto de lealtad, porque se ha adherido a una ideología y dependiendo de cuan homogeneizado es su entorno, se puede radicalizar más. Aquí, las medidas a establecerse en ese nivel son emocionales y de identidad.   

En esta situación nos falta discernir más cuáles son los objetivos de la desinformación, que tipo de perfiles reaccionan de forma positiva a esta. El punto es entender que tipo de talante tiene la desinformación y es otro el que tenemos en la actualidad.

A.A.: Plataformas como YouTube o Facebook están implementando en su estrategia contra la desinformación herramientas de IA, entre otras, pero todavía no pueden controlar este fenómeno, ¿cómo la IA puede trabajar con los perfiles que has descrito?

L.J-P.: Son temas sociales, que se solucionan con estrategias de proximidad social. No hay una solución que sirva para todo el contexto del paisaje digital y sea aplicable para todos los diferentes perfiles que tenemos ahí, porque las formas de reaccionar a la desinformación requieren contextualización, por ser cuestiones morales.

No puedes tratar a una persona confundida de la misma forma que a otra convencida que existen razas y se les debe tratar diferente. Se deben abordar estos perfiles de forma distinta y esto se hace manualmente, porque la tecnología no es capaz de entender esto. Esto significa que a siempre se va a necesitar un paquete de medidas para lo manual y tecnológico, que dependerá de la cultura en la que estamos, del ámbito político que vivimos. Entonces, las soluciones dependen del contexto, de la campaña política u otro evento.

A.A.: En ese caso, ¿la personalización se puede aplicar dentro de la estrategia para combatir la desinformación, como se hace para personalizar los contenidos?

L.J-P.: No estoy segura, porque la radicalización ya existía fuera de las redes sociales solo que ahora tenemos más visibilidad de esos extremismos. Y los medios sociales amplían eso, dan la sensación de que son más. Por otro lado, toda medida preventiva para encarar este tipo de problemas debe pensarse de forma más general y ahí constato un par de cosas.

Primero, la democracia vive de la divergencia y lo que se regula es el conflicto que va más allá de determinadas líneas rojas que hemos demarcado para la libertad de expresión. Eso significa que las medidas de prevención no deben motivar a las personas a esconderse o radicalizarse, de tal forma que se convierta en un movimiento difícil de controlar. Por eso, vemos que la jurisprudencia, que es el brazo del gobierno que contextualiza y decide que es lícito o no lo es, es importante en la contextualización, porque es difícil crear una pauta que sirva para todos.  

Luego, a nivel algorítmico estamos viendo que dentro de las estrategias de desinformación la gente radicalizada usa la estructura de Facebook, pero no se valen de sus algoritmos sino que los evitan. Usan estrategias muy antiguas como la propaganda de la Iglesia Católica, del Partido Comunista y otras, que se centran en redes de personas. Por eso, vemos que los perfiles radicalizados usan estrategias que los algoritmos no acaban de entender, porque son obviados.

Además, se confunde la personalización con la individualización, porque se sistematiza al individuo en cajones más granulares que antes. Por ejemplo, tenemos un perfil de una mujer con tantos años, que vive en una zona urbana, ha estudiado algo, tiene ciertos hábitos de consumo. Pero la naturaleza del ser humano es más fluida y lo que se está ofreciendo no es algo individualizado, sino que es más el prototipo de un individuo de una sociedad. La estadística te dice como funciona un bosque, pero no un árbol concreto. Por eso, no funciona del todo, porque son computaciones y promedios, que deben encajarse a nivel contextual y eso no lo saben hacer las máquinas.

A.A.: ¿Entonces siempre estamos detrás del conejo?

L.J-P.:  Sí (sonrisa).

A.A.: Hasta ahora el ser humano ha sido más creativo para sortear las estrategias contra la desinformación, porque manejamos mejor le semántica que los robots o la IA, ¿piensa que las máquinas están cerca de mejorar en este parte del análisis?

L.J-P.: No, porque el idioma es algo que fluye. Está en evolución constante, chistes que se convierten en virales, ambigüedades, ambivalencias, implicaciones. Todo eso son cosas que se van desarrollando conforme nuestra sociedad va evolucionando, conforme la creatividad humana cambia, manipula el lenguaje. Y lo que los sistemas de ahora hacen, como los robots del lenguaje, los chatbox, etc., es usar estadística y ver qué tipo de frases se repiten o qué tipo de combinación de palabras se repite y crear una probabilidad lingüística de que cuando sale esta palabra o verbo, pero la ambigüedad no la captan o entienden.

Cuando explico cómo funciona la IA, uso una visualización de algoritmos genéticos, de los más sofisticados, usados en la programación de coches. Esta visualización enseña lo que la máquina computa para entender cómo conducir. La máquina simula que está conduciendo el coche por todos los caminos posibles, estrellándose contra la pared una y otra vez hasta que halla el camino correcto. Si uno de nuestros hijos actuará así para hallar una puerta, pensaríamos que tiene ciertos retos cognitivos. Entonces los sistemas que tenemos ahora son extremadamente… o sea, no son inteligentes, son fuerza bruta, computan todas las posibilidades hasta encontrar el camino.

A.A.: Entonces, no le llamarías inteligencia artificial

L.J-P.: No, para nada (risas).

A.A.: ¿Qué tecnologías cree que puedan ser más peligrosas para el control de contenido tóxico si no se aplica una adecuada gobernanza y un diseño ético de algoritmos?

L.J-P.: La ética no es una cuestión de estadística. Es decir, no puedes programar para que actúe de forma ética, puedes crear un proceso en donde optimizamos a la máquina para conseguir un objetivo siendo conscientes de que con programas algorítmicos todo eso va en detrimento de los demás factores en los que podrías haber programado esa máquina y juegan un papel importante.

Es decir, si estoy optimizando para entender determinadas palabras en un idioma, por ejemplo, para el inglés británico, voy a tener que hacerlo de forma manual con el pitinglish. Debemos crear una gobernanza más multidisciplinaria, porque de momento tenemos a ingenieros, científicos del dato, lingüistas, pero también necesitamos incluir a socio lingüistas.

Por otro lado, debemos entender que la tecnología ahora presenta mucho contenido en inglés, pero no tanto en español u otros idiomas. Es decir, el 56% de los contenidos online es en inglés, según las estadísticas del World Internet del 2019. Uno debe tener en cuenta esto, porque este tipo de tecnología necesita muchos datos. Ese es otro problema para considerar en el diseño ético.

Además, se debe considerar a la sociología del lenguaje para entender a la gente que cambia las palabras o usa los vacíos lingüísticos para meter contenido, pero también debemos entender otros dialectos. Teniendo en cuenta esto yo diría que no tenemos la infraestructura para aplicar de forma adecuada esa verificación, científica y éticamente bien. Se puede usar la IA para crear un mecanismo descriptivo o identificar problemas que se nos pasan por alto, pero a nivel prescriptivo de creación de filtros, como en estos casos, no funciona por esos dos factores.

A.A.: ¿Cuál debe ser el rol de la UE y los propios gobiernos para afrontar la gobernanza de datos y el diseño ético de los algoritmos? ¿cómo observas su trabajo y qué crees que se debiera hacer?

L.J-P.: Cuando usamos la IA, al automatizar un proceso, creamos una forma de infraestructura, porque trabaja con la lógica en la que un sistema trabaja. Son procesos de alta escalabilidad, porque afectan a un montón de personas. Como sucede con una autovía que determina acceso y movilidad, es decir, se ejerce poder en una sociedad. Por ello, cuando se va a cambiar un proceso manual por uno que incluya IA, lo primero es preguntarse si es necesario generar esta dependencia y eso no suele suceder a nivel gubernamental, lo que me preocupa.

Luego, al aplicar IA en los medios sociales las reglas son diferentes a las que se aplican para otras empresas, porque estas plataformas crean infraestructura social. Y ya tenemos reglas eficientes, pero deben emplearse más. Eso significa que en la UE debemos repensar lo que hacemos a nivel jurídico.

Sería importante revisar la legislación sobre infraestructura y ver qué se puede aplicar a este tipo de compañías. Hay que cambiar el ámbito, porque lo estamos viendo a nivel individualista, de derechos fundamentales, etc., pero esta es una tecnología colectivista. Debemos hallar un equilibrio entre el individuo y la sociedad para trabajar con tecnologías como la IA.

A.A.: ¿Cuáles son los próximos proyectos de Ethical Tech Society?

L.J-P.:  En diciembre sacamos una evaluación de sistemas de recrutamiento para evaluar hasta qué punto aquellos sistemas que usan modelos como “OCEAN”, que usó Cambrigde Analítica, crean una brecha de género y discriminan de forma interseccional.

Luego, al ver que la UE y los países miembros quieren crear regulación destinada a la IA, partimos con la pregunta de cuánta regulación de la que existe se aplica a la IA. Así, nos dimos cuenta de que hay tantas leyes que es imposible hacerlo a nivel manual, porque todas las leyes que tienen algún tipo de regulación sobre la estadística o fórmula matemática a la hora de elaborar un algoritmo de scoring para saber si le das a alguien un crédito, etc., ya existen. Por eso estamos creando una máquina de búsqueda dentro del campo legal que tiene todas capacidades que las máquinas actuales no tienen y estamos usando deep learning para construirla.