#MILGlobalUnderstanding

#RethinkingHumanHorizon

Actualidad

El papel de la Inteligencia Artificial contra la desinformación

Más allá de las películas de ciencia ficción, en la que robots super inteligentes y autónomos se convierten en grandes asistentes con habilidades superiores a las nuestras o se rebelan contra la humanidad para tratar de dominarla, no hay muchas narrativas que expliquen el valor de la inteligencia artificial para la sociedad y en especial a favor del periodismo.

En la que quizás fue una de las principales reflexiones compartidas en la mesa “el papel de la inteligencia artificial”, organizada por la Universidad Autónoma de Barcelona (UAB) y Radio Televisión Española (RTVE), bajo el marco de la “Jornada contra la Desinformación: Inteligencia Artificial (IA) y nuevas formas de verificación” el pasado 23 de marzo, se abordó el rol de esta tecnología y otras innovaciones a fin de combatir la difusión de contenidos falsos.

El evento contó con la participación de personalidades del campo del periodismo, la universidad y la inteligencia artificial. El debate inició con la moderación de la comunicadora colombiana y experta en políticas públicas Alexandra Fallas, quien resaltó el papel de la IA en la aceleración de la desinformación, pero también las inquietudes respecto a sus ventajas y desventajas.

Santiago Tejedor, doctor en Periodismo y Ciencias de la Comunicación de la UAB, abrió las ponencias con la reflexión de apertura de esta nota. Para él, “la ciudadanía no tiene una visión clara de lo que es la IA, por lo que la comunicación debe mejorar ese storytelling (narración) y ayudar a entender que son los humanos quienes entrenan a las máquinas”.

El también director del Gabinete de Educación y Comunicación de la UAB precisó que “no sirve que investiguemos solo desde el periodismo o la ingeniería y que no servirá tener ciber periodistas sino hay ciber ciudadanos”, por lo que resulta necesario que perfiles de diversos ayuden en la comprensión de la desinformación, inculquen el pensamiento crítico y apoyen en su detección. Asimismo, Tejedor destacó los resultados de la investigación de la Cátedra RTVE-UAB, “La inteligencia artificial aplicada a los informativos”, señalando que apenas este es el inicio de la aplicación de algunas facetas de esta tecnología en el campo del periodismo.

Para él, otro aspecto clave es el de la investigación académica y el rol de la universidad, porque la tecnología avanza rápidamente y las líneas de investigación actuales resultas insuficientes. Tejedor cree que este factor nos obliga a apostar por miradas disruptivas, como el caso de África, en donde “influencers y fact-checkers se unen para comunicar los mensajes que circulan por el ciberespacio” (proyecto FactsMatterNG).

A su turno, el doctor en informática Daniel Franco, cuya reconocida actividad investigadora se ha centrado en los campos de la Computación Paralela, Arquitectura de Computadores, Simulación de Computadores. Durante su ponencia, él planteó un concepto clave “la misma tecnología que se usa para difundir la desinformación también puede usarse para detectar contenidos fake (falsos)”.

Así, desde las preguntas ¿cómo es que se entrena una red para detectar las (mal llamadas) fake news? ¿y cómo se crean este tipo de contenidos?, Franco, quien también es profesor asociado del Departamento de Arquitectura de Computadores y Sistemas Operativos de la Universidad Autónoma de Barcelona, respondió que tanto los mensajes falsos como las noticias reales son el insumo necesario para entrenar a los algoritmos que hacen la primera o la segunda tarea.

Partiendo desde el significado de la IA y su valor para desarrollar tareas de forma más rápida que un ser humano, el experto explicó que si bien esta tecnología en un primer momento solo era capaz de ejecutar tareas sencillas como clasificar imágenes, identificar rostros y conducirse de forma autónoma, lo que es conocido como narrow AI (IA simple); actualmente existe un segundo tipo, denominado Artificial General Intelligence (IA General), que simula una actividad humana más compleja como entender el contexto y aplicar un sentido común.

La IA también representa retos como “el ser una caja negra” en la que puedes saber con qué entrenas un algoritmo o qué tipo de información le introduces para programarla para que ejecute una acción en forma automática, pero una vez culminado el entrenamiento, no se sabe en qué se basa esa red para tomar decisiones.

Tal característica plantea otra duda ¿cuándo es necesario emplear este tipo de tecnologías y cómo hacerlo? Para Franco el uso de la IA en la lucha contra la desinformación es útil cuando no sabemos cómo escribir algoritmos de otra forma, al haber incertidumbre en la información de entrada y esta es variable, y también cuando hay demasiada información (big data) o si se despliega en tiempo real, por lo que no se le puede procesar.

En tal sentido, el experto destacó iniciativas desarrolladas para detectar contenidos falsos, como los proyectos de Facebook y Google, la aplicación Asclepium Oracle de la UAB ganadora de la Hackaton de detección de fake news para comunicaciones científicas, promovida por la European Food Safety Authority (EFSA); otros servicios para controlar el comportamiento de websites con rankings de fiabilidad, contexto, realizar predicciones en base a reputación del medio, detección de palabras sensacionalistas con analítica de palabras clave; así como la identificación de sesgos de género o político en el desarrollo de noticias en los grandes medios.

David Corral, responsable de innovación de RTVE, ofreció una ponencia sobre el desarrollo de la tecnología contra la desinformación en un viaje por la historia del cine. “La mentira a lo largo de la historia ha existido siempre”, apuntaba Corral. Para él, la lucha contra la desinformación es la “suma de periodistas y de un gran equipo en el que hay técnicos, académicos para lograr un gran resultado”.

Corral ha destacado que, a veces, la desinformación “va de la mano de ciberataques”. El desarrollo de la tecnología está siendo muy importante para luchar contra la desinformación, pero, a su vez, contamos con un panorama, propiciado por el COVID-19, en la que “los referentes son diseminadores de mentiras, de desinformación o de bruma informativa”.

Los saltos tecnológicos son cada vez más breves, según afirma Corral, debido a la gran velocidad en la evolución tecnológica. Incide en la necesidad que hay en educar los algoritmos y estas tecnologías para que el fin de estas sean buenos y positivos para la ciudadanía. “La tecnología no deja de ser un uso de la lucha entre el bien y el mal, porque por sí misma no tiene la capacidad de ser buena o mala”, explica.

La IA va a seguir desarrollándose en los próximos años, así como las diversas herramientas que ayudan en la detección de desinformación. “El problema que tenemos con los ciberataques y la desinformación es que cuando se lanzan son impredecibles y van a intentar hacer el mayor daño posible”, afirma Corral. Por este motivo, es clave seguir desarrollando e investigando herramientas para poder luchar contra la desinformación.

Puedes volver a ver la mesa en el siguiente vídeo: