#MILGlobalUnderstanding

#RethinkingHumanHorizon

En profundidad Tendencias

Periodistas robots: Inteligencia Artificial y los nuevos presentadores de TV sintéticos

Imagen de Jan Alexander en Pixabay
Imagen de Jan Alexander en Pixabay

Cuando Kim Ju-ha, la conductora del programa informativo del canal de cable surcoreano Maeil Broadcasting Network (MBN), presentó a su compañera de labores, Joo-an Him, quien además era una réplica suya desarrollada con inteligencia artificial (IA), ni sus demás colegas ni la propia audiencia cabían en su asombro al ver tanta semejanza entre la periodista de carne y hueso y la presentadora sintética al otro lado de la pantalla. Además del parecido físico, el sonido de la voz y un fino toque de ironía justificaron ese estupor entre quienes presenciaron la conversación entre ambas aquel 06 de noviembre del 2020.

La presentación de esta asistente virtual con funciones de narradora televisiva fue uno de los lanzamientos más emblemáticos de este tipo de robots que no solo destacó por su mediática profesión sino por las características tecnológicas alcanzadas por la inteligencia artificial y el aprendizaje profundo que le permiten leer hasta mil palabras por minuto y alcanzar un nivel de realismo cercano al cien por ciento. Y es que salvo algunos detalles como una entonación plana, movimiento de la boca ligeramente asincrónico o cierta rigidez en sus movimientos, un televidente distraído podría no notar si fue el robot o la persona quien le leyó las noticias.

Apenas se necesitaron diez horas de visualización de videos de la presentadora humana para alcanzar ese resultado, indicaron sus desarrolladores, la fabricante de inteligencia artificial Money Brain y el canal MBN. Para este proyecto IA se tomaron notas de la voz de de Kim Ju-ha, su tono, expresiones faciales y gestos; a fin de que la tecnología deep learning o aprendizaje profundo usada le permita al sistema aprender de su timbre de su voz, gestualidad, la forma en que habla, mueve sus labios y el cuerpo.

Captura de pantalla de la presentación de Joo-an Him en la cuenta de YouTube de MBN

Pero este modelo no fue el primero ni será el último de una lista de asistentes virtuales al servicio del periodismo, que ahora con el desarrollo acelerado de la IA presentan cada vez más habilidades y recursos para complementar el trabajo periodístico y de vez en cuando suplir al periodista cuando necesita descansar o desarrollar alguna otra actividad personal, lo que sin duda un robot no necesita o tiene.

Periodistas robots: Desde los modelos automatizados al deep learning

Asombro, una mirada atenta y carácter escudriñador es lo que necesita desarrollar cada vez más la audiencia para distinguir entre un narrador de noticias real de su avatar robot. Es que en el plató, gracias a los últimos avances en IA y deep learning, lucen tan semejantes que detectar el comportamiento inauténtico del asistente virtual que lee las noticias en su medio audiovisual favorito ya se ha convertido en un reto para nuestros sentidos.

Pero todo tuvo un inicio, ¿cómo fueron los primeros presentadores de noticias informáticos? ¿su semejanza era tan alta con los colegas humanos? ¿Qué países desarrollaron a estas primeras estrellas mediáticas y desde cuándo? En base a la recopilación desarrollada por AIKA Educación, hemos encontrado quince narradores sintéticos desde inicios del 2000 hasta la actualidad; los que por sus características técnicas y perfil innovador, acorde al contexto, dan una clara muestra de como la tecnología computacional y de IA ha evolucionado generando un impacto enorme y un cambio de las estructuras sociales y formas de trabajo, y de esto el espectro mediático no se escapa.

Abril del 2000 y Reino Unido es cuando y donde nace la imponente Ananova. Sus padres biológicos o creadores fueron el equipo de Ananova Limited, una antigua división de Press Asociation. La robot se convirtió en la primera asistente virtual animada de Europa en leer noticias meteorológicas, y posteriormente económicas, para internet en teléfonos móviles las 24 horas del día. Con apariencia moderna, a modo de una mujer blanca, de cabello corto verde e impoluto maquillaje, la periodista animada, fue diseñada inspirándose en Victoria Beckham, Kylie Minogue y la presentadora de televisión Carol Vorderman, a fin de representar a una mujer de aproximadamente 28 años, perfil urbano y acento neutro.

También fue programada con características y gustos propios, como una personalidad global que proyecte confianza y sea creíble. Para lo cual se incorporó un software de voz sintética, que trabajaba con sistemas de texto a voz, convirtiendo el texto a representaciones lingüísticas y sonoras. Además, el diseño de sus características humanas se basaron en el aprendizaje e imitación de personas; mientras que en su programación se emplearon gráficos por computadora en 3D y un sistema informático rápido para crear boletines de noticias casi en tiempo real.

Vídeo de Ananova en la cuenta de YouTube de gobbyboy

En septiembre del 2005, nació Sam, el primer narrador de noticias meteorológicas 3D virtual, de cuna catalana, desarrollado por Activa_Multimèdia, la extinta empresa a cargo de comercializar la tecnología de la Corporació Catalana de Ràdio i Televisió (CCRTV). En base a bocetos gráficos, este personaje de apariencia animada, grandes ojos azules y rostro amigable leyó las noticias castellano y catalán y en formato multiplataforma, por la señal del canal Méteo de Digital +, en el programa “Tu Tiempo”, y también para los usuarios del desaparecido website de Meteosam y su plataforma móvil en horario completo.

Sam incorporaba tecnologías de automatización en 3D, que se valía de voz sintética, capacidad de movimiento corporal (basado en humanos) y sistema de conducción automática, según sus creadores confirmaron en entrevistas periodísticas y posteriores estudios de caso. Su programación tecnológica incluía también una amplia base de datos de su campo. Además, este asistente virtual contaba con vestuarios acordes al escenario climático, gracias a sus posibilidades de personalización, sumándole gracia al personaje, puesto que no gozaba de la gestualidad o emocionalidad de sus colegas humanos o los robots actuales. Vale mencionar que un año después la misma compañía lanzó a Tuixén, una meteoróloga virtual, que desde el canal 33, informaba a la audiencia sobre las condiciones del clima y el estado de la nieve desde las estaciones de esquí de Cataluña y Andorra.

En diciembre del 2015, fue presentada Xiaoice, una de las primeras presentadoras de noticias meteorológicas en Shanghai Dragon TV. Con la apariencia de una adolescente asiática, esta asistente virtual desarrollada por Microsoft interrumpía la transmisión en vivo de Dragon TV para presentar su reporte del tiempo. Para su desarrollo, fue equipada con tecnología IA denominada Tex-to-Speech (TTS); técnicas de aprendizaje profundo, lo que le permitía establecer correlaciones para analizar los datos meteorológicas en tiempo real; y tecnologías de computación emocional, para proveerla con recursos destinados a generar comentarios emocionales.

Captura de pantalla de la cuenta de Youtube del blog MSPowerUser, que cubre temas de tecnología, juegos, etc. desde la perspectiva de la compañía Microsoft.

Tres años después, apareció el presentador IA Chao Neng Xiao Bai, que debutó en el programa periodístico de televisión china Nanning, el 06 de junio. Con una apariencia totalmente robótica, 1,21 metros de alto y 29 kilos, esta máquina brindó referencias que sirvan a las personas en su vida cotidiana a través del análisis de datos, su especialidad, durante un breve espacio de quince minutos dentro del programa noticioso con su mismo nombre, que se emitía de lunes a sábado a las 18.10 horas, según reportes de prensa.

El presentador-robot contaba con dos modalidades de búsqueda y análisis de información. Primero hacía una indagación  en la red para responder a las preguntas; y, segundo, ejecutaba otra búsqueda con un software diseñado para manejar por adelantado información que se necesite en el estudio. Otra de sus particularidades era el de reaccionar correctamente e incluso de forma ocurrente durante el rodaje. Además de tener habilidades para el baile y hablar con las personas; junto a un rendimiento que variaba entre las 8 a 12 horas con cuatro horas de recarga. Aunque Chao Neng Xiao Bai fue parte de un programa televisivo chino, ha sido fabricado en Japón.

China siguió avanzando en el desarrollo de asistentes virtuales IA y en noviembre del 2018, debutaron en la Conferencia Mundial de Internet, los nuevos talentos de la agencia de noticias Xinhua: Xin Xiahao y Zhang Zhao, los que fueron elaborados muy a semejanza de los periodistas Qiu Hao y de Zhang Zhao, respectivamente. Mientras el primero leía las noticias en chino el segundo lo hacía en inglés. A pesar de que a estos modelos los delataban ciertas expresiones faciales limitadas, como el movimiento asincrónico de la boca o el sonido con pocos matices y algo robótico de su voz, destacan detalles como el pestañeo y la elevación de cejas al hablar lo que les sumaba un aspecto más real.

Ambos presentadores virtuales fueron creados por Xinhua,y la compañía china de motores de búsqueda Sogou.com como robots que aprenden por sí solos de la transmisión de videos en vivo. Para su desarrollo se usaron tecnologías de IA y aprendizaje profundo, con programas de reconocimiento y modelado facial, voz sintética reconstrucción en 3D y traducción automática. Todo lo cual, les sirve para sintetizar las voces, los movimientos de los labios y las expresiones de los presentadores. 

Gif del bot Zhang Zhao

Por su lado, el continente europeo también estuvo desarrollando tecnología de IA para asistentes virtuales. Así, en febrero del 2019, la primera presentadora virtual de noticias virtual en idioma letón fue presentada por DELFI, la empresa de medios digitales más grande de Letonia, y Tilde, una de las compañías líderes en tecnologías de idiomas de Europa. Bajo el nombre de Laura y con una voz inspirada en una periodista letona conocida, según indicaron sus creadores, este modelo incorporó técnicas de aprendizaje automático, redes neuronales para identificar la estructura del habla, tonalidades y entonaciones de grabaciones de voz capaces de imitar el flujo del lenguaje natural, el ritmo y la entonación de un presentador de noticias humano. 

Aunque la apariencia de Laura es más artificial que los modelos chinos y muy similar a asistentes 3D animados, tiene una gestualidad mínima, pero los movimientos de su boca no son del todo sincrónicos y su voz es plana y robótica. No obstante, sus creadores anunciaron que esta asistente virtual evolucionará conforme avancen las etapas de este proyecto. Por ejemplo, para la siguiente fase se permitirá la comunicación interactiva con el presentador de noticias y se proporcionará contenido basado en los intereses del usuario.

Presentación de Laura en la cuenta de YouTube de Tilde

Un mes después, Xin Xiaomeng fue la siguiente presentadora virtual IA lanzada por la agencia de noticias Xinhua y el buscador chino Sogou con ocasión del Congreso Nacional del Pueblo de China. El nivel de autenticidad de esta reportera sintética alto atrajo la atención de la opinión pública internacional. Y es que en su diseño se emplearon tecnologías IA y de deep learning más maduras que en sus predecesores; al ser capaz de recolectar, analizar y sintetizar voces humanas y movimientos musculares, sincronizados de tal forma que al leer el texto los motores detrás de su rostro se mueven haciendo que sus expresiones tengan más naturalidad. 

Captura de pantalla de la presentación de Xin Xiaomeng en la cuenta de YouTube de News China TV

Además, el uso del aprendizaje algorítmico intensivo le permite exhibir expresiones faciales acorde a un contexto, informar con más palabras y sintaxis coloquiales. Si bien, en este sentido este modelo presenta avances, sus expresiones no siempre cambian según el contenido y la articulación de su rostro y su boca no es del todo natural. No obstante, entre sus ventajas destacan sus capacidades multilingües (puede hablar inglés, chino, japonés y coreano), ponerse de pie, articular gestos para transmitir noticias más inteligentes, sus recursos para evaluar  el contexto durante la lectura noticiosa y su disponibilidad de 24 horas los siete días de la semana. 

Con una apariencia similar a la de un muñeco de silicona, Alex, el primer narrador televisivo IA, de origen ruso, presentó  en directo las noticias del canal estatal Rossiya 24 en abril del 2019. Inspirado en Alexei Yuzhakov, el fundador de Promobot, la empresa de tecnología a cargo de su desarrollo, este modelo empleó 29 motores en su rostro para darle movimiento y denotar expresiones emocionales. No obstante, su apariencia no era natural, no tenía movimiento corporal y su rostro no presentaba naturalidad en los gestos que producía. 

Presentación de Alex en la cuenta de YouTube de Rossiya 24

Con una inversión de 12,870 euros, Alex articulaba recursos de IA y aprendizaje profundo que le permitían responder preguntas, mantener una conversación basada en datos cargados en su cerebro y gastar bromas. De igual modo, este asistente virtual fue objeto de polémica al ser acusado de vender propaganda política o esparcir desinformación contra los opositores al gobierno ruso, en algunos de los informes de noticias presentados por él.

En mayo del 2019, China lució más avances en el desarrollo de asistentes virtuales e inteligencia artificial. En esta ocasión, Xiaoqing, presentadora de noticias multilingüe, capaz de hablar más de 30 idiomas, usar simulaciones integrales inteligentes para sincronizar la voz, las expresiones y otras características propias de una narradora de noticias humana fue presentada en el III Congreso Mundial de Inteligencia llevado a cabo en Tianjin (norte de China), por la empresa del mismo país iFlytek, especializada en el desarrollo de IA.

Captura de pantalla de la presentación de Xiaoqing en la cuenta de YouTube del canal estatal chino CNS

Xiaoqing cuenta con tecnología IA de aprendizaje profundo, traducción automática y síntesis de voz multilingüe. Para su construcción, se consideraron herramientas como el análisis de texto y emoción para darle naturalidad a su voz, emocionalidad, movimientos corporales y otros aspectos, conforme relató el canal estatal chino CNS. Sus creadores indicaron que para su creación se necesitó aproximadamente media hora de datos de características humanas.

De padres asiáticos, un mes después nació en la esfera mediática, Lisa, la primera presentadora de noticias IA de habla rusa. Elaborada con la tecnología de la compañía china Sogou y en alianza con los medios televisivos públicos Xinhua News Agency (China) e ITAR-TASS (Rusia), esta asistente virtual contó con tecnología IA de aprendizaje profundo, destacando sus habilidades en síntesis de voz, detección de imágenes y capacidades de predicción para presentar contenido más atractivo e interactivo.

Gracias a estas innovaciones, Lisa incorporaba expresiones, gestos y movimientos más realistas, además de habilidades para hablar en inglés y articular gestos. Creada como el avatar de Elizaveta Zelenskaya, especialista del departamento de relaciones internacionales de TASS, esta presentadora virtual es el cuarto modelo de asistentes virtuales especializados en la narración televisiva, que desarrolló Sogou, según reveló en un comunicado de prensa.

Captura de pantalla de la presentación de Lisa en la cuenta de YouTube de Bulgarian News Agency

Mayo del 2020 y Xin Xiaowei, la primera presentadora virtual de noticias en 3D, fue la encargada de narrar las dos Sesiones, una reunión anual del máximo órgano asesor político de China, el Comité Nacional de la Conferencia Consultiva Política, desarrollado entre el 21 al 27 de ese mes. Desarrollado con la tecnología de la firma asiática Sogou, en alianza con la agencia de noticias Xinhua, esta presentadora virtual usaba algoritmos, basados en síntesis multimodal, reconocimiento facial y animación, así como, aprendizaje de transferencia, lo que le permitió imitar voces humanas, expresiones faciales, movimientos de labios y gestos, usando solo entradas de texto.

El nuevo lanzamiento de Xinhua y Sogou nació como réplica de Zhao Wanwei, periodista de la cadena televisiva estatal. Sus creadores aseguraron que en comparación con las generaciones anteriores, Xiaoqing, comunica información visual y de audio de manera más natural y fluida en tiempo real. Además, este modelo registraba más movimientos corporales, como asentir con la cabeza de forma más enfática, parpadeo al hablar, movimientos flexibles para presentar las noticias sentada, parada o caminando e incorporar más expresiones faciales; al igual que aspectos visuales como cambiar de peinado y de ropa.

Anuncio de la presentación de Xiaoqing en la cuenta de Twitter de Sogou

Para julio del 2020, China presentó otro de sus asistentes virtuales periodistas. En esta ocasión, se trató de un robot presentador de noticias IA de habla mongol que fue lanzado como parte de la plana periodística del periódico local Inner Mongolia Daily. De acuerdo con el Colegio de Informática de la Universidad de Mongolia Interior, este narrador televisivo fue desarrollado con inteligencia artificial, que a partir de la integración de múltiples tecnologías como la síntesis de voz del idioma mongol y la traducción automática, se orienta a proteger las lenguas étnicas e informatizar el idioma mongol, según información presentada por agencia Xinhua.

Tratándose de Mongolia, en octubre del 2020, fue introducida al mundo del periodismo, Maral, una narradora de noticias IA, procedente de ese país de Asia Oriental. Creada en forma independiente por la compañía Chimege Systems, esta asistente fue introducida en la Vigésimo Cuarta TIC Expo del mismo país. En su debut, conversó con el presidente de la Asociación de la Industria de Software de Mongolia (MOSA), Ts.Chuluunzagd; en donde abordó detalles como el tiempo y relató información acerca de ella, como su procedencia, además de lanzar preguntas a su interlocutor, conforme registraron versiones periodísticas.

Vídeo de Joo-an Him en la cuenta de YouTube de MBN

Como hemos visto, la recopilación mostrada nos da luces sobre los avances de la inteligencia artificial desde inicios del milenio hasta la fecha hasta la actualidad. Son quince periodistas robots cuya función es presentar las noticias cada día, sin descanso y que cada día se asemejan más a sus colegas humanos y van mejorando a pasos agigantados sus niveles de eficiencia y capacidades de resolver en tiempo real, además de esgrimir cierta naturalidad y emocionalidad para conquistar a las nuevas audiencias.

Pero, ¿cuál es su impacto en el mundo del periodismo, la labor del comunicador y el propio futuro del trabajo? Las compañías capaces de desarrollar tecnologías avanzadas de IA relacionadas con asistentes virtuales, no solo crean periodistas robots, sino otro tipo de avatars sintéticos, especializados en otras carreras, y quizás tan o más eficientes que los propios humanos en algunos o varios aspectos, así que vale la pena preguntarse: ¿nos reemplazan o nos complementan?

Algo debemos tener claro, estas tecnologías no tienen aún la capacidad intuitiva, muy relacionada con el factor humano y su nivel de emocionalidad. Mas -aunque sea en forma artificial- están aprendiendo a representar emociones, lo que sumado a su eficiencia puede convertirlos en nuestros reemplazos en varias funciones. En ese sentido, cabe preguntarse ¿hasta qué medida pueden hacerlo y si conviene ya repensar los roles profesionales de cada campo y pulir las habilidades de nuevas maneras?, a modo de sacar provecho de estas tecnologías que ya forman parte de esta sociedad y desde luego de nuestras vidas.