Benoît Loutrel es miembro del colegio de Arcom y preside el grupo de trabajo «Supervisión de las plataformas en línea» del nuevo regulador audiovisual y digital francés nacido de la fusión de la CSA y Hadopi en enero de 2022. Ondigital Magazine se reunió con él con motivo de la publicación del informe anual sobre la lucha contra la manipulación de la información en línea.
En esta primera parte de la entrevista, nos cuenta sus principales conclusiones y hace balance del primer año de trabajo de Arcom, marcado en particular por las elecciones presidenciales y legislativas. Una segunda parte, que se publicará más adelante, estará dedicada a la aplicación por Arcom de la normativa europea sobre servicios digitales.
Publicado a finales de noviembre, este tercer informe de Arcom sobre los medios aplicados por las plataformas contra la manipulación informativa arroja una conclusión cuando menos preocupante. Basándose en las declaraciones de las 12 plataformas sometidas a este ejercicio por su tamaño crítico, entre ellas Meta, Twitter y Snapchat, denuncia «reiteradas deficiencias» en la comunicación de información y cifras. En concreto, la «falta de información tangible» facilitada por TikTok, Yahoo y, en menor medida, Google impide valorar la pertinencia y eficacia de las medidas adoptadas por estas plataformas.
Siglo Digital: Las conclusiones del informe Arcom sobre la lucha contra la manipulación informativa son bastante edificantes. ¿Qué opina de las respuestas de los operadores de plataformas a su cuestionario sobre los medios aplicados contra la manipulación de la información?
Benoît Loutrel Las respuestas de algunos operadores siguen siendo insuficientes desde nuestro punto de vista. Por supuesto, ha habido progresos en comparación con el año pasado, pero esperamos que sean aún más transparentes. Es mucho lo que está en juego; los ciudadanos deben confiar en su ecosistema de información. Es un elemento importante de la cohesión social.
Nos gustaría que las plataformas comunicaran las políticas que están aplicando en materia de moderación, desmonetización o ralentización de la distribución de contenidos problemáticos. Las plataformas también deben esta transparencia a la comunidad investigadora, que debe poder hacer su propia evaluación de la moderación: ¿han tenido estas medidas el efecto deseado? ¿Ha habido efectos colaterales no deseados?
La manipulación de la información es un tema complejo que requiere el uso de muchas fuentes. Como tal, seguimos de cerca el trabajo del mundo académico y de la sociedad civil, que alimenta nuestras propias reflexiones.
SD: En su crítica, lamenta que las plataformas no sean lo bastante transparentes. ¿Considera que la legislación vigente contra la manipulación de la información en la que se basa le da suficientes medios para actuar?
BL : La Ley de 2018 establece que los servicios de plataforma en línea tienen el deber de cooperar con el regulador. Tienen que poner en marcha herramientas para combatir la manipulación de la información. La ley les obliga a responder a las preguntas de Arcom, que hace públicas estas declaraciones en una revisión anual.
Era una ley muy buena para entrar en la regulación de estos actores. Nos ha permitido ser más competentes. Ahora es necesario poder exigir una mayor transparencia a todas las plataformas. Esta es una de las aportaciones de la AVD. Nos permitirá, colectivamente, ser más ambiciosos y exigentes.
SD: El DSA será el tema de la segunda parte de nuestra entrevista. Antes de eso, me gustaría saber más sobre cómo trabaja con las plataformas a diario. ¿Cuál es su relación laboral con ellos?
BL Disponemos de un marco formal de debate con las plataformas, como fue el caso de esta revisión anual de la lucha contra el infox. Les enviamos un cuestionario preciso y les imponemos un plazo de respuesta. Si no hay respuesta, lo decimos y no dudamos en nombrar y avergonzar. En este informe, nombramos a los actores cuando consideramos que sus respuestas no son satisfactorias [ndlr : TikTok, Yahoo et Google en particulier] o, por el contrario, cuando nuestro diálogo con ellos ha progresado, como es el caso de Snapchat, por ejemplo.
Y más allá de este diálogo formal, tenemos muchos intercambios informales. Este fue el caso durante el periodo electoral, cuando las plataformas digitales tuvieron un importante papel que desempeñar en la prevención de injerencias extranjeras y en la participación en el trabajo de los verificadores de hechos que verificaban la información en línea relacionada con la campaña.
En concreto, en una de nuestras reuniones se nos comunicó que un algoritmo de moderación había funcionado mal y había bloqueado por error las cuentas de los miembros de un equipo de campaña. Les recordamos que tenían la obligación de corregir el problema, pero también de ser transparentes y dar explicaciones. Por ello, comunicaron públicamente este episodio.
SD: Arcom ha publicado recientemente un informe sobre las elecciones de 2022 en el que hace recomendaciones para las redes sociales. En su opinión, ¿deberían las plataformas tener obligaciones de equidad o igualdad en las elecciones como los medios de radiodifusión?
BL No, este no es el deseo de Arcom. Las cadenas de radio y televisión controlan su oferta editorial, que en cierto modo se impone a su audiencia. Por lo tanto, deben esforzarse por representar toda la gama de corrientes de pensamiento. Por eso se les exige, por ejemplo, que respeten criterios de equidad y luego de igualdad de tiempo de palabra entre los candidatos en las últimas semanas de las elecciones presidenciales.
En las redes sociales, los internautas son más activos. Si está abonado a las cuentas de los Sres. Mélenchon y Zemmour, consultará el contenido de las mismas. Es usted quien ha tomado la decisión de suscribirse a estas cuentas. En realidad se trata de diferentes tipos de medios de comunicación. Por otro lado, las plataformas deben ser transparentes con sus usuarios sobre las razones por las que se les «empuja» tal o cual contenido.
SD: ¿Y los usuarios? En su informe recomienda, por ejemplo, aclarar las obligaciones de los usuarios, como los equipos de campaña y las personas influyentes.
BL Hay dos cuestiones diferentes. La primera es dejar que los candidatos y sus partidarios hagan campaña libremente en las redes sociales. Esto forma parte de la democracia. Pero, por supuesto, tienen que hacerlo de acuerdo con las normas legales, especialmente las que protegen la propiedad intelectual. No se puede publicar una obra o música sin el acuerdo de los titulares de los derechos. En YouTube, si incumples esta norma tres veces, tu canal se cierra. Los clips de campaña deben respetar estas normas. [ndlr : le clip de d’Eric Zemmour annonçant sa candidature a fait l’objet d’une exception sur YouTube malgré de nombreux signalements pour violation de la propriété intellectuelle. Sa vidéo a finalement été retirée quelques mois plus tard suite à sa condamnation par le tribunal judiciaire de Paris.]
La segunda es que, en Francia, el Código Electoral también se aplica a los influencers. Prevé un periodo de silencio desde el viernes por la noche hasta el cierre del último colegio electoral el domingo. Los medios de comunicación dejan de informar sobre política y los candidatos dejan de hacer campaña. Este año, la Comisión encargada de vigilar la campaña presidencial intervino para pedir a las plataformas que eliminaran los contenidos de los influencers que hablaban de política durante ese periodo.
Era la primera vez que esto ocurría, porque las redes sociales y las personas influyentes han cobrado una importancia que no tenían hace cinco años.
Como joven medio de comunicación independiente, OnDigital Magazine necesita tu ayuda. Apóyenos siguiéndonos y marcándonos como favoritos en Google News. Gracias por su apoyo.