Tecnología
¿Qué es el Fact- Checking, cómo funciona y por qué Facebook dejará de usarlo? Así será la red social de ahora en adelante
Meta, dueña de Instagram, Facebook y WhatsApp, anunció que trasladará sus operaciones de California a Texas, un gesto con el que busca agradar a Donald Trump.
Meta ha anunciado un cambio en su sistema de moderación, por el que dejará de utilizar los verificadores externos para apostar por el programa de las notas de la comunidad; dos enfoques diferentes para abordar el problema de la desinformación y distribución de información falsa.
Desde 2016, los contenidos virales que se distribuyen en Facebook, Instagram y WhatsApp son supervisados por verificadores de información independientes, “que revisan las historias y las califican según su precisión a través de informes originales”, como explica Meta en la página dedicada.
Este programa cuenta en la actualidad con más de 80 organizaciones que trabajan en más de 60 idiomas, todas ellas certificadas por la International Fact-Checking Network (IFCN), que reúne a periodistas que se dedican a la verificación de hechos a nivel internacional. En España, se puso en marcha en 2019 con tres organizaciones externas: AFP, Newtral y Maldita.es.
Los profesionales que participan en la revisión de los contenidos de las redes sociales de Meta no eliminan las publicaciones, ni tampoco las cuentas ni las páginas, sino que evalúan su exactitud, calificándolos, si corresponde, como ‘Falso’, ‘Alterado’, ‘Parcialmente falso’ o ‘Falta contexto’.
Lo más leído
La principal consecuencia, en caso de que se califique un contenido como ‘Falso’ o ‘Alterado’, es que el autor notará que se reduce la distribución, y perderá la capacidad monetizarlo. Es, no obstante, una decisión que el afectado puede apelar.
El contenido, además, se acompaña de etiquetas y notificaciones de advertencia con las que se ofrece información de contexto con el fin de que sean los usuarios quienes decidan “qué contenido desean leer y compartir, y en qué información confiar”.
Este enfoque parece que ha dejado de ser adecuado para Meta, que este lunes ha anunciado la adopción del modelo que ya utiliza la red social X, basado en las notas de la comunidad, esto es, en las notas que los contribuyentes añaden a las publicaciones para ofrecer contexto.
¿Cómo funcionan las notas de la comunidad?
Las notas de la comunidad aparecieron primero en enero de 2021 como un proyecto piloto de Twitter conocido como Birdwatch para monitorizar los contenidos, basado en la comunidad de usuarios. La idea era que la gente pudiera identificar información en ‘tuits’ que creyera que era engañosa y escribir notas que ofrecieran información de contexto para poder evaluar mejor el contenido de la publicación.
Esta iniciativa se implementó a nivel global en Twitter en diciembre de 2022, bajo el nombre de notas de la comunidad, y manteniendo la esencia del piloto: mantener a los usuarios mejor informados y que, de manera colaborativa, pudieran agregar contexto a los ‘tuits’ potencialmente engañosos.
Sin embargo, la nota no puede añadirla cualquier usuario, sino solo aquellos que están registrados en el programa y han sido validados por la compañía. Entonces, pasan a ser contribuyentes, y pueden aportar sus correcciones, con apuntes o enlaces a otras publicaciones. Además, solo se muestran públicamente si suficientes colaboradores con diferentes puntos de vista las califican como útiles.
Tras la adquisición de Twitter por parte del magnate Elon Musk y su renombre como X, la red social ha realizado diversas modificaciones en este programa colaborativo. En octubre de 2023 comenzó a exigir que se añadieran fuentes verificadas, y un año más tarde, anunció las llamadas ‘Notas relámpago’, con las que buscaba que esta información contextual tardara menos de 20 minutos en aparecer después de que el contenido su hubiera subido a la red social. Con el tiempo también se han extendido a las imágenes y los vídeos.
Los expertos también tenían sus prejuicios
Meta ha explicado que, cuando lanzaron el programa de verificadores independientes en 2016, pensaron que “era la mejor y más razonable [decisión] en ese momento, que era delegar esa responsabilidad en organizaciones independientes de verificación de datos”.
Sin embargo, ha alegado que su contribución en estos años no ha cumplido con el objetivo, que era que “ofrecieran a las personas más información sobre las cosas que ven en línea, en particular los bulos virales, para que pudieran juzgar por sí mismos lo que veían y leían”.
Por el contrario, asegura que los expertos también “tienen sus propios prejuicios y perspectivas” y ello “se hizo evidente en las decisiones que tomaron algunos sobre qué verificar y cómo”, lo que llevó a un sistema que impuso “etiquetas intrusivas y distribución reducida”.
“Un programa destinado a informar con demasiada frecuencia se convirtió en una herramienta para censurar”, apostilla. Por ello, han decidido que utilizarán las notas de la comunidad tras ver que “este enfoque funciona en X, donde empoderan a su comunidad para decidir cuándo las publicaciones son potencialmente engañosas y necesitan más contexto, y las personas de una amplia gama de perspectivas deciden qué tipo de contexto es útil para que lo vean otros usuarios”.
Las notas de la comunidad se implementarán en los próximos meses en Estados Unidos, en las redes sociales Facebook, Instagram y Threads.