En cualquiera de las ciencias más o menos exactas el principio de resolución de un problema suele comenzar por definirlo bien, por plantearse la pregunta correcta. Si el problema que se plantea Facebook es atajar los bulos (fake news) que circulan por un universo estimado en 2.300 millones de usuarios, la tarea inicial es definir qué es lo que pretende atajar.
Definir las fake news no es tan sencillo como parece. En realidad son mentiras, es decir, contenidos que no se corresponden con los hechos. Haciendo palanca en esa conceptualización de los bulos, ante las atribuciones que desde las elecciones presidenciales estadounidenses de 2016 se le vienen haciendo a la red social de ser abusada para convertirla en plataforma de difusión de fake news para intoxicar a la opinión pública y torcer sus intenciones de voto, las medidas de urgencia implantadas por Facebook han sido contratar a los denominados fact checkers.
Los fact checkers son operadores humanos que apoyados en tecnología de señalización de textos y contenidos en función de determinados criterios, comprueban manualmente los contenidos señalizados para determinar si pueden constituir un bulo o en cambio se parecen más a una información verídica. Y aquí reside el principal obstáculo para una buena definición del problema que tiene Facebook: establecer los criterios que clasifiquen la verdad, lo verídico.
En ciencias de la información y en su aplicación periodística se aplican metodologías de verificación de informaciones. La cuestión es que los contenidos que circulan por Facebook no son periodísticos ni la red social es un medio de prensa. Obviamente se redifunde información de prensa a través de Facebook, igual que por otras redes sociales. Sin embargo ése no es el asunto que ha llegado a preocupar a Facebook hasta tal punto de reunirse a nivel de España con los responsables de las estrategias digitales de los partidos políticos y a escala de Madrid con responsables municipales, con vistas a intentar resolver la eventual injerencia de las fake news en las convocatorias electorales. La incógnita a despejar es cómo impedir, o al menos dificultar, que a través de Facebook circulen contenidos falsos o separados de la verdad que, primero, no siendo periodísticos puedan ser manipulados para parecerlo; y, segundo, no siendo periodísticos ni pareciéndolo tengan capacidad de influir en la opinión pública. De nuevo, el escollo conceptual continúa siendo la verdad.
Si apelamos a cualquier método matemático para abordar un problema, nos encontraremos con que una de las estrategias para desatascar un camino de resolución que no acaba de despejarse es cambiar el enfoque. Tanto Facebook como la mayoría de quienes proponen aproximaciones para minimizar las fake news parten siempre de la misma premisa: considerar que los bulos contienen mentiras, es decir, hechos que no son verdad. Y puesto que los bulos contienen mentiras y ésa es la premisa que se adopta de partida, de seguido se piensa que la manera de resolver la circulación de fake news es contrastar con la verdad los contenidos en circulación, es decir, lo que hace un fact checker: si un contenido no se ajusta a la verdad, entonces es un bulo.
Como es obvio por el desconcierto metodológico que prima en la actualidad sobre las fake news, en donde ni Facebook ni la Unión Europea encuentran un proceso de consenso para afrontar la circulación de bulos en redes sociales, no parece que contrastar los bulos con la verdad sea la solución, por la sencilla razón de que la verdad puede ser poliédrica y depender, en muchos casos, de quién considere unos hechos y desde qué óptica los considere. Si la verdad fuera tan sencilla, a los humanos no les costaría ponerse de acuerdo en multitud de temas… y vaya si nos cuesta. De manera que si el empeño de Facebook es encontrar un modo de clasificar la verdad, la historia de la humanidad y de todas las realidades cotidianas del mundo juegan en su contra.
Por tanto, el paso inaugural para aproximarnos a resolver el asunto de las fake news pasa por dejar de considerar que son contenidos mentirosos y comenzar a clasificarlos como contenidos tergiversados que buscan no implantar una mentira sino una determinada verdad, aquélla que interesa a la parte que los difunde de manera organizada a través de las redes sociales. De este modo y con esta conceptualización, ya no se tratará tanto de establecer si un contenido se ajusta o no a unos hechos –fact checking– que podrían ser interpretables de varias maneras, sino de identificar y señalizar contenidos potencialmente tergiversados divulgados con fines de manipulación, ya sea masiva o segmentada.
En este encuadramiento de las fake news como campañas de desinformación el objetivo no es tanto identificarlas en privado como exponerlas colectivamente, en público. En eso sí es especialista Facebook, en compartir global y públicamente contenidos. Facebook no es un juez de la verdad, ni debe serlo. Por tanto debería concentrarse en aquello que es su fortaleza: en promover colectividad, en este caso, una cierta dimensión de inteligencia colectiva, de discernimiento colectivo. Hacia el logro de ese propósito Facebook sí puede aplicar una poderosa herramienta, y no son los dudosamente eficientes cuarenta fact ckeckers a contratar, sino los más de dos mil millones de usuarios que habitan en su espacio social digital global. Esos habitantes no son especialistas individualmente en la verdad, pero en conjunto y estadísticamente pueden habilitar una función aproximativa hacia la verdad.
El objetivo sería señalizar contenidos potencialmente desinformativos y el método es la estadística de la inteligencia colectiva. Al principio podría ser desconcertante y no sería un método útil en los primeros compases porque no habría todavía suficiente potencia colectiva, pero a medida que se acumularan experiencias de usuarios las leyes de la estadística harían el trabajo. En aras de implantar ese método de identificación de fake news, la contribución de Facebook sería añadir dos nuevos iconos de interacción del usuario con cada contenido: una V o T de verdad o true; y una F de falso o fake; por su parte, la contribución de los usuarios sería marcar según su criterio individual qué contenido es V o F, igual que ya hacen con los likes o dislikes. También podría ser una C de confiable o una D de desconfianza o distrust.
Los usuarios no son especialistas en la verdad ni en el fact ckecking: nadie lo es. Sin embargo, sí están en condiciones de marcar el grado de veracidad que observan en un contenido. A medida que más usuarios marquen su opinión respecto de un contenido como confiable o desconfiable, se lograrán dos efectos: 1) un scoring o baremación estadística que informará al resto de usuarios de la confiabilidad general que está recabando ese contenido, y que Facebook situaría visible en cada contenido; y 2) que los productores de contenidos desinformativos tendrán que buscar tácticas para circunvalar ese escrutinio colectivo.
Es cierto que el sistema que describimos parece un embrollo, pero no más que la cada vez más amplia botonera que cualquier usuario tiene a su disposición para etiquetar y dar formato a los contenidos en Facebook. Además, esta metodología permitiría a Facebook lo que hasta ahora ha venido obstaculizando que se pueda implantar tecnología para detectar y marcar automáticamente las fake news. La tecnología automática no puede funcionar todavía contra las fake news sencillamente, porque como hemos mencionado, no hay manera consensuada ni siquiera humana de establecer parámetros indicadores de la “información tergiversada”; y sin esos parámetros más o menos claros, los algoritmos de aprendizaje automático no pueden entrenarse, y por tanto una potencial tecnología de detección es inviable. Sin embargo, con el método que se propone, Facebook tendría a su disposición un escenario que ningún otro operador tecnológico tiene, compuesto por un creciente y global universo de datos en todos los idiomas sobre calificaciones de confianza o desconfianza que los usuarios hacen de los contenidos, universo que le permitiría entrenar algoritmos discriminativos de inteligencia artificial (por ejemplo redes generativas antagónicas) que sirvieran a futuro como herramientas automáticas de detección de fakes; y, por otro lado, Facebook podría alimentar el entrenamiento de ese sistema de inteligencia artificial mediante la correlación masiva de las pulsaciones a los nuevos botones de confianza/desconfianza con parámetros que sólo están a disposición de Facebook (con las salvedades tal vez de la NSA): IPs de conexión, rangos de tiempo de posteo de contenidos, cronología de creación de una nueva cuenta y emisión de contenidos potencialmente manipulados, o frecuencia de emisión de contenidos, entre otros muchos factores que sirven para identificar usuarios máquina (los denominados bots), cuentas falsas y otro tipo de usuarios sospechosos. Contra este método, una de esas tácticas que podrían implantar esos productores de contenidos desinformativos cabría que fuera crear cuentas falsas para incrementar las pulsaciones al icono de verdadero o al de desconfiable de un contenido. Sin embargo, esto favorece al control de Facebook, pues sus sistemas automáticos sí podrían detectar con rapidez una acumulación anormal de trues o fakes sobre un contenido, para ponerlo en cuarentena o directamente suprimirlo, además de identificar a la posible población de trolls que tratan de incrementar, fraudulentamente, el valor de ese contenido.