Facebook Papers: radicalizzazione, intelligence gathering, digital ethnography e digital humint – by Barbara Lucini

(English version follows)

I Facebook Papers emersi qualche settimana fa dopo le testimonianze di una ex dipendente, Frances Haugen, pongono molti interrogativi sull’operato dell’azienda e sulla sua organizzazione interna.

In particolare, oltre alle questioni legate all’utilizzo del social così come degli altri che la stessa azienda gestisce – WhatsApp e Instagram – da parte dei più giovani, ciò che almeno fino ad ora si sta delineando è uno scenario più preoccupante e che dovrebbe interessare chi si occupa dei fenomeni di radicalizzazione ed estremismo.

Il condizionale nel trattare questa delicata tematica è d’obbligo, ma ciò non esime dal poter identificare alcune potenziali minacce se questo scenario dovesse essere pienamente confermato: Cambridge Analytica insegna.

Infatti negli ultimi anni Facebook era già stata coinvolta in tali avvenimenti, prima con lo scandalo Cambridge Analytica, poi in riferimento alle elezioni presidenziali americane che hanno portato alla vittoria Donald Trump, successivamente si è andato affermando un suo ruolo attivo anche per quanto concerne la diffusione di informazioni relative al gruppo Qanon e all’attacco al Campidoglio americano del Gennaio scorso e da ultimo quanto si evince dai Facebook Papers, che sembrano sostenere un suo ruolo importante nella diffusione e amplificazione di messaggi di odio e discriminatori, in quanto aumenterebbero il coinvolgimento degli utenti tramite l’utilizzo di uno specifico algoritmo e sarebbero più redditizi per l’azienda.

Gli scenari preoccupanti nel caso in cui questo sistema ovvero la creazione di un algoritmo che intenzionalmente favorisce e promuove post dai contenuti di odio o discriminatori fosse confermato, sono molteplici nell’ambito degli studi sulla radicalizzazione e i metodi di intelligence adottati per la comprensione del fenomeno e il suo monitoraggio

Nello specifico alcuni elementi risultano meritevoli di approfondimento, come per esempio il fatto che tale algoritmo sposterebbe l’asse della produzione dei contenuti dai singoli soggetti -utenti in relazione fra loro in un ambiente digitale, all’interazione uomo- strumento tecnologico. Ciò assume più le caratteristiche di un approccio di laboratorio sperimentale, meno della libera esperienza mediante uno strumento tecnologico nato per la condivisione di contenuti spontanei: quanta spontaneità nella nascita dei gruppi e dei fenomeni ad essi correlati vi potrebbe essere su una piattaforma con tali caratteristiche algoritmiche?

Un secondo aspetto legato al precedente riguarda il ruolo della piattaforma, che non sarebbe più unicamente di servizio, ma porterebbe tale social network ad essere un attore attivo che influisce in modo predominante sulla produzione stessa di certi contenuti, amplificandone la visibilità e rendendoli prioritari secondo delle logiche che seguono i principi delle funzioni di agenda setting e gate keeping nella comunicazione dei mass media. La domanda fondamentale è: chi e con quali criteri applicherebbe tale selezione e quale ruolo destinato a un fact checking secondario orientato già in precedenza?

In un quadro simile, la costruzione e l’attribuzione di senso sono influenzate e prodotte non solo dalle dinamiche di gruppo che si vengono a creare in un ambiente digitale, ma da un terzo elemento che è l’azione dell’algoritmo stesso.

Riferendosi alle attività necessarie per la prevenzione e il contrasto alla radicalizzazione e agli estremismi, un tale modello imprenditoriale – comunicativo apre un’ampia e necessaria riflessione sugli attuali approcci metodologici di intelligence gathering e digital humint, perché il dubbio è quello di osservare e studiare fenomeni non spontanei, ma sviluppati in seguito a logiche algoritmiche e preordinate.

Una fase che potrebbe presentare ripercussioni in tal senso è quella del risk assessment: come infatti valutare la potenziale minaccia di certi individui o gruppi senza conoscere le reali dinamiche online perché precedentemente affette da orientamenti esterni?

Da qui la riflessione che porta a pensare al fatto che a questo punto i fenomeni di radicalizzazione ed estremismo che stiamo osservando essere sempre più pervasivi e dilaganti non siano un prodotto sociale, che si rappresenta online con alcune dinamiche specifiche dell’interazione umana in un ambiente digitale, quanto un prodotto sociale sviluppato secondo logiche di “altri” in favore di “altri” o delle logiche di mercato.  

I processi di radicalizzazione online assumerebbero quindi più la definizione di una risposta agli stimoli di un ambiente digitale, meno di un prodotto o di una esplicitazione di un atteggiamento personale o di gruppo: la drammaticità di una simile visione è che l’impatto offline però sarebbe reale e contingente nelle sue conseguenze pratiche, come per esempio attentati, proteste, tensioni sociali.

Inoltre, da una prospettiva metodologica quale dato colleziona chi utilizza la digital ethnography per l’intelligence gathering e il monitoraggio di fenomeni estremisti? Un dato viziato da una caratteristica della piattaforma digitale che utilizza, senza però averne consapevolezza e quindi poter attuare delle tecniche per tenere sotto controllo tale bias.

Si aprirebbero di necessità riflessioni in merito alle strategie più efficaci per le possibilità di prevenzione e contrasto alla radicalizzazione e alle varie forme di estremismo, considerato che la piattaforma stessa a volte è coinvolta in progetti che hanno come finalità la consapevolezza dell’utilizzo delle piattaforme soprattutto per i più giovani: voler combattere quello che si è aiutato almeno in parte a creare, diventerebbe un puro esercizio di stile lapalissiano.

Nello specifico della comprensione e del monitoraggio dei fenomeni di radicalizzazione, le tecniche della digital humint dovrebbero subire delle modifiche per l’analisi di un contesto nel quale l’ambiente digitale diventa esso stesso soggetto attivo e partecipativo: che l’ecosistema digitale potenzialmente estremista fosse un attore lo si era già sostenuto[1], ora dopo tutti questi eventi potrebbe essere realtà.

Una realtà della quale però si ha poca consapevolezza metodologica per la raccolta e il trattamento dei dati e ancora di più per chi come utente, è esposto al rischio di entrare in quella che può essere definita come una spirale comunicativa monotematica, attraverso la quale percorsi di radicalizzazione possono prendere concretezza e venire rinforzati dagli stimoli esterni.

Infine, è utile pensare anche alle potenzialità di un tale sistema, qualora venisse replicato per tutti gli innumerevoli ecosistemi digitali che trattano tematiche molteplici. Per esempio, un’ultima notizia la si apprende da Repubblica che titola: “Facebook, cresce il negazionismo climatico: centinaia di post tra complottisti e ultradestra.”[2]

La domanda che sorge spontanea è: saranno fenomeni collettivi e sociali espressi in ambienti digitali e influenzati da dinamiche tipiche dell’interazione umana online o saranno l’effetto di algoritmi, con conseguenze sulla vita reale?

—————————————————————————————–

English Version

Facebook Papers: radicalization, intelligence gathering, digital ethnography and digital humint – by Barbara Lucini

The Facebook Papers that emerged a few weeks ago after the testimony of a former employee, Frances Haugen, raise many questions about the work of the company and its internal organization.

In particular, in addition to the issues related to the use of the social network as well as the others that the same company manages – WhatsApp and Instagram – by young people, what is emerging, at least so far, is a more worrying scenario that should concern those who deal with the phenomena of radicalization and extremism.

The conditionality in dealing with this delicate issue is a must, but this does not exempt us from identifying some potential threats if this scenario were to be fully confirmed: Cambridge Analytica teaches.

In fact, in recent years, Facebook has already been involved in such events, first with the Cambridge Analytica scandal, then regarding the American presidential elections that brought victory to Donald Trump, and then with the dissemination of information relating to the Qanon group and the attack on the US Capitol last January, which seem to support its important role in the dissemination and amplification of hate and discriminatory messages, as they would increase user engagement through the use of a specific algorithm and would be more profitable for the company.

The worrying scenarios if this system, i.e. the creation of an algorithm that intentionally favors and promotes posts with hateful or discriminatory content, is confirmed, are numerous in the context of the studies on radicalization and the intelligence methods adopted to understand the phenomenon and monitor it

Specifically, some elements are worthy of further investigation, such as the fact that this algorithm would shift the axis of content production from individual subjects – users concerning each other in a digital environment – to human-technological tool interaction. This assumes more the characteristics of an experimental laboratory approach, less of a free experience through a technological tool created for the sharing of spontaneous contents: how much spontaneity in the development of groups and related phenomena could there be on a platform with such algorithmic characteristics?

A second aspect linked to the previous one concerns the role of the platform, which would no longer be merely a service, but would make this social network an active actor that would predominantly influence the very production of certain contents, amplifying their visibility and making them a priority according to logics that follow the principles of agenda-setting and gatekeeping functions in mass media communication. The fundamental question is: who and with what criteria would apply such a selection, and what role would be assigned to a secondary fact-checking already oriented in advance?

In such a framework, the construction and attribution of meaning are influenced and produced not only by the group dynamics that are created in a digital environment but by a third element that is the action of the algorithm itself.

Referring to the activities necessary for the prevention and counteraction to radicalization and extremism, such a business-communication model opens a wide and necessary reflection on the current methodological approaches of intelligence gathering and digital humint, because the doubt is that of observing and studying phenomena which are not spontaneous, but developed as a result of algorithmic and preordained logic.

A phase that could have repercussions in this sense is that of risk assessment: how, in fact, can the potential threat of certain individuals or groups be assessed without knowing the real online dynamics because they were previously affected by external orientations?

Hence the reflection that leads one to think that at this point, the phenomena of radicalization and extremism that we are observing to be increasingly pervasive and rampant are not a social product, which is represented online with certain specific dynamics of human interaction in a digital environment, but rather a social product developed according to the logic of ‘others’ in favor of ‘others’ or the logic of the market. 

The processes of online radicalization would therefore take on more the definition of a response to the incitement of a digital environment, less of a product or an explanation of a person or group attitude: the drama of such a vision is that the offline impact would however be real and contingent in its practical consequences, such as attacks, protests, social tensions.

Furthermore, from a methodological perspective, for those who use digital ethnography for intelligence gathering and monitoring of extremist phenomena, what data do they collect? A piece of data spoiled by a characteristic of the digital platform they use, without, however, being aware of it and, therefore, being able to implement techniques to keep this bias under control.

Reflections on the most effective strategies for the possibilities of prevention and counteraction to radicalization and to the various forms of extremism would be necessary, considering that the platform itself is sometimes involved in projects that have as their objective the awareness of the use of the platforms, especially for the youngest: to want to fight what one has helped, at least in part, to create, would become a pure exercise of obvious style.

In the specific field of understanding and monitoring radicalization phenomena, the techniques of digital humint should be modified to analyze a context in which the digital environment itself becomes an active and participatory subject: it had already been claimed that the potentially extremist digital ecosystem was an actor[3], but now, after all these events, it could be a reality.

A reality of which, however, there is little methodological awareness for the collection and processing of data, and even more so for those who, as users, are exposed to the risk of entering into what can be defined as a spiral of monothematic communication, through which paths of radicalization can take concrete form and be reinforced by external stimuli.

Finally, it is also useful to think about the potential of such a system, should it be replicated for all the countless digital ecosystems dealing with multiple issues. For example, the latest news is from Repubblica, which headlines: “Facebook, climate denialism grows: hundreds of posts among conspiracists and the ultra-right”. [4]

The question that arises spontaneously is: will these be collective and social phenomena expressed in digital environments and influenced by dynamics typical of human interaction online, or will they be the effect of algorithms, with consequences on real life?

[1] Marco Lombardi, Barbara Lucini e Marco Maiolino, “Beyond counter- and alternative narratives to tackle extremism: the new Format model,”, in Sicurezza Terrorismo Società  – Security Terrorism Society, International Journal Italian Team for Security, Terroristic Issues & Managing Emergencies, Educatt, Università Cattolica del Sacro Cuore, Milano. Vol. 11, Issue 1, 2020

[2] https://www.repubblica.it/green-and-lue/dossier/cop26/2021/11/04/news/facebook_la_dinsinformazione_sul_clima_e_cresciuta_almeno_1_36_milioni_di_visualizzazioni_al_giorno-325036793/?ref=RHTP-BI-I324538187-P3-S8-T1

[3] Marco Lombardi, Barbara Lucini and Marco Maiolino, “Beyond counter- and alternative narratives to tackle extremism: the new Format model,”, in Sicurezza Terrorismo Società  – Security Terrorism Society, International Journal Italian Team for Security, Terroristic Issues & Managing Emergencies, Educatt, Università Cattolica del Sacro Cuore, Milano. Vol. 11, Issue 1, 2020

[4] https://www.repubblica.it/green-and-lue/dossier/cop26/2021/11/04/news/facebook_la_dinsinformazione_sul_clima_e_cresciuta_almeno_1_36_milioni_di_visualizzazioni_al_giorno-325036793/?ref=RHTP-BI-I324538187-P3-S8-T1