A quanto pare Facebook sta introducendo un sistema per poter segnalare le bufale, ovvero quelle notizie false/tendenziose/manipolatorie che vengono create per i motivi più svariati: dal voler prendere in giro il pianeta, all’aumentare il consenso di una determinata causa, scagliarsi contro il governo, etc…

Vi illustro 2 semplici speculazioni su quello che potrebbe succedere.

Questa è la situazione di partenza

  • da una parte abbiamo i creatori e diffusori di bufale
  • dall’altra abbiamo un altro insieme di debunker
  • i debunker producono articoli che smentiscono le bufale

Questo è quello che mediamente succede su facebook

  • Utente A posta l’articolo di turno
  • Utente B controbatte linkando la smentita
  • Scatta il flame

L’introduzione di questa feature ci pone di fronte ad un grandissimo dilemma:

“Pensi sia aria quella che respiri?”
Morpheus – Matrix 1999

Mi spiego meglio

Quello che probabilmente succederà sarà una valanga di click di segnalazione in massa da parte dei debunker, a questa corrisponderà la fisiologica segnalazione contro i post dei debunker.

Supponiamo per un secondo che il sistema sia automatizzato e non sotto supervisione umana: a quel punto hanno vita breve quel tipo di post e i relativi debunking.

Le ragioni che potrebbero esserci dietro questa decisione

  • Abbassare il livello di flame
    Le discussioni particolarmente accese tendono a rovinare la percezione dell’esperienza utente, quindi ridurre la possibilità di moria di utenza a causa di un “Che gente che c’è da queste parti! Basta, non gioco più!”
  • Diminuire la quantità fisica di tempo impiegata negativamente
    I flame portano via energia e tempo. Facebook inc. probabilmente preferisce che tu impieghi il tempo a fruire di più contenuti nel lasso di tempo che tu impieghi sulla piattaforma, piuttosto che rimanere focalizzato sul thread dove stai combattendo strenuamente i troll di turno.
  • Aumentare la varietà dell’esperienza
    dal momento che questo tipo di articoli diventano meno frequenti all’interno della bacheche di tutto il mondo, l’utente comincia ad incappare in altri tipi di contenuti che potrebbero migliorare l’esperienza.
  • Nella varietà dell’esperienza ci sono anche le inserzioni
    A parità di tempo abbiamo un aumento di numero di post visualizzati: se prima di 100 minuti, 40 li dedicavamo a litigare su un dato thread; ora quei minuti vengono dedicati a vedere altri contenuti.
    Visto che i post sponsorizzati sono una percentuale fissa (suppongo ma non ne sono certo), invece di aumentare la percentuale di pubblicità, Facebook aumenta così la quantità di cose visualizzate.
    Di fatto l’utente vedrà numericamente più sponsored post ma non lo noterà.

Naturalmente nel quadro di tutta questa situazione si pongono una serie di problemi non indifferenti:

  1. Che differenza c’è tra una hoax creata contestualmente, una innocente campagna di guerrilla/viral marketing e una bufala in piena regola creata ad hoc per alimentare odio nei confronti di un qualcosa?
  2. Il fact checking, di cui il buon Ryan ci ricorda che non ne esiste traccia nemmeno nei media tradizionali, come verrà gestito da parte dello staff Facebook?

È una questione pesantemente spinosa dal momento che condizionare la bacheca è un grande potere da cui deriva una grande responsabilità: per molti versi si può dire che una percentuale consistente dell’opinione pubblica è in mano a un algoritmo, d’altro canto finora sono state sfruttate biecamente dinamiche dello stesso algoritmo per propagare “inesattezze” alimentando il rumore cognitivo generale.

Vedremo cosa succederà nelle prossime settimane.