Cittadinanza responsabile, diritti sociali, ambiente, decrescita - Aggregatore di notizie dal Web - Contenuti e diritti dei rispettivi autori

Diritti Digitali, Informazione in rete, Social Tossici

Come Facebook sta cercando di rendere meno tossici i suoi gruppi

Gruppi Facebook

Gruppi Facebook

Rallentare il passo delle conversazioni sulla piattaforma è la scommessa con cui Mark Zuckerberg vuole disinnescare almeno una parte dei conflitti che piagano il suo social network

di Viola Stefanello Contributor 30 Jun, 2021

C’è stato un momento della storia di Facebook, non molto tempo fa, in cui sembrava che i gruppi sarebbero stati il futuro della piattaforma. L’anno era il 2019, lo scandalo Cambridge Analytica aveva da poco mostrato come i dati sensibili di milioni di utenti erano stati usati nelle campagne a favore della Brexit e dell’elezione di Donald Trump nel 2016, e alla conferenza annuale dedicata ai programmatori Mark Zuckerberg svelava quella che doveva essere la più grande svolta nel design della piattaforma dal suo lancio nel 2004: nella pratica, una serie di cambiamenti che mettevano al centro i gruppi.

Ci stiamo concentrando sulla costruzione dell’equivalente digitale del soggiorno, dove puoi interagire in tutti i modi che desideri in privato”, aveva annunciato all’epoca Zuckerberg. “C’è una reale opportunità di connettere un più grande numero di persone attraverso i gruppi, che diventeranno un’infrastruttura sociale significativa nelle nostre vite. Se possiamo migliorare il servizio e connettere un miliardo di persone a delle comunità, potremmo rafforzare il nostro tessuto sociale”. L’idea era quella di contrastare la polarizzazione e le meccaniche di abuso sempre più rodate che infestavano l’app. Il fatto che questo andasse a braccetto con la volontà di trattenere gli utenti il più a lungo possibile sul sito e raccogliere i loro dati non guastava.

A due anni di distanza, Zuckerberg non può dire di aver vinto la scommessa. Gli stessi gruppi che nelle sue speranze dovevano rafforzare il tessuto sociale sono stati, tra le altre cose, centrali nell’ascesa del movimento Stop the steal – che si è rifiutato per mesi di riconoscere la vittoria di Joe Biden alle elezioni del novembre 2020 – e di QAnon, nonché nell’alimentare la retorica antivaccinista a livello internazionale. La compagnia stessa era consapevole di ciò che stava succedendo: per citare un’inchiesta del Wall Street Journal, “I dirigenti di Facebook erano consapevoli da anni che gli strumenti che alimentavano la rapida crescita dei gruppi rappresentavano un ostacolo ai loro sforzi per costruire comunità online sane”.

Ora Facebook sembra voler tornare sui propri passi, inseguendo ancora una volta il sogno di coltivare dei gruppi che siano degli spazi più sani e meno tossici per il propri utenti. Per rallentare le conversazioni e permettere agli utenti di ponderare un po’ di più prima di esprimersi su temi ad alto impatto emotivo, ad esempio, il social network a breve introdurrà a livello globale un nuovo strumento che permetterà ai moderatori di limitare i commenti ai post per un dato periodo di tempo o per specifici utenti – ad esempio quelli che si sono uniti a Facebook solo di recente o che hanno violato le regole della community in precedenza. Potranno inoltre limitare la frequenza dei commenti di specifici membri del gruppo. Il tutto sarà gestito attraverso un nuovo spazio, la home degli amministratori, dove gli amministratori potranno vedere quali interventi sono necessari nel gruppo rispetto a post, membri e segnalazioni. La piattaforma sta anche testando una funzione basata sull’intelligenza artificiale che permetterebbe di identificare automaticamente “conversazioni controverse o malsane” che si svolgono nei commenti – anche se non ha spiegato come funzionerebbe.

Anche se piccolo, con questo particolare aggiornamento è un’ammissione del fatto che costruire una comunità online sana significa che a volte le persone non dovrebbero essere in grado di reagire e commentare immediatamente con qualsiasi pensiero gli salti in mente”, ha commentato la reporter Sarah Perez su TechCrunch, criticando uno degli assunti chiave che è stato per anni alla base delle interazioni sui social.

Come spiegava in tempi non sospetti il designer Nick Punt, il modo in cui sono attualmente concepiti gli spazi online, dai gruppi Facebook alla timeline di Twitter, fa sì che “la reputazione, le prospettive e la storia di ogni individuo siano difficili da accertare, e quindi le loro parole vadano prese alla lettera. Questo, insieme a una quasi totale mancanza di standard nella partecipazione alla comunità e un alto grado di varianza nelle conoscenze dei partecipanti, fa sì che l’ambiente tenda naturalmente verso il conflitto e il tribalismo”. Rallentare lievemente il passo di una conversazione concitata potrebbe permettere di disinnescare almeno una parte di questi conflitti? Sembra essere questa la nuova scommessa di Zuckerberg.

Pubblicato su Wired.it
Creative Commons License
Come Facebook sta cercando di rendere meno tossici i suoi gruppi byViola Stefanellois licensed under a Creative Commons Attribution-Share Alike 4.0 License.