December 8, 2023

V:Quando Meta ha lanciato Threads, il suo clone di Twitter collegato a Instagram, a luglio, la società ha promesso: più gentile e amichevole esperienza piuttosto che i contenuti divisivi e l’estremismo che spesso dominano altri social network. Ora, mentre gli utenti dei social media cercano informazioni sulla guerra tra Israele e Hamas, la neonata app affronta il suo primo test in mezzo alla dilagante disinformazione derivante dal conflitto.

Video alterati, foto manipolate e media manipolati che affermano falsamente di documentare la guerra sono stati ampiamente condivisi su Telegram e X, precedentemente noto come Twitter. Il numero di questi post e la portata della loro portata hanno allarmato fact-checker, osservatori della disinformazione ed esperti di estremismo, che hanno criticato questi social network per il fiorire della disinformazione.

Allo stesso tempo, Threads evita di promuoversi come luogo di informazioni in tempo reale o come finestra sui conflitti. Il risultato è che, sebbene Threads contenga ancora molti post sul conflitto, è visibilmente diverso da quello esteso su X. Dina Sadek, ricercatrice presso il Digital Forensic Research Laboratory (DFRLab) dell’Atlantic Council, ha detto di averlo visto. tanto meno video e immagini falsi che diventano virali su altre piattaforme. Diversi post visti dal Guardian che contenevano informazioni errate includevano: afferma falsamente di mostrare i bambini israeliani rapiti e tenuti in gabbia hanno avuto un coinvolgimento limitato.

A differenza di Telegram e X, Threads chiaramente contenuto di notizie depriorizzatoIl capo di Instagram Adam Mosseri ha pubblicato martedì che la notizia del boost sarebbe “estremamente rischiosa data la maturità della piattaforma”.

“Non siamo anticlericali”, ha scritto Mosery. “Ma non andremo nemmeno (sic) ad amplificare le notizie sulla piattaforma.”

Una possibile ragione per l’apparente mancanza di falsi virali Temi:La conclusione è che la piattaforma non viene utilizzata allo stesso modo o sulla stessa scala di altre come X o Telegram.

“Il problema con Threads è che generalmente è sottoutilizzato, soprattutto quando si trasmettono eventi di un conflitto come questo”, ha detto. “Le persone stanno ancora costruendo il loro nucleo seguito lì.”

Quando Threads ha debuttato, alcuni dei primi ad adottarlo e dei più grandi account erano marchi e celebrità che pubblicavano contenuti anodini che il social network ha espanso nei feed degli utenti. Dopo la fretta iniziale 100 milioni di utenti connessione all’applicazione, numero di utenti attivi diminuito di circa l’80% dopo un mese.

Se Threads continui a evitare di amplificare i contenuti di guerra e come stia cambiando il panorama della disinformazione sulla piattaforma è ancora una questione aperta. Le altre proprietà di Meta, Facebook e Instagram, lottano da anni per frenare la disinformazione e l’incitamento alla violenza. È stato utilizzato Facebook Pulizia etnica di massa e la guerra civile in paesi come l’Etiopia e Myanmarmentre movimenti estremisti di varia natura lo hanno fatto moderatori della piattaforma evitati condividere e organizzare la propaganda. Meta non ha risposto alle domande del Guardian sulla politica di moderazione dei contenuti di Threads.

Anche la motivazione finanziaria per pubblicare su Threads è diversa da quella dei social network, dove gli utenti possono guadagnare denaro direttamente dai loro contenuti. X, che sotto il proprietario Elon Musk ha fatto un’enorme spinta per attirare creatori e influencer mentre fatica a recuperare le entrate pubblicitarie perse, consente agli utenti che pagano $ 8 al mese di effettuare il check-in per monetizzare i propri contenuti con annunci o abbonamenti. La monetizzazione ha spinto gli utenti di questo badge blu a impegnarsi con ogni mezzo disponibile, hanno avvertito gli esperti di disinformazione, portando utenti senza scrupoli a pubblicare contenuti fuorvianti, falsi o provocatori.

“Finora è disinformazione Guerra Israele-Hamas sembra essere più diffuso in X”, ha affermato Jack Brewster, redattore presso la società di analisi dei media NewsGuard. “Molte delle affermazioni false e infondate trovate da NewsGuard sono state promosse da account X verificati. Alcuni di questi account sembrano essere stati creati di recente per ottenere popolarità virale.”

Sotto il mandato di Musk, il problema della disinformazione di X è peggiorato poiché i contenuti dell’azienda non erano moderati. attraverso tagli, logoramento E: dipendenza da sistemi automatizzati. Diversi importanti account X che hanno diffuso disinformazione o si sono descritti come guerrafondai non sono attivi su Threads. Includono due account con una storia di pubblicazione di video falsi, uno dei quali ha pubblicato epiteti antisemiti che Musk ha approvato ai suoi 160 milioni di follower.

“Abbiamo visto molti contenuti violenti completamente incontrollati, soprattutto in lingue diverse dall’inglese”, ha affermato Mustafa Ayad, direttore esecutivo per Africa, Medio Oriente e Asia presso l’Istituto no-profit per il dialogo strategico.

Unione Europea emessi avvertimenti Questa settimana Musk e il CEO di Meta, Mark Zuckerberg, hanno chiesto la rimozione di qualsiasi contenuto che violi il diritto dell’UE e ordinando loro di rispondere entro 24 ore. L’amministratore delegato di X, Linda Yaccarino, ha annunciato giovedì che la piattaforma ha rimosso centinaia di account collegati ad Hamas e contrassegnati con decine di migliaia di record.

Meta ha risposto venerdì A post sul blog, annunciando di aver creato un centro operativo speciale specifico per i post in ebraico e arabo, nonché di aver rimosso un gruppo di pagine Facebook e Instagram false collegate a una precedente operazione di disinformazione di Hamas. Inoltre, la società ha affermato di aver rimosso o etichettato 795.000 contenuti come “inquietanti” dall’inizio della controversia il 7 ottobre, il che limita la portata del post.

L’azienda ha cambiato la sua politica di moderazione in risposta alla guerra, indirizzando gli algoritmi su Facebook, Instagram: e Discussioni per segnalare più post ai moderatori ed espandere la politica di violenza e incitamento per rimuovere i contenuti che identificano gli ostaggi. Ha inoltre limitato gli hashtag legati alla guerra su Instagram e limitato l’uso di Facebook e Instagram Live da parte degli utenti con precedenti violazioni delle norme.

Dare priorità alla sicurezza degli ostaggi HamasStiamo espandendo temporaneamente la nostra politica sulla violenza e l’incitamento e rimuovendo i contenuti che identificano chiaramente gli ostaggi.”

X fa sempre più affidamento sul suo sistema Community Notes, che consente agli utenti di aggiungere contesto o contrassegnare contenuti come imprecisi, ma ci sono già stati esempi di buchi nel sistema. In un caso, un video diffuso da Donald Trump Jr. che mostrava militanti di Hamas che uccidevano israeliani è stato liquidato come disinformazione, anche se Rapporti cablati che un ricercatore di intelligence open source ha stabilito essere reale.

“Non può essere lasciato solo agli utenti”, ha detto Ayad. “Servono esperti che comprendano questi paesaggi e contesti.”

Video violenti e azioni di grande impatto derivanti dal conflitto Israele-Hamas si sono spostati anche sulle piattaforme dei social media, creando un canale tra spazi di social media più chiusi come Telegram e Discord e la visione pubblica di X. Un account riguardava la Guardia rivoluzionaria iraniana, e altro ancora. Ad esempio, più di 370.000 abbonati su Telegram stanno postando una raffica di propaganda che gli osservatori della disinformazione hanno visto ripubblicare su altre piattaforme. Ha reso il conflitto, che è già una situazione pericolosa in cui è difficile ottenere informazioni affidabili, ancora più difficile da analizzare per la persona media.

“Tutti questi diversi ecosistemi si stanno attualmente intersecando, così come le azioni influenzate dallo stato che esistono anche su queste piattaforme”, ha detto Ayad. “Crea un mix molto dannoso.”

Leave a Reply

Your email address will not be published. Required fields are marked *