Quantificando l’estrema parzialita` di Wikipedia

Wikipedia è la fonte di informazioni più utilizzata al mondo e molto è stato scritto sul suo impatto, sulla percezione pubblica, di determinati argomenti. Wikipedia dà forma sia alla ricerca scientifica che ai risultati economici del mondo reale ed è la principale fonte di informazioni mediche sia per i medici che per i pazienti. La diffusa dipendenza da Wikipedia non sarebbe un problema se fosse una fonte neutra e autorevole, ma all’inizio di quest’anno il co-fondatore di Wikipedia Larry Sanger ha dichiarato che la loro politica non era piu` da considerarsi neutrale. La dichiarazione di Sanger è corretta?


Uno studio del 2018 di Shane Greenstein e Feng Zhu ha confrontato i livelli di pregiudizio politico in Wikipedia e nell’Enciclopedia Britannica quantificando il rispettivo utilizzo di frasi che favorivano membri democratici o repubblicani del Congresso degli Stati Uniti. Il loro studio ha scoperto che gli articoli di Wikipedia sono politicamente più prevenuti di quelli dell’Encyclopaedia Britannica, oltre ad essere inclinati verso punti di vista democratici (in opposizione a repubblicani). Lo studio ha anche scoperto che la parzialita` negli articoli di Wikipedia tendeva a diminuire quanto maggiore era il numero di persone che li avevano modificati. La ragione di questa tendenza è stata spiegata in uno studio precedente degli stessi autori: “Beneficiando degli sforzi di molti collaboratori, è anche più probabile che un articolo presenti contenuti controversi in modo imparziale: quindi la diversità può aiutare a ridurre la distorsione del contenuto”.

Un limite dello studio di Greenstein e Zhu è che ha considerato solo i contenuti e le storie degli articoli di Wikipedia e non ha esaminato le dinamiche sociali interne del sito. In questo articolo, ci basiamo sull’analisi di Greenstein e Zhu esaminando meccanismi specifici che producono pregiudizi politici in Wikipedia, con un focus sulle decisioni amministrative. Discutiamo anche di come questo pregiudizio influisca in ultima analisi sui contenuti del sito.

PARZIALITA` NEL GIUDIZIO DELLE FONTI
Wikipedia ha diverse politiche interne volte a prevenire la diffusione di informazioni false o tendenziose. Una delle norme, denominata “Verificabilità“, richiede che tutti i contenuti di Wikipedia siano basati su “fonti affidabili, indipendenti e pubblicate con una reputazione di verifica dei fatti e accuratezza”. Un’altra politica, “Punto di vista neutrale” (PDVN), richiede che gli articoli di Wikipedia includano tutti i punti di vista in proporzione alla loro importanza nel materiale di partenza. Questo non significa necessariamente dare uguale validità a tutte le opinioni: per esempio, le fonti più affidabili che discutono del creazionismo lo descrivono come un punto di vista non scientifico, quindi la politica PDVN richiede che Wikipedia lo presenti allo stesso modo.

Una conseguenza inevitabile di queste due politiche è che verra amplificato il punto di vista di chi giudica "affidabili" determinate notizie in contrasto con il punto di vista "non affidabile" e puntualmente scartato/censurato. Le decisioni su quali fonti possono o non possono essere utilizzate sono lasciate al giudizio degli "editori" (cioè, le persone che scrivono, modificano o contribuiscono in altro modo agli articoli di Wikipedia), e queste decisioni vengono solitamente prese nella bacheca delle fonti affidabili di Wikipedia. La cosa più rilevante per valutare il pregiudizio è capire quali fonti sono state "maledette", ovvero quelle fonti proibite a cui non si puo` fare riferimento.

L’elenco di fonti proibite di Wikipedia contiene attualmente 16 “fonti” di destra: Breitbart, The Daily Caller, Daily Mail, Daily Star, Epoch Times, FrontPage Magazine, Gateway Pundit, Infowars, LifeSiteNews, News of the World, One America News Network, the Sun, Taki’s Magazine, VDare, WorldNetDaily e Zero Hedge – e solo una fonte di sinistra, Occupy Democrats. Anche altre fonti politicamente di parte sono state proibite, ma è più difficile posizionarle sull’asse politico sinistra-destra, come le società di media controllate dal governo russo o cinese. Le fonti proibite di destra includono sia quelle che promuovono le teorie del complotto di estrema destra (Infowars e WorldNetDaily) sia quelle che promuovono il conservatorismo ordinario (il Daily Mail e il Sun), così come molte sfumature di grigio tra questi due estremi. Si potrebbe sostenere che anche le fonti non estreme che sono state proibite non sono di qualità particolarmente elevata, quindi il divieto di citarle non è un problema di per sé, ma uno standard simile non è stato applicato a fonti di qualità inferiore di sinistra come CounterPunch, AlterNet e Daily Kos.

Secondo il grafico del pregiudizio dei media ampiamente utilizzato da Ad Fontes Media (che è comunemente citato nelle discussioni sulla bacheca delle fonti affidabili), CounterPunch, AlterNet e Daily Kos sono tutti meno affidabili del Daily Mail. Ciò è significativo perché il Daily Mail, una fonte bannata di destra, viene spesso utilizzata come punto di riferimento per giudicare se altre fonti di inclinazione destrorsa debbano essere proibite. Tutte e tre queste fonti di sinistra sono ampiamente utilizzate su Wikipedia. Una ricerca di link esterni mostra circa 2.580 pagine di Wikipedia con collegamenti a CounterPunch, circa 2.400 con collegamenti al Daily Kos e circa 1.640 con collegamenti ad AlterNet. (Questi risultati di ricerca includono articoli e pagine di discussione, perché il software di Wikipedia non ha un modo per limitare la ricerca di link esterni ai soli articoli.)

Una proposta per proibire AlterNet è stata fatta nell’aprile 2019, ma la proposta ha ricevuto pochissimo sostegno. Un utente ha affermato che AlterNet dovrebbe essere proibito a causa della distribuzione da parte del sito di false informazioni mediche – ovvero che l’antrace può essere trattata usando l’omeopatia, ad esempio – le istruzioni potrebbero causare danni fisici! D’altra parte, uno degli utenti contrario al ban ha affermato che AlterNet è “prezioso per fornire punti di vista progressivi e reportage o interviste a organizzazioni progressiste”. La maggior parte degli articoli di Wikipedia che citano AlterNet non sono articoli medici, ma alla luce dello status di Wikipedia come fonte di informazioni mediche più ampiamente utilizzata per medici e pazienti, consentire citazioni ad AlterNet rappresenta un rischio che non esiste nei tanto deprecati siti di destra.

La discussione che non è riuscita a proibire l’utilizzo della fonte AlterNet ha avuto una scarsa partecipazione, con commenti di soli sette utenti. Questo risultato sottolinea la natura soggettiva dei giudizi sulle fonti perché con un diverso equilibrio di punti di vista tra i suoi partecipanti la discussione avrebbe potuto facilmente produrre un risultato diverso. Per comprendere la causa principale del bias in discussioni come questa è necessario comprendere i fattori che influenzano l’equilibrio dei punti di vista tra i partecipanti alla discussione.

PARZIALITA` NELL’ESECUZIONE DELL’ARBITRATO
Wikipedia si definisce “L’enciclopedia libera che chiunque può modificare”, ma questo è vero solo per gli articoli non controversi. Molti argomenti controversi hanno limitazioni aggiuntive su chi è autorizzato a modificarli, ad esempio lo possono fare solo gli utenti che hanno registrato un account e hanno accumulato un certo numero di modifiche. Più rilevante per il contenuto o le decisioni sulle fonti è un altro tipo di restrizione applicata ad alcuni argomenti noti come sanzioni discrezionali. Si tratta di una serie speciale di poteri conferiti agli amministratori in alcune aree tematiche che consentono loro di porre blocchi o sanzioni su qualsiasi persona che modifica l’argomento che ritengono stia agendo in modo sconsiderato. Le sanzioni discrezionali possono essere autorizzate solo dal Comitato arbitrale (alias ArbCom), che è il più alto organo di decisione di Wikipedia in inglese, e di solito sono autorizzate alla conclusione di un procedimento arbitrale che copre un argomento.

Le sanzioni discrezionali sono autorizzate nella maggior parte degli argomenti controversi di Wikipedia e non possono essere revocate o modificate a meno che non vi sia un consenso tra gli amministratori in tal senso. Poiché è abbastanza difficile per loro essere revocate o modificate, e poiché spetta al giudizio individuale degli amministratori quale comportamento dovrebbe essere punito con questo sistema, sarebbe abbastanza facile per qualsiasi amministratore usare questo sistema per sopprimere un lato di un disputa. Ciò potrebbe essere fatto bloccando o vietando l’argomento alla maggior parte degli editor da un lato (un divieto di argomenti vieta a una persona di contribuire a qualsiasi articolo o discussione relativa a un argomento), o facendo sentire gli editori da un lato non benvenuti finché non scelgono di andarsene . Se ciò accadesse, influirebbe sull’equilibrio dei partecipanti alle discussioni sulle fonti o sul contenuto degli articoli e, in ultima analisi, sull’esito di tali discussioni.

Abbiamo esaminato la cronologia delle segnalazioni nella bacheca di Wikipedia dell’arbitrato in relazione a quattro argomenti politicamente controversi in cui sono autorizzate sanzioni discrezionali e in che modo i punti di vista degli editori coinvolti in tali rapporti si riferiscono ai risultati degli stessi. Arbitration Enforcement è il forum principale di Wikipedia per l’implementazione di sanzioni discrezionali, nonché per la segnalazione di possibili violazioni delle decisioni prese da ArbCom. Per rendere la nostra analisi il più sistematica possibile, abbiamo escluso le segnalazioni fatte su altre bacheche, nonché le sanzioni imposte direttamente da ArbCom, perché al di fuori dell’esecuzione dell’arbitrato è molto più difficile misurare il numero di opportunità di azione disciplinare. Questo esame è stato eseguito utilizzando il test del chi-squared per l’indipendenza, che misura se esiste una relazione statisticamente significativa tra le variabili categoriali e rappresenta il nucleo della nostra analisi. Fare clic qui per una descrizione completa delle analisi statistiche e dei suoi risultati, comprese le tabelle dei dati grezzi.

La prima area tematica che abbiamo esaminato sono gli articoli trattati dal caso di arbitrato “politica americana 2“, e più specificamente quei rapporti che riguardano il presidente Trump, nonché argomenti strettamente correlati come le elezioni del 2016 e la nomina di Brett Kavanaugh a La corte suprema.

Figura 1: tabella di contingenza e grafico dell’associazione per posizione e azione nei rapporti di AE sulla politica americana.

Il periodo di tempo esaminato per questo argomento è il periodo da quando Trump ha vinto la nomination repubblicana nel luglio 2016 fino alla fine di agosto 2020 e include un totale di 114 controversie, ciascuna composta da due o più editori. Abbiamo classificato la maggior parte degli editori coinvolti in queste controversie come “pro-Trump” o “anti-Trump”. Un editore classificato come “pro-Trump” non significa necessariamente che consideri Trump un buon presidente o che lo abbia votato – indica semplicemente che le modifiche di questa persona o le modifiche proposte agli articoli relativi a Trump erano più favorevoli che negative, mentre essere classificato come “anti-Trump” indica il contrario.

La nostra analisi di questo argomento ha rilevato un odds ratio di 6,02 (intervallo di confidenza al 95%: 3,23, 11,23), il che significa che gli editori pro-Trump avevano circa sei volte più probabilità di essere disciplinati all’Arbitration Enforcement (AE) rispetto agli editori anti-Trump.

La seconda area tematica che abbiamo esaminato sono gli articoli trattati nel caso di arbitrato sul controllo delle armi. Il periodo di tempo esaminato per questo argomento è il periodo da quando il caso di arbitrato sul controllo delle armi si è concluso nell’aprile 2014 fino alla fine di agosto 2020. La nostra analisi di questo argomento, che includeva 19 controversie di due o più editori, ha rilevato un odds ratio di 3,73 ( 95% CI: 0,98, 14,23), il che significa che i redattori che si opponevano a leggi più severe sul controllo delle armi avevano circa quattro volte più probabilità di essere disciplinati nell’Arbitration Enforcement rispetto a quelli che erano a favore di un controllo più rigoroso delle armi. (Come in precedenza, queste classificazioni si riferiscono all’equilibrio complessivo delle modifiche di una persona agli articoli relativi alle armi, poiché non è sempre possibile conoscere le opinioni personali di un editore.) Questa analisi, sebbene tendesse nella stessa direzione delle altre, non lo era statisticamente significativo al livello p <.05, probabilmente a causa del piccolo campione di report disponibili per l’analisi.

Figura 2: Tabella di contingenza e grafico di associazione per posizione e azione nei rapporti AE sul controllo delle armi.

Il terzo argomento che abbiamo esaminato sono gli articoli trattati nel caso di arbitrato sulla razza e sull’intelligenza. La controversia coperta da questo caso di arbitrato e dai successivi rapporti AE è stata principalmente tra coloro che sostengono che la causa delle differenze di gruppo etnico nei punteggi medi del QI dovrebbe essere descritta come un legittimo dibattito scientifico e coloro che sostengono che la ricerca sulla razza e il QI dovrebbe essere descritto principalmente come pseudoscienza razzista. La natura politica di questo argomento diventa chiara quando si esaminano i vari tentativi di licenziare accademici che hanno scritto sulla razza e sul QI, come Noah Carl e Bo Winegard, dalle loro posizioni. Questi tentativi sono venuti quasi interamente dalla sinistra, mentre pubblicazioni di destra come Spectator, Telegraph e Spiked Online sono state generalmente più in sintonia con questi ricercatori.

Il lasso di tempo esaminato per questo argomento è il periodo che va da quando il caso di arbitrato sulla razza e l’intelligenza si è concluso, nell’agosto 2010 fino alla fine di agosto 2020, per un totale di 43 controversie (molte delle quali hanno coinvolto più di due redattori). La nostra analisi di questo argomento ha rilevato un odds ratio di 6,23 (95% CI: 2,26, 17,13), il che significa che i redattori favorevoli alla ricerca sulla razza e sull’intelligenza hanno una probabilità sei volte maggiore di essere disciplinati nell’Arbitration Enforcement rispetto a quelli che sono contrari ad essa.


 Figura 3: Tabella di contingenza e grafico di associazione per posizione e azione nei rapporti di razza e di intelligenza AE.

La quarta area tematica che abbiamo esaminato è il caso di arbitrato sull’aborto. Il periodo di tempo esaminato per questo argomento è il periodo da quando il caso di arbitrato per aborto si è concluso nel novembre 2011 fino alla fine di agosto 2020. In questo caso sono state effettuate solo sette segnalazioni AE, il che limita la potenza dell’analisi, ma i dati limitati di questo argomento mostrano la relazione più inequivocabile tra punti di vista e risultati amministrativi di uno qualsiasi dei quattro argomenti esaminati. Ogni rapporto di AE in quest’area contro un editore anti-aborto ha portato a un avvertimento o una sanzione, e nessuno di tali rapporti ha mai portato a un avvertimento o una sanzione per qualcuno le cui modifiche erano favorevoli all’aborto.

Figura 4: Tabella di contingenza e grafico di associazione per posizione e azione nei rapporti AE sull’aborto.

Tra le circa 30 aree tematiche in cui sono autorizzate le sanzioni discrezionali, questi quattro argomenti sono stati scelti perché sono aree in cui i due lati della controversia tendono ad allinearsi con l’asse politico sinistra-destra. In altre parole, le persone che tendono politicamente a sinistra hanno maggiori probabilità di vedere il presidente Trump e la ricerca sulla razza in modo sfavorevole e sono più propensi a essere a favore di leggi più severe sul controllo delle armi e di mantenere legale l’aborto. In tutti e quattro questi argomenti, l’evidenza di pregiudizi punta nella stessa direzione: gli editori che sostengono le opinioni associate alla destra politica tendono a ricevere azioni disciplinari più frequentemente di coloro che sostengono le opinioni associate alla sinistra politica.

Considerando questa tendenza comune condivisa dai quattro argomenti, abbiamo eseguito un’analisi aggregata dei dati di tutte e quattro le aree tematiche, confrontando il tasso complessivo di azione disciplinare per i redattori con posizioni inclinate a sinistra e quelle con posizioni inclinate a destra. Ciò porta a un totale di 368 opportunità di azione disciplinare, suddivise quasi 50/50 tra i redattori di destra e di sinistra. L’esame di queste quattro aree tematiche in aggregato produce un odds ratio di 6,41 (IC 95%: 3,94, 10,43), il che significa che nel complesso, in questi argomenti politicamente carichi, gli editori che supportano visioni di destra hanno una probabilità sei volte maggiore di essere sanzionati rispetto a coloro che supportano le opinioni di sinistra.

Figura 5: Tabella di contingenza e schema dell’associazione per posizione e azione nella politica americana combinata, rapporti AE sul controllo delle armi, razza e intelligenza e aborto.

ATTEGGIAMENTO DEGLI AMMINISTRATORI
In assenza di qualsiasi contesto aggiuntivo, una possibile interpretazione di alcuni di questi risultati è che gli amministratori di Wikipedia sono apolitici e che gli editori di destra sono sanzionati più spesso perché il loro comportamento tende a violare più spesso le politiche di Wikipedia. Questa argomentazione è stata avanzata rispetto ai rapporti AE relativi a Trump: poiché la copertura del presidente Trump nei media mainstream è prevalentemente negativa, le persone le cui modifiche assumono un punto di vista anti-Trump inevitabilmente sono supportate da fonti affidabili, mentre quelle le cui modifiche prendono un punto di vista pro-Trump non lo sono.

Tuttavia, i nostri risultati indicano che la tendenza per gli editori di destra ad essere sanzionati più duramente non si limita ai rapporti relativi a Trump. La stessa tendenza esiste anche in settori come il controllo delle armi, dove presumibilmente questa spiegazione alternativa non si applicherebbe, almeno non nella stessa misura.

Inoltre, l’argomento secondo cui gli amministratori di Wikipedia sono apolitici ignora un altro punto importante: in molti casi non pretendono di essere apolitici. È opinione ampiamente espressa tra gli amministratori di Wikipedia, nonché dall’organizzazione madre di Wikipedia, che Wikipedia dovrebbe mostrare poca tolleranza per gli editori percepiti come aventi punti di vista di destra.

Nel dicembre 2018, quando diversi amministratori hanno presentato domanda per posizioni nel comitato arbitrale di Wikipedia in inglese, a tutti i candidati è stata posta la seguente domanda:

Con l’ascesa di gruppi di estrema destra e di odio online, sei preoccupato che gli editori che sposano tali convinzioni possano provare (o stanno già tentando) di utilizzare Wikipedia come veicolo di propaganda? Se sì, quale ruolo pensi che potrebbe svolgere ArbCom nel contrastare la loro influenza su Wikipedia?

La maggior parte dei candidati, inclusi quattro dei sei candidati che hanno continuato a vincere posizioni nell’ArbCom, hanno risposto che gli editori di estrema destra erano un problema particolarmente grave su Wikipedia e che ArbCom deve assumere un ruolo attivo nel fermarli. (Dei due candidati che sono stati eletti senza fornire questa risposta, uno ha risposto che trattare con questi editori era responsabilità della comunità di Wikipedia piuttosto che di ArbCom, mentre l’altro ha rifiutato di rispondere.) Un amministratore esperto che ha servito diversi mandati su ArbCom ha dato una risposta rappresentativa del punto di vista della maggioranza:

Sì, Wikipedia ha avuto questo problema da prima [del caso di arbitrato] Razza e intelligenza, ma i metodi di questi gruppi sono diventati più sofisticati negli ultimi anni.

La necessità percepita di combattere gli editori di destra è spiegata in maggior dettaglio da un saggio di Wikipedia in cui si afferma che gli editori che sono nazisti o razzisti dovrebbero essere bloccati a vista, anche se il loro comportamento non viola alcuna politica di Wikipedia. (Questo saggio usa i termini “razzista” e “nazista” in modo intercambiabile.) I saggi di Wikipedia non hanno la stessa forza delle politiche effettive, ma sono comunemente usati come guide per le azioni amministrative. La definizione del saggio di razzismo è molto ampia: una sottopagina del saggio che elenca “pagine spesso modificate da razzisti” include gli articoli “Ann Coulter”, “Intelligence Quotient” e “All Lives Matter”.

I singoli amministratori hanno espresso opinioni simili. Per diversi anni, un saggio personale scritto da un amministratore ha sostenuto che “l’ideologia di destra acritica sta squalificando gli editori di Wikipedia” o (in un’altra versione del saggio) che “a mio avviso, credere che Trump sia un buon presidente indica che tu probabilmente non sei in grado di modificare Wikipedia “, anche se a seguito delle critiche di diversi non amministratori ha riscritto il saggio in una forma più moderata nel maggio di quest’anno. La sua riscrittura di questo saggio non sembra indicare un reale cambiamento di atteggiamento nei confronti della politica che ci si aspetta che gli editori di Wikipedia abbiano, poiché ha espresso un sentimento simile in una successiva discussione sul movimento Black Lives Matter: “Puoi essere una di queste tre cose: alleato, nemico o collaboratore. Sii un alleato. “

La più recente dichiarazione importante sulle opinioni politiche che ci si attende dagli editori di Wikipedia è arrivata dalla Wikimedia Foundation (WMF), l’organizzazione senza scopo di lucro che gestisce Wikipedia. Nel giugno 2020, l’organizzazione ha pubblicato una dichiarazione in cui sostiene gli obiettivi di Black Lives Matter: “Su questi temi, non c’è una posizione neutrale. Rimanere in silenzio significa sostenere la violenza della storia e del potere; ieri, oggi e domani. “

L’affermazione “non esiste una posizione neutrale” è probabilmente un riferimento alla politica di Wikipedia del “Punto di vista neutrale”, che è ancora una politica ufficiale di Wikipedia. Questo apparente rifiuto di una politica fondamentale di Wikipedia da parte dell’organizzazione madre del sito non è passato inosservato ai membri della comunità di Wikipedia, che successivamente hanno discusso le implicazioni della dichiarazione.

Le opinioni espresse da vari Wikipediani sulla dichiarazione del WMF rivelano un contrasto informativo. I non amministratori che commentano la dichiarazione hanno espresso una varietà di opinioni, ma hanno più disapprovato la dichiarazione che approvata, con alcuni che sono stati molto critici. Tuttavia, nessun amministratore di Wikipedia ha criticato apertamente la dichiarazione. Dei sette amministratori che hanno commentato la discussione al riguardo, due (Nosebagbear e DGG) hanno espresso lievi preoccupazioni o disaccordi, uno (Llywrch) ha commentato senza esprimere un’opinione, mentre gli altri quattro (Pharos, Sj, The Blade of the Northern Lights, e Amorymeltzer) hanno tutti difeso la dichiarazione del WMF. Ironia della sorte, uno dei Wikipediani più importanti a criticare direttamente la dichiarazione del WMF è stato un ex amministratore, che è stato privato dei suoi poteri amministrativi nel gennaio di quest’anno.

Questo contrasto tra le opinioni degli amministratori e dei non amministratori suggerisce l’esistenza di un divario culturale sulla questione tra la direzione di Wikipedia e i suoi membri ordinari. In generale, la direzione di Wikipedia ha espresso opinioni più positive dei suoi membri ordinari sull’idea di richiedere ai redattori di articoli controversi di mantenere opinioni di sinistra. Tuttavia, solo gli amministratori hanno l’autorità di decidere l’esito dei rapporti sull’applicazione dell’arbitrato, quindi la più ampia comunità di Wikipedia non può impedire facilmente che questo tipo di approccio attivista venga utilizzato lì.

IN CHE MODO IL PREGIUDIZIO DEGLI AMMINISTRATORI INFLUISCE SUGLI ARTICOLI
Nel lungo periodo, poiché gli editori di Wikipedia da una parte di una controversia ricevono un’azione disciplinare più spesso di quelli dall’altra parte, la posizione sostenuta dagli amministratori tende a diventare sovrarappresentata tra gli editori. Ci si potrebbe aspettare che questo squilibrio si traduca in una formulazione dell’articolo che è sottilmente sbilanciata a favore del punto di vista dominante, o che risulti in un numero eccessivo di fonti che supportano il punto di vista opposto essere giudicato inaffidabile, ma lo squilibrio può anche influenzare gli articoli in modo più profondo modi. Qui esamineremo uno di questi effetti più significativi sull’articolo di Wikipedia su Linda Gottfredson, una psicologa che ha pubblicato ricerche su razza e QI tra molti altri argomenti (e di conseguenza un articolo che è trattato dal caso di arbitrato “Razza e intelligenza”) .

Da gennaio 2016 a ottobre 2017, l’articolo di Wikipedia su Gottfredson conteneva una citazione molto denigratoria. L’articolo di Wikipedia diceva quanto segue:

Barry Mehler scrive nel Journal of Blacks in Higher Education che Gottfredson sta tentando di promuovere le teorie razziali usate dai nazisti:

Quindi, vediamo che l’opposizione di Gottfredson all’azione affermativa non si basa su una simile “oggettività” dichiarata, ma su una resurrezione sanificata delle idee avanzate dai teorici razziali nazisti. Con il falso pretesto dell’onestà intellettuale, ha appoggiato la stessa ideologia velenosa che mezzo secolo fa ha portato all’Olocausto.

C’è un problema con questa citazione: molto probabilmente Mehler non l’ha mai detto. La citazione che Wikipedia ha fornito per la citazione di cui sopra è “Mehler 1994”, senza alcun titolo o numero. Ma secondo Google Scholar, Barry Mehler non ha mai pubblicato un articolo sul Journal of Blacks in Higher Education (JBHE) nel 1994 o in qualsiasi altro anno. Mehler ha pubblicato solo un singolo articolo nel 1994, e mentre il documento confronta gli studi sui gemelli usati dai genetisti comportamentali con gli esperimenti di Josef Mengele ad Auschwitz, non menziona Gottfredson. Gli scritti di Mehler tendono ad essere esempi della legge di Godwin, quindi la citazione che confronta le opinioni di Gottfredson con il nazismo sembra il tipo di cosa che avrebbe potuto dire. Ma non ci sono fonti che indichino che l’abbia fatto davvero.

L’inesistenza di una fonte reale per questa citazione può essere confermata da una ricerca limitata alla data della citazione su Google, Google Libri e Google Scholar, limitata a prima che fosse aggiunta all’articolo di Wikipedia nel gennaio 2016. Queste tre ricerche combinate ottengono un unico risultato: il libro del 2005 Destructive Trends in Mental Health. Questo libro contiene un capitolo di Linda Gottfredson (che è probabilmente il motivo per cui compare tra i risultati di Google), ma non contiene questa citazione, né cita Mehler. A giudicare dai risultati di Google, l’articolo di Wikipedia su Linda Gottfredson è stato il primo posto in cui questa citazione è mai apparsa.

Questa presunta citazione di Mehler è stata rimossa dall’articolo di Wikipedia come “non verificabile” il 20 ottobre 2017, ma a quel punto il danno era stato fatto. Questa citazione è stata successivamente ripetuta nel libro Modern American Extremism and Domestic Terrorism, pubblicato da ABC-CLIO nel 2018. Invece di copiare il vago riferimento di Wikipedia a un articolo JBHE inesistente, questo libro cita invece un articolo del 1999 del Southern Centro legale sulla povertà. Sebbene l’articolo citato dell’SPLC menzioni Gottfredson, non contenga questa citazione.

La politica di Wikipedia in materia di biografie di persone viventi, nota anche come politica BLP, richiede che tutte le dichiarazioni sulle persone viventi siano supportate da una fonte affidabile e che il materiale di scarsa provenienza venga immediatamente rimosso. Ma come tutte le politiche di Wikipedia, questa politica può essere applicata solo se c’è qualcuno disposto a sostenerla. Durante i 21 mesi in cui l’articolo di Gottfredson conteneva questa citazione apparentemente fabbricata, l’articolo è stato modificato sporadicamente da diverse persone, che hanno rapidamente annullato i tentativi di rimuovere materiale negativo dall’articolo. Ma le persone che mantennero l’articolo durante questo periodo erano quasi interamente persone che avevano opinioni sfavorevoli su Gottfredson, e la loro diligenza non si estese ad assicurarsi che tutto il materiale negativo fosse citato a fonti realmente esistenti.

Il principio illustrato da questa serie di eventi è che i membri di Wikipedia hanno molte meno probabilità di notare e rimuovere materiale falso se è a sostegno di un punto di vista con cui sono d’accordo. (Questo è vero per tutti i punti di vista, sia a sinistra che a destra.) Sebbene questo particolare esempio fosse più severo della maggior parte, lo stesso principio si applica anche a violazioni più sottili delle politiche sui contenuti di Wikipedia, come il testo dell’articolo non adeguatamente supportato da le fonti che cita. Quando gli amministratori di Wikipedia sopprimono una parte di una disputa su un argomento controverso, uno dei risultati a lungo termine è che le violazioni delle politiche favorevoli alla parte opposta possono essere trascurate per mesi o anni.

La storia dell’articolo di Gottfredson dimostra anche uno dei pericoli che derivano dalla soppressione di un lato di una controversia e dalla conseguente applicazione lassista della politica BLP o di altre politiche di Wikipedia. Molti giornalisti e accademici si affidano a Wikipedia come fonte di informazioni, quindi quando il materiale falso – compreso il materiale falso sulle persone viventi – non viene rimosso in modo tempestivo, può eventualmente essere ripetuto in libri o articoli pubblicati, come è successo in questo caso.

L’IMPORTANZA DEI PUNTI DI VISTA
Dal punto di vista della Wikimedia Foundation, su alcuni argomenti controversi esiste solo un’opinione accettabile, e questa visione è stata supportata anche da molti amministratori di Wikipedia in inglese. Questo atteggiamento si riflette nelle decisioni amministrative presso l’Arbitration Enforcement e, in ultima analisi, nel contenuto degli articoli. Il problema che attualmente deve affrontare Wikipedia è che la creazione di una enciclopedia di alta qualita` richiede l’atteggiamento esattamente opposto, per le ragioni spiegate da Greenstein e Zhu: una diversità di punti di vista e background editoriali rende più probabile che gli argomenti controversi siano presentati in modo imparziale.

Poiché sia ​​i media che il mondo accademico diventano costantemente più partigiani, forse era inevitabile che Wikipedia alla fine seguisse un percorso simile. Tuttavia, una differenza tra Wikipedia e la maggior parte dei giornali è che Wikipedia ha politiche fondamentali, come la politica NPOV e BLP, che teoricamente rimangono ancora in vigore. Resta da vedere come Wikipedia e la sua organizzazione madre gestiranno la contraddizione tra queste politiche e la loro crescente politicizzazione.

Ci sono tre possibili risultati:

Uno è che Wikipedia o il WMF implementino riforme che proteggano la diversità di punti di vista necessaria per il mantenimento delle sue politiche fondamentali.

Una seconda opzione è che queste politiche vengano ufficialmente ribaltate, sebbene sia improbabile che la comunità di Wikipedia accetti un cambiamento su quella scala.

L’ultima possibilità, e forse la più probabile, è quella predetta da Larry Sanger: che queste politiche rimarranno sui libri, con forse qualche timido tentativo di riforma, ma che a lungo termine verranno comprese e accettate come vere.


Shuichi Tezuka e Linda A. Ashtear sono pseudonimi di due accademici americani

Fonte

2020-10-31_10-45-29

Neovitruvian

La censura dei social media e` sempre piu` pesante, aiutami a sopravvivere con una donazione

2.00 €

Informazioni su neovitruvian

Non fidatevi dei vostri occhi, sono facilmente ingannabili, ricercate in voi stessi quella forza che vi permette di distinguere il vero dal falso. Il mondo così come è non va. Mi basta questo.

Pubblicato il 2 novembre 2020, in Uncategorized con tag , , , , , , . Aggiungi il permalink ai segnalibri. Lascia un commento.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

%d blogger hanno fatto clic su Mi Piace per questo: