“Algoritmi dell’oppressione. Come i motori di ricerca favoriscono il razzismo”: un estratto
Pubblichiamo, ringraziando l’autrice e l’editore, un estratto dal saggio di Safiya Umoja Noble “Algoritmi dell’oppressione. Come i motori di ricerca favoriscono il razzismo“, appena pubblicato da Tamu con traduzione e una nota del gruppo Ippolita.
*
Man mano che l’informazione di qualità, generalmente garantita dal settore pubblico, viene dislocata in spazi privati e commerciali, la capacità del pubblico di vigilare sulle tutele mediatiche necessarie in una democrazia viene progressivamente compromessa a causa dei costi di accesso. Organizzazioni come FreePress.org stanno dimostrando come l’ascesa della pubblicità abbia mandato in crisi la qualità del giornalismo, finora considerato una componente fondamentale di una società democratica. Gli studiosi dei media Robert McChesney e John Nichols hanno rilevato con dovizia di particolari storici e con abbondanti prove concrete quanto sia determinante un’informazione che sia libera da interessi commerciali. I rapidi cambiamenti che negli ultimi decenni hanno portato alla conquista dei mezzi di informazione da parte delle grandi aziende – rispetto a un ambiente giornalistico ancora legato all’interesse pubblico, come quello precedente agli anni ’90 – hanno portato a erodere la qualità delle informazioni disponibili; così come il passaggio di mano che ha reso internet un ambiente to talmente commercializzato – rispetto al progetto accademico-militare iniziale, che era finanziato da fondi pubblici – ha influenzato il modo in cui le informazioni stesse si rendono oggi disponibili sul web. Gli stereotipi che abbondano sui media, inclusi i risultati delle ricerche sul web, non solo dissimulano la disparità sociale, politica ed economica presente negli Stati Uniti, ma la rinsaldano. I motori di ricerca commerciali, per evitare queste rappresentazioni razziste, potrebbero come minimo munirsi di un disclaimer, ma sarebbe molto meglio se si adoperassero per produrre una «correzione tecnica» permanente in grado di bloccare la proliferazione di contenuti razzisti e patriarcali. Nel 2010, quando Google Instant, un nuovo strumento per migliorare la ricerca, non includeva ancora le parole «latine», «lesbiche» e «bisessuali» – dal momento che le ricerche su questi termini producevano contenuti per adulti – l’attivista Veronica Arreola dal blog della rivista «Ms.» aveva sollevato a tal proposito una domanda legittima: «Caro il mio Google… dato che stiamo parlando di te, siamo davvero sicuri che non ti sia possibile spostare i contenuti pornografici e violenti, che ne so, in seconda pagina?» Sono questi esempi che segnalano le conseguenze del rapido passaggio dall’informazione pubblica al suo surrogato commerciale, conseguenze che hanno reso sempre più difficile trovare informazioni alternative. Allo stesso modo, il consolidamento dei media ha contribuito all’abbassamento degli standard professionali – verificare le fonti, evitare la diffamazione di persone e situazioni, evitare l’imposizione di valori culturali e distinguere tra gli interessi pubblicitari e le decisioni editoriali –, tutti elementi che possono essere applicati alla trasmissione delle informazioni sul web. A differenza del sistema di verifica che è stato creato per giornalisti e bibliotecari, che sono incaricati di controllare i fatti e di curare le informazioni per la stampa secondo i loro codici etici professionali, la legittimità del ranking e della credibilità dei siti web è semplicemente data per scontata. Quando si tratta di motori di ricerca commerciali non possiamo limitarci a condividere le notizie, dobbiamo chiederci come vengono trovate le cose che vogliamo condividere e come sono apparse le cose che troviamo.