Verso la diversità algoritmica: un viaggio nei dati di facebook.tracking.exposed - The quest for algorithm diversity: a dive into facebook.tracking.exposed dataset #ijf17 : 無料・フリー素材/写真
Verso la diversità algoritmica: un viaggio nei dati di facebook.tracking.exposed - The quest for algorithm diversity: a dive into facebook.tracking.exposed dataset #ijf17 / International Journalism Festival
| ライセンス | クリエイティブ・コモンズ 表示-継承 2.1 |
|---|---|
| 説明 | Claudio AgostiA giugno 2016, mentre Trump si dedicava a rendere la filter bubble un problema mainstream, se già non lo era dopo il Brexit, noi stavamo sviluppando facebook.tracking.exposed, che serve ad analizzare e capire concretamente come funzionano gli algoritmi. Osando un po' di più, serve a rendere visibile cosa sia la filter bubble a non addetti ai lavori. Rendere visibile non significa risolverlo, si tratta di un problema complesso, sia tecnologico che politico. Il nostro scopo è almeno fornire dati oggettivi che possano descrivere il fenomeno a giornaliste e ricercatori che vogliono investigare sugli effetti di una dieta informativa guidata da algoritmi. Il progetto, nella sua fase beta, funziona collezionando quello che appare sulla tua timeline. spesso viene chiesto come sia differente da dataselfie.it: dataselfie ti mostra quello che tu dai a Facebook, noi l'opposto, quello che Facebook da a te. Una volta aggregati questi dati possono essere studiati, così da capire il fenomeno dalla filter bubble, o da comparare, ad esempio, da un gruppo di utenti omogeneo come Facebook mostri realtà differenti per ognuno. Questi sono effetti dei algoritmi di personalizzazione, la filter bubble, o altri effetti di censura implicita dei contenuti, sono degli effetti derivati. Tutto quello che facciamo è open source, puoi vedere come funziona, contribuire alla tecnologia ed alle analisi. Considerando l'impatto politico della diffusione di fake news e della filter bubble, noi consideriamo gli algoritmi di personalizzazione alla stregua di politiche sociali. Dovrebbero essere discusse, conosciute e scelte pubblicamene e dove possibile, indipendentemente. invece di assecondare le logiche di business. Questo è il motivo per cui non stiamo sviluppando, per ora, servizi, ma piuttosto un'infrastruttura di archivio che abiliti personale esperto a fare analisi di critica. Dagli anni passati, si sente sempre spesso di come Facebook e Google dovrebbero essere regolati, ma la società civile manca di strumenti adeguati per giudicare cosa effettivamente questi algoritmi fanno. Noi vogliamo dare questo strumento.While Trump was busy making the filter bubble a mainstream problem, we were developing facebook.tracking.exposed . We can’t solve a political problem with technology but we might at least provide reliable data to help address the phenomenon objectively. The goal of the project is to collect the stories that make your Facebook Newsfeed, and to aggregate and analyse the data collected in order to study the relation between the filter bubble effects and how the personalization algorithm (PA) operates. Everything we do is open source so you can see how it works and help make it better. Filter bubble and fake news proliferation are a side-effect of PA. As 2016 shows us, PA can have a certain impact in our society. We treat algorithms as nothing less than social policies. But social policies have to be debated openly and not in a technical meeting intended to optimize revenues. That’s why we promote a collaborative study of PA.video: media.journalismfestival.com/programme/2017/exposing-what... |
| 撮影日 | 2017-04-08 09:49:58 |
| 撮影者 | International Journalism Festival , Perugia, Italia |
| タグ | |
| 撮影地 |

