Facebook tager (mere) ansvar for platformen

Det karakteristiske f.

Der var engang, hvor det virkede som om, alt var tilladt på Facebook. Zuckerberg og Co. lignede mest af alt nogle, der ikke rigtig ville tage ansvar, så længe antallet af interaktioner, mængden af tid og værdien af annoncerne fortsatte opad.

Indhold kunne kun blive fjernet, hvis det var direkte ulovligt eller krænkede den amerikanske blufærdighed – der viste sig at ligge et andet sted end den danske.

“Vi er ikke et medieselskab” lød undskyldningen fra Facebook. Medieselskaber har et ansvar for det, der sker på deres platform og det indhold, der bliver produceret og delt der. Det har teknologivirksomheder ikke i samme grad.

Men det var dengang; nu kommer der nye toner fra Facebook. Det har været på vej længe, som jeg har skrevet i artiklen Facebook vokser op hos Kommagasinet:

Siden har Facebook skruet bissen på. Blandt andet ved hjælp af automatisk og menneskelig moderation. I januar i år kunne Facebooks COO, Sheryl Sandberg, oplyse, at Facebook blokerer en million falske konti – hver dag. Facebook bekæmper også misinformation via samarbejder i specifikke lande. Herhjemme indgik Facebook i september 2018 et samarbejde med Mandag Morgens ‘TjekDet’, der skal fungere under den kommende valgkamp.

Facebook er langt fra i mål endnu. Men de er på vej.

Vacciner og hvid nationalisme

De tog endnu et skridt på vejen i starten af marts, da de i en pressemeddelelse meldte ud, at de tager kampen op mod misinformation om vacciner:

For example, if a group or Page admin posts this vaccine misinformation, we will exclude the entire group or Page from recommendations, reduce these groups and Pages’ distribution in News Feed and Search, and reject ads with this misinformation.

Det seneste skridt tog Facebook i går, 27. marts. Om to uger iværksætter de en ny politik, der forbyder hvid nationalisme og separatisme. Det kan du læse mere om hos Vices Motherboard blandt andre:

After a civil rights backlash, Facebook will now treat white nationalism and separatism the same as white supremacy, and will direct users who try to post that content to a nonprofit that helps people leave hate groups.

(Facebook har i noget tid forbudt “white supremacy”, og nu bliver det begreb altså udvidet.)

Mange vil nok have deres meninger om og holdninger til, hvorvidt Facebook gør nok, og om de har reageret i tide.

Ændringen kommer især efter masseskyderiet i New Zealand, som blandt andet Venture Beat skriver:

New Zealand Prime Minister Jacinda Ardern, who has called for social media platforms to be accountable for what users post, said material covered by the measures should arguably have already been banned under Facebook’s hate-speech rules.

“Having said that, I’m pleased to see that they are including it, and that they have taken that step, but I still think that there is a conversation to be had with the international community about whether or not enough has been done,” she told a media conference in Christchurch on Thursday.

Men vil det virke?

“Will Facebook’s new ban on white nationalist content work?” spørger Wired. Og det er et godt spørgsmål – for hvordan ser det ud hos den organisation, Facebook vil pege synderne hen til?

It’s not clear how Life After Hate will handle an influx of people who may arrive at their organization from the largest social network in the world. The nonprofit lists just six staff members on its website. Shortly before President Obama left office, his administration awarded a $400,000 federal grant to the Chicago-based nonprofit, but it was later rescinded by the Trump administration.

Lad os dog være glade for, at der sker noget – og at Facebook er på vej i en fornuftig retning. Uanset hvad man så mener om deres hastighed og slagkraft.

Hold dig opdateret: Abonnér på Digital Ugerevy
Min ugentlige opsamling på nye medier og digital udvikling i mediebranchen.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

This site uses Akismet to reduce spam. Learn how your comment data is processed.