Belangrijkste leerpunten
- De Oversight Board van Facebook heeft gevraagd om duidelijkere regels voor desinformatie op de website van sociale media.
- Het bestuur heeft momenteel meerdere beslissingen van Facebook vernietigd om berichten te verwijderen die het als verkeerde informatie of haatzaaiende uitlatingen beschouwden, maar dat niet waren.
- Er is behoefte aan duidelijkere definities van wat wel en niet desinformatie of haatzaaiende taal is, vooral met het internationale bereik van Facebook.
Lijnen in het zand
Deze behoefte aan consistentie en beknoptere regels speelt nu al een rol. Van de vijf zaken die de toezichtsraad van Facebook in december aannam, besloot de groep vier van de zaken teniet te doen, waarvan er twee duidelijk aantoonden dat er behoefte was aan betere moderatie. In een van de vernietigde zaken oordeelde het bestuur in het voordeel van een vrouw wiens Instagram-bericht over borstkanker automatisch van de website werd verwijderd vanwege het schenden van haar beleid voor naaktheid en seksuele activiteit voor volwassenen. Hoewel Facebook de foto al had hersteld, toonde het bestuur bezwaar tegen het verwijderen ervan. Het bestuur raadde Facebook zelfs aan om een bezwaarsysteem in te voeren, zodat gebruikers kunnen zien wanneer een bericht is verwijderd, waarom het is verwijderd en zelfs manieren worden voorgesteld om met een mens te praten om een oplossing te zoeken.
Welke weg is omhoog?
“Facebook is internationaal actief”, vertelde Isaak aan reddingsdraad via e-mail. “Elk rechtsgebied heeft zijn eigen regels en Facebook kan verantwoordelijk worden gehouden volgens die in andere landen.” Facebook moet alle regels van de gebieden waarin het actief is in gedachten houden bij het opstellen van nieuw beleid. Door het beleid onduidelijk te maken, laat Facebook ruimte voor fouten die ertoe kunnen leiden dat de raad van toezicht in de toekomst meer zaken moet terugdraaien. Nu de verspreiding van haatzaaiende uitlatingen en verkeerde informatie zo wijdverbreid wordt, vooral op sociale media zoals Facebook en Twitter, is het belangrijk voor deze bedrijven om duidelijke richtlijnen te bieden die vervolgens kunnen worden gebruikt om de gemeenschap te modereren. “Wat in de VS ‘hate speech’ is, kan in andere autocratische samenlevingen als patriottisch worden gedefinieerd…” Natuurlijk zijn er altijd andere opties om dit soort problemen te helpen verminderen. In feite werd een van de zaken die het bestuur oorspronkelijk in december moest overzien, uit de lijst verwijderd na het verwijderen van de post door de gebruiker. Door gebruikers gegenereerde moderatie is iets dat we al succesvol hebben gezien op websites zoals Wikipedia, en onlangs is Twitter zelf opgevoerd door Birdwatch uit te brengen, een door de gemeenschap aangedreven moderatiesysteem om de verspreiding van verkeerde informatie te helpen stoppen. Deze methoden hebben echter andere problemen. Daarom zal het verkrijgen van een standaardbasis voor de verwachtingen van de gemeenschap van cruciaal belang zijn voor Facebook om in de toekomst een betere moderatie van zijn apps en websites te bieden.