Skip to content

Waarom Facebook duidelijkere regels voor verkeerde informatie nodig heeft

30 de juni de 2021
GettyImages 1173369843 f137de7920874c80bfc5bd3c388120ed

Belangrijkste leerpunten

  • De Oversight Board van Facebook heeft gevraagd om duidelijkere regels voor desinformatie op de website van sociale media.
  • Het bestuur heeft momenteel meerdere beslissingen van Facebook vernietigd om berichten te verwijderen die het als verkeerde informatie of haatzaaiende uitlatingen beschouwden, maar dat niet waren.
  • Er is behoefte aan duidelijkere definities van wat wel en niet desinformatie of haatzaaiende taal is, vooral met het internationale bereik van Facebook.
De toezichtsraad van Facebook, die is ingesteld om verder toezicht te houden op het verwijderen en modereren van berichten op de website, heeft een aantal eerdere beslissingen met betrekking tot verwijderde berichten ongedaan gemaakt, waardoor de behoefte aan duidelijkere definities en regels duidelijk werd. De toezichtsraad nam in december 2020 de eerste vijf zaken op zich. Hoewel een van de berichten in de beoordeling afkomstig was uit de VS, kwamen de berichten in totaal uit vier verschillende continenten, die allemaal de afgelegde verklaringen op totaal verschillende manieren konden bekijken. Daarom moet het beleid dat Facebook in gang zet beknopt zijn en moet het werken met de community waarop de moderatietools zich richten. “Facebook’s ‘onafhankelijke beoordeling’-activiteit moet consistent zijn over de internationale grenzen heen,” schreef Jim Isaak, een voormalig voorzitter van het Institute of Electrical and Electronics Engineers, en een 30-jarige veteraan in de technologische industrie, ons via e-mail. “Maar wat in de VS ‘hate speech’ is, kan in andere autocratische samenlevingen als patriottisch worden gedefinieerd – waardoor de complexiteit van wat er wordt gedaan toeneemt.”

Lijnen in het zand

Deze behoefte aan consistentie en beknoptere regels speelt nu al een rol. Van de vijf zaken die de toezichtsraad van Facebook in december aannam, besloot de groep vier van de zaken teniet te doen, waarvan er twee duidelijk aantoonden dat er behoefte was aan betere moderatie. In een van de vernietigde zaken oordeelde het bestuur in het voordeel van een vrouw wiens Instagram-bericht over borstkanker automatisch van de website werd verwijderd vanwege het schenden van haar beleid voor naaktheid en seksuele activiteit voor volwassenen. Hoewel Facebook de foto al had hersteld, toonde het bestuur bezwaar tegen het verwijderen ervan. Het bestuur raadde Facebook zelfs aan om een ​​bezwaarsysteem in te voeren, zodat gebruikers kunnen zien wanneer een bericht is verwijderd, waarom het is verwijderd en zelfs manieren worden voorgesteld om met een mens te praten om een ​​oplossing te zoeken.

Facebook mede-oprichter, voorzitter en CEO Mark Zuckerberg getuigt voor een gecombineerde hoorzitting van de Senaatscommissie voor Justitie en Handel in het Hart Senate Office Building op Capitol Hill.

Het bestuur ontdekte dat, hoewel de vrouw een bericht had gedeeld met onbedekte en zichtbare vrouwelijke tepels, de foto niet in strijd was met de communityrichtlijnen van Instagram. De norm voor naaktheid en seksuele activiteit voor volwassenen die Facebook in zijn gemeenschapsnormen handhaaft, staat naaktheid toe wanneer de gebruiker om een ​​medische reden of een andere reden het bewustzijn wil vergroten. Een ander bericht, dat werd gedeeld vanuit Myanmar, bevatte taal over moslims waarvan het bestuur zei dat het als beledigend kan worden beschouwd, maar het bereikte niet het niveau van haatzaaiende uitlatingen om te rechtvaardigen dat het werd verwijderd of als tegen de regels werd beschouwd. Dit is waar dingen bijzonder lastig beginnen te worden.

Welke weg is omhoog?

“Facebook is internationaal actief”, vertelde Isaak aan reddingsdraad via e-mail. “Elk rechtsgebied heeft zijn eigen regels en Facebook kan verantwoordelijk worden gehouden volgens die in andere landen.” Facebook moet alle regels van de gebieden waarin het actief is in gedachten houden bij het opstellen van nieuw beleid. Door het beleid onduidelijk te maken, laat Facebook ruimte voor fouten die ertoe kunnen leiden dat de raad van toezicht in de toekomst meer zaken moet terugdraaien. Nu de verspreiding van haatzaaiende uitlatingen en verkeerde informatie zo wijdverbreid wordt, vooral op sociale media zoals Facebook en Twitter, is het belangrijk voor deze bedrijven om duidelijke richtlijnen te bieden die vervolgens kunnen worden gebruikt om de gemeenschap te modereren. “Wat in de VS ‘hate speech’ is, kan in andere autocratische samenlevingen als patriottisch worden gedefinieerd…” Natuurlijk zijn er altijd andere opties om dit soort problemen te helpen verminderen. In feite werd een van de zaken die het bestuur oorspronkelijk in december moest overzien, uit de lijst verwijderd na het verwijderen van de post door de gebruiker. Door gebruikers gegenereerde moderatie is iets dat we al succesvol hebben gezien op websites zoals Wikipedia, en onlangs is Twitter zelf opgevoerd door Birdwatch uit te brengen, een door de gemeenschap aangedreven moderatiesysteem om de verspreiding van verkeerde informatie te helpen stoppen. Deze methoden hebben echter andere problemen. Daarom zal het verkrijgen van een standaardbasis voor de verwachtingen van de gemeenschap van cruciaal belang zijn voor Facebook om in de toekomst een betere moderatie van zijn apps en websites te bieden.