Facebook, feitenchecker en censuur – Hoe onze informatie wordt gemanipuleerd.

314

Precies een jaar geleden werd met een groot PR-balkorium aangekondigd dat wij Duitse Facebook-gebruikers voortaan onze eigen Fakenews-agenten zouden hebben: Corrigerend van het “Onderzoeksbureau”.

“Ik geef toe dat ik sindsdien met vol ongeduld heb gewacht om eindelijk #Fakenews te zien in mijn nieuwsfeed – gewoon omwille van de interesse. Maar het gebeurde NIET. Om een eenvoudige reden”:

Terwijl Facebook-gebruikers in Amerika en enkele andere landen de mogelijkheid hadden om verdachte berichten zo snel mogelijk #Fakenews te melden, zodat ze deze weer naar externe checkers konden sturen voor verificatie en – als tenminste twee externe checkers het nieuws met een dikke rode vlag als “omstreden” bestempeld hadden – bleven wij in Duitsland volledig onaangetast.

De eenvoudige reden hiervoor is dat in Duitsland niemand behalve Correctiv kon worden gevonden die de rol van de Fakenews-Checker wilde overnemen.

Het principe van dubbele controle, om een post alleen als #Fakenews aan te merken als ten minste twee “onafhankelijke” controleurs het als vals beschouwden, kon niet worden toegepast vanwege het ontbreken van een tweede controleur.

Facebook elimineert #Fakenew waarschuwingen volledig

Dit verklaart ook waarom de aankondiging, dat Facebook #Fakenews-waarschuwingen tegen het einde van 2017 zou afschaffen, nauwelijks opgemerkt is door Duitse Facebook-gebruikers. Deze waarschuwingen zijn immers nooit hier ingevoerd.

Met veel amusement lees ik echter de redenen voor de afschaffing van deze verwijzingen, omdat ze gemakkelijk te voorzien waren:

Het kost dus natuurlijk tijd voor twee gegevenscontroleurs om een rapport als #Fakenews te beoordelen en dienovereenkomstig te markeren. Dit betekent dat er dagen aan voorbij kunnen gaan voordat het teken “Achtung, #Fakenews!” binnenkomt – en tot dan toe is de boodschap al viraal en door duizenden gebruikers gelezen. Het is daarom zinloos om een viraal artikel met een lange vertraging te bestempelen als “Fakenews”.

Conclusie: Door #FakeNews te markeren werd vaak het tegenovergestelde bereikt.

Algoritme en nieuw “nep-nieuwsinstrument” als effectief censuurwapen

Reeds in mei 2017 kondigde Facebook aan dat het in de toekomst links naar “ongewenste, storende inhoud” in de nieuwsfeeds zou onderdrukken en dat berichten die als “fakenews” werden geïdentificeerd met behulp van het algoritme zouden worden gedevalueerd zodat hun zichtbaarheid in de feeds zou worden beperkt. Op deze manier zouden ze 80% van hun bereik moeten verliezen.

Hiertoe werd onder andere “artificiële intelligentie” gevoed met een “zwarte lijst” die werd gemaakt na een controle van “honderdduizenden gelinkte webpagina’s”. Welke webpagina’s op deze “zwarte lijst” staan wordt door Facebook geheim gehouden – maar het is duidelijk dat webpagina’s op elk moment daar kunnen verschijnen die politiek gericht niet aanvaardbaar zijn.

Er was nog een belangrijke update in augustus 2017, toen een nieuwe “Fakenews-Tool” voor het eerst werd uit geprobeerd voor een groot aantal Duitse gebruikers voor testdoeleinden. Facebook onthult niet om hoeveel gebruikers dit gaat.

Helaas ben ik niet een van de uitverkorenen, omdat mijn nieuwe feed niet over deze nieuwe functie voor verwante artikelen beschikt.

Veel werk voor de rechtzoekende fact-checkers van Correctiv.

Een verslaggever van het Vice-Online magazine Motherboard heeft de functionaliteit van deze nieuwe tool, die tot doel heeft vier medewerkers van Correctiv te identificeren en te bestempelen als #Fakenews, nader bekeken.

In een eenvoudige tabel (zie screenshot van Motherboard) uploadt Facebook 600 artikelen die door Correctiv op hun waarheidsgetrouwheid moeten worden gecontroleerd, waarbij waarschijnlijk prioriteit wordt gegeven aan viraliteit, d. w. z. hoe snel en hoe vaak een artikel wordt gedeeld en becommentarieerd.

Het oordeel “waarheidsgetrouw” of “vals” wordt eenvoudig aangekruist, een link naar een “correcterend artikel”, bijv. direct vanuit de redactie van het Correctiv, klaar! In de nieuwsfeed worden gebruikers dan onder het gelinkte artikel de “correctie” getoond, zoals deze voorbeeldfoto laat zien:

Het is interessant om op te merken dat Facebook strikt geheim houdt welke algoritme bepaalt welk soort artikelen in deze tabel überhaupt worden ingevoerd!

In tegenstelling tot de vorige procedure zijn dit geen bijdragen die door gebruikers als mogelijk vals nieuws werden gemeld, maar die door facebook onafhankelijk van facebooks als “kunstmatige intelligentie” werden geselecteerd, bijvoorbeeld vanwege triggerwoorden of de herkomst (d. w. z. van waaruit de website waarvan de link afkomstig is) die willekeurig door Facebook kan worden vermeld!

Op deze manier zou het ook mogelijk zijn om’ politieke stimuleringswoorden’, zoals’ islam’,’ vluchtelingen,’ vluchtelingencriminaliteit’, maar ook overheids- en islam kritische websites systematisch in het algoritme te stoppen en ze vervolgens met een eenvoudig’ kruisje’ te devalueren of onzichtbaar te maken. De perfecte censuur tool!

De zorgvuldigheid die kan worden betracht wanneer 150 artikelen per werknemer binnen zeer korte tijd op waarheidsgetrouwheid moeten worden gecontroleerd en het kruis op de juiste plaats moet worden gezet, kan door iedereen worden ingeschat – en ook hoe de politieke oriëntatie van de correctiv de beslissingen zal beïnvloeden.

Vergelijkbaar principe in Facebook-bluscentra.

In oktober 2017 voerde Hanno Vollenweider/de incorruptible een opmerkelijk interview met Melanie C., een voormalig medewerker van Facebook’s eigen deleting-center in Berlijn, waaruit blijkt dat daar vergelijkbare hulpmiddelen worden gebruikt.

Want volgens Melanie werden de potentiële “Hate Speech” -bijdragen, die moesten worden gewist, niet door gebruikersberichten aan het verwijderingscentrum geleverd, maar ook automatisch, door algoritmen op basis van triggerwoorden!

“Het is ook wel het geval geweest dat sommige mensen zijn begonnen met het plaatsen van berichten als je geen berichten hebt verwijderd die het systeem – het algoritme – heeft opgepikt als een mogelijk nep of haat bericht vanwege de gebruikte woorden, maar waarvan je persoonlijk dacht dat het eigenlijk heel onschadelijk of gewoon een normale rapportage was.”

Melanie had tot taak de gegeven bijdragen grotendeels ongecontroleerd (!) te verwijderen of ze “onzichtbaar” te maken door algoritmische devaluatie.

Driekwart van de geschrapte inhoud was niet FakeNews.

Echte haat zaaiende uitlatingen, echte schendingen van communautaire normen of zelfs echt onrechtmatige uitlatingen waren echter slechts minimaal bij betrokken – maar veeleer de handhaving van een politieke agenda, bijvoorbeeld om te voorkomen dat de AfD een hoge verkiezingsuitslag zou behalen bij de verkiezingen. En de strijd tegen de AfD is die dan ook “per ongeluk” opgeschreven door de controleurs van de Correctiv op de vaandels?

“Het ging niet echt om namaaknieuws, maar om dingen die echt zijn gebeurd.”

Zo moesten we bijvoorbeeld de rechtse berichtgeving over zaken als de moord op de student uit Stuttgart, dat wil zeggen, Maria die werd vermoord en verkracht door een vluchteling, of de verkrachter van Macheten uit Bonn en al deze flagrante dingen die vluchtelingen hebben gedaan, tegenhouden, zodat niemand op een rechtse partij zou gaan stemmen.

Zelfs berichten waarin bijvoorbeeld kritiek op de Europese Unie was, maar ook kritiek op de regering, niet alleen vanwege het vluchtelingenbeleid, moesten we zo goed mogelijk uitfilteren.

Veel van de dingen die we moesten censureren gingen’s avonds door mijn hoofd. Toen begon ik met onderzoeken. Ik heb mijn eigen onderzoek gedaan naar “DieUnbruchlichen”, “JournalistenWatch”, “Oppositie24″ – en zoals ze allemaal genoemd werden – en ik heb wat onderzoek gedaan. Bij meer dan driekwart van de artikelen vond ik bewijzen dat dit geen vervalst nieuws was”.

Systematische onderdrukking van impopulaire politieke opvattingen – Duitsland’s grootste focus van Facebook-censuur: 16% van de censuurstrijders zorgt voor 1,25% van de gebruikers.

Van Melanie leren we ook dat er een lijst van 300 pagina’s waren, meestal pagina’s die kritisch waren over de overheid of bijvoorbeeld vluchtelingen en criminaliteit van vluchtelingen en buitenlanders, waarvan de inhoud “bij voorkeur” gecensureerd moest worden.

Sommige van deze pagina’s zijn en worden systematisch gevuld met een zogenaamd schaduwverbod, d. w. z. bijdragen van deze pagina’s worden over het algemeen “onzichtbaar” gemaakt door ze niet te tonen in de nieuwsfeeds van de gebruikers! Het verraderlijke is dat de gebruikers deze vorm van censuur niet kunnen opmerken.

Daarnaast is er een “zwarte lijst” van duizenden Duitse gebruikers die beweren dat zij rechtse content hebben geplaatst. Slechts een fractie van deze gebruikers hebben de Facebook-regels overtreden, wat bijvoorbeeld een blokkering van de gebruiker zou kunnen rechtvaardigen. Voor degenen die niet echt iets posten wat verboden is, maar alleen dingen die rechts zijn, worden de volgende methodes gebruikt:

“Vervolgens probeerden we deze mensen heel actief en eenvoudig te houden – ik noem het “weg pesten” – door hun account telkens weer te blokkeren of hun functies te beperken, bijvoorbeeld gedurende 30 dagen of 7 dagen gebruikers blokkeren waardoor ze niets konden posten.”

“Als ik nu van mening ben dat ik als een van de eerste Duitse Facebook-gebruikers ooit sinds 2008 op dit platform actief was, niet eens voor de hele tijd verboden was – maar sinds mei 2017 slechts vier maanden – dat wil zeggen 1/3 van het jaar – werd “geblokkeerd” vanwege uitspraken die volledig onder de vrijheid van meningsuiting vielen, dan weet ik dat mijn naam altijd op deze onheilspellende lijst moet staan, evenals het feit dat ik een van de eerste Duitser zou zijn.”

Een selectie van onschadelijke uitingen waarvoor gebruikers geblokkeerd zijn, evenals een aantal echte voorbeelden van uitlokking, antisemitische haat en belediging, die op hun beurt Facebook niet uitwist, zijn terug te vinden op de pagina van prominente media advocaat Joachim Nikolaus Steinhöfel, die net gerechtelijke actie heeft ondernomen tegen Facebook voor illegale verwijdering van toegestane inhoud en voor een vrij nieuwe vorm van onwettigheid.

Conclusie:

De technische hulpmiddelen die in het artikel worden beschreven en door Facebook ter beschikking worden gesteld, zijn een uitstekende manier om de censuurbelangen van de overheid met minimale inspanning af te dwingen.

Door het doelgericht gebruik van algoritmen, die gedefinieerd kunnen worden door de input van willekeurige trigger-termen, wordt de zichtbaarheid en dus de waarneming van kritische berichten gemanipuleerd, zonder dat gebruikers deze waarnemingen kan zien of bewijzen.

De personele middelen die Facebook hiervoor op de Duitse markt inzet, spreken voor zich:

Met 25 miljoen actieve gebruikers per maand (2017) zijn Duitse Facebook-gebruikers goed voor slechts 1,25% van de maandelijkse actieve Facebook-gebruikers ter wereld (ongeveer 2 miljard).

Echter, 16% van de medewerkers van Facebook Deletion heeft wereldwijd in dienst, dat wil zeggen meer dan een op de zes (1.200 van de 7.500) zorgen voor het verwijderen van hun – vaak politiek gezien impopulaire – meningen!

Aangezien er geen enkel bewijs is dat de Duitsers van alle andere bevolkingen vaak bovengemiddeld vaak de “Facebook-regels” overtreden, zodat zo’ n relatief grote blussende armada gerechtvaardigd zou zijn, is het duidelijk dat alleen de druk van de overheid (bijvoorbeeld van NetzDG) nog groter is.

En: De enige instelling in Duitsland die voor Facebook wordt gebruikt om mogelijke #Fakenews, Correctiv, te controleren is financieel noch inhoudelijk gezien “onafhankelijk”, maar streeft naar een duidelijke politieke agenda.

In mijn volgende artikel zal ik daarom ingaan op de vraag wie de feiten van de Fakenews-feiten van de feitencheckers daadwerkelijk controleert……

BRON: Journalistenwatch.com



AMN

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *