4
Thinkstock

Technoloog voorspelde de Fake News Crisis, nu waarschuwt hij voor de ‘Informatie Apocalyps’

“Wat gebeurt er als iedereen kan laten lijken alsof wat dan ook is gebeurd, of het nu echt is of niet?” Dat vraagt technoloog Aviv Ovadya zich hardop af. De onderzoeker schetst in een gesprek met BuzzFeed News een grimmig beeld van de toekomst, met ‘dank’ aan de technologische vooruitgang. Een toekomst waarin de lijnen tussen feit en fictie op ongeëvenaarde wijze zullen vervagen.

In 2016 realiseerde Aviv Ovadya zich dat er iets fundamenteel fout aan de hand was met het internet – zo fout dat hij besloot zijn leven te wijden aan het luiden van de alarmbel. Met lede ogen zag hij aan hoe het web een ongezond kluwen was geworden waarbij misleidende en polariserende info op de grootste internetplatforms werd beloond in plaats van tegengehouden. Een wereld waarin grote spelers als Facebook, Twitter en Google prioriteit gaven aan clicks, shares, reclame en geld boven kwalitatieve informatie. “Ik had het gevoel dat we in een rondslingerende auto zaten”, vertelt Ovadya aan BuzzFeed. “En het was niet dat iedereen in die auto zei ‘het komt wel goed’. Ze zagen de auto zelfs niet.”

Pas maanden later gingen de ogen open bij wetgevers, journalisten en ook Big Tech CEO’s : onze platformen en onze algoritmisch geoptimaliseerde wereld is kwetsbaar. Kwetsbaar voor propaganda, toxische desinformatie en donkere reclame van buitenlandse overheden. In die mate dat het een hoeksteen van het menselijk discours dreigt te ondermijnen: de geloofwaardigheid van feiten. Volgens Ovadya, momenteel onder meer hoofdtechnoloog aan het Center for Social Media Responsibility aan de Universiteit van Michigan, is wat komt in het verlengde van de op gang getrokken teneur nog beangstigender. Hij voorspelt dat de niet zo verre toekomst één wordt van het inmiddels vertrouwde monster van fake news, dat op ongeziene wijze verder wordt gevoed door de vele baanbrekende technologische hoogstandjes die het licht zien.

Feit en fictie

“We zijn genaaid", zegt hij. "Harder dan de meesten van ons zich nog maar kunnen voorstellen. Anderhalf jaar geleden waren we al stevig genaaid en nu zijn we nog meer genaaid. Hoe verder in de toekomst je kijkt, hoe erger het wordt.” Andere tech-experten gooien alvast lustig met mogelijke termen om het probleem te benoemen, met 'realiteit-apathie' en 'menselijke poppen' als opvallende voorbeelden uit het dystopische gamma. 

“We zijn genaaid. Anderhalf jaar geleden waren we al stevig genaaid en nu zijn we nog meer genaaid. Hoe verder in de toekomst je kijkt, hoe erger het wordt

Samen met andere onderzoekers en academici kijkt Ovadya ongerust vooruit. Want de initiële shock en de voortdurende ongerustheid over Russische Facebookadvertenties en Twitterbots verbleekt in vergelijking met de grotere bedreiging: technologieën die de realiteit kunnen verdraaien, en die sneller evolueren dan dat ze gecontroleerd of beperkt kunnen worden. 

Zijn inziens zijn de immer uitbreidende computervaardigheden, de vooruitgang in artificial intelligence, machine learning en augmented reality erger. Zij vervagen de lijnen tussen feit en fictie zodanig dat “iedereen kan doen lijken alsof wat dan ook gebeurd is, of het nu echt is of niet”. En net zoals de desinformatiecampagnes aanvankelijk niet bedreigend leken – tot we realiseerden dat het eigenlijk al aan het gebeuren was – zijn we volgens hem dichter dan we denken bij een potentiële 'Informatie Apocalyps' of ‘Infocalyps’.

AI-porno

De MIT- gediplomeerde ziet hoe beschikbare tools voor audio en video nu al in staat zijn tot ongelofelijke manipulaties. Getuige de machine learning algoritmes en open-source software die vandaag in de duistere hoekjes van het internet worden ingezet om heel simpel pornografische video’s te creëren waarbij gezichten van celebrities – of wie dan ook – op de lichamen van de pornoacteurs worden gezet: 'AI-porno' of 'Deepfake Porno'.

4 Bekende sterren als Taylor Swift, alsook onder meer Emma Watson en Scarlett Johansson, duiken tegenwoordig op in valse pornofilmpjes.
EPA Bekende sterren als Taylor Swift, alsook onder meer Emma Watson en Scarlett Johansson, duiken tegenwoordig op in valse pornofilmpjes.

In instituten zoals Stanford hebben techneuten dan weer programma’s geschreven die beeldmateriaal kunnen manipuleren en mixen met real-time gezichtsherkenning. Aan de Universiteit van Washington slaagden computerwetenschappers erin om een programma te bouwen waarmee audiofragmenten succesvol in realistische lip-gesynchroniseerde video’s kunnen veranderen. Met als gevolg dat de teams video’s van wereldleiders zo konden manipuleren dat ze de kopstukken dingen konden laten zeggen die zij in werkelijkheid nooit hebben gezegd.

Chipmaker Nvidia kan nu al overtuigend hyperrealistische foto’s van objecten, mensen en landschappen genereren door tienduizenden beelden uit te pluizen. Ook Adobe is bezig met twee opvallende projecten, Voco – een Photoshop voor audio, en Cloak – een tool die naadloos objecten en zelfs mensen uit video kan wissen in slechts enkele klikken.

4 Project Cloak van Adobe. Twee mensen worden simpelweg uit een video verwijderd.
Adobe Creative Cloud Project Cloak van Adobe. Twee mensen worden simpelweg uit een video verwijderd.

Oorlogsverklaringen

Daarnaast is er ook nog ‘geautomatiseerde laser phishing’, waarbij artificial intelligence bijvoorbeeld onze aanwezigheid op sociale media scant en valse, maar wel degelijk geloofwaardige berichten van mensen die we kennen in elkaar kan knutselen. En dit: gedaan met verwarrende en verdachte links (en dus doorzichtige pogingen tot oplichting) waar u van de phisher op moet klikken, maar wel een gepersonaliseerd bericht met context – misschien zelfs een e-mail van die ene vriend waar u ook echt op aan het wachten was. 

Het moet niet perfect zijn. Gewoon goed genoeg

En wat met ‘diplomatiemanipulatie’, waarbij kwaadwilligen geavanceerde technologie kunnen inzetten om te doen geloven dat een event echt heeft plaatsgevonden. Beeld u maar eens in, een machine learning algoritme (dat een arsenaal aan data analyseert om zichzelf een bepaalde functie aan te leren) dat zich voedt met uren en uren aan beeldmateriaal van de Amerikaanse president Donald Trump en de Noord-Koreaanse dictator Kim Jong-un. Dan kan u een bijna perfecte – en virtueel onmogelijk van de realiteit te onderscheiden – video of audioclip krijgen waarin een leider een nucleaire oorlog verklaart. “Het moet niet perfect zijn”, aldus Ovadya. “Gewoon goed genoeg om de vijand te laten denken dat er iets is gebeurd zodat het een roekeloze reactie of vergelding uitlokt.”

4
AP

Frustratie

“Omdat het zo gemakkelijk is om valse dingen te creëren, zullen we ons overweldigd voelen.” Tja, letterlijk niets of niemand kan u nog vertrouwen. Frustrerend. En het is daar waar die term ‘realiteit-apathie’ opduikt. Dan beginnen mensen het gewoon op te geven. “Met als uitkomst dat ze geen aandacht meer zullen besteden aan informatie en dat fundamentele levels van geïnformeerd zijn nodig voor democratie onstabiel worden", klinkt het. De vrees voor ‘menselijke poppen’ gaat verder en ziet een toekomst vol makkelijk manipuleerbare burgers.

Nee; de oplichting, deceptie en verwarring die Ovadya voorspelt, is niet nieuw. Het is gewoon gesofisticeerder en nog moeilijker om te detecteren. En het werkt in tandem met technologische krachten die onbekend en onvoorspelbaar zijn. Hallo, erosie van authenticiteit en vertrouwen.

Hoop

U herinnert zich ongetwijfeld ook nog dat Mark Zuckerberg het eigenlijk nog niet zo heel lang geleden als "zot" afdeed dat fake news op zijn Facebook een cruciale rol speelde in de Amerikaanse presidentsverkiezingen. Voor onderzoekers als Ovadya is de eerste grote stap nu om het grote publiek, de wetgevers, technologen en techbedrijven te informeren en te overtuigen dat een realiteitsverstorende 'Infocalyps' niet alleen mogelijk is, maar binnen handbereik.

Ovadya ziet een lichtpunt in het pessimistische verhaal. Eindelijk is er interesse. Zij die eerder traag waren om bedreigingen en gevaren serieus te nemen, worden wakker. "In het begin zag het er niet goed uit - weinigen luisterden. Maar de laatste maanden zijn veelbelovend", aldus de technoloog. Zo beginnen de eerste checks and balances op hun plaats te vallen en worden er ook oplossingen gecreëerd - denk maar aan cryptografische verificatie van beelden en geluid - wat kan helpen in het maken van een onderscheid tussen gemanipuleerde rommel en realiteit.

26 reacties

Je naam en voornaam verschijnen bij je reactie
Door het plaatsten van een reactie, ga je akkoord met de gedragsregels
  • Diane Bernaerts

    Correctie, Johan: het ‘fake news’ fenomeen is niet uitgevonden door de msm, maar door Trump en zijn entourage. Toeval dat pas sinds de verkiezing van Trump de term "fake news" ons om de oren vliegt telkens dat nieuws niet pro-Trump is?

  • Pieter De Koninck

    Ik geloof enkel nog wat ik met mijn eigen ogen zie, en dan nog...