Van foto’s weten we al jaren dat er hier en daar gesjoemeld
wordt met beelden. Daarom denken wel wel twee keer na voordat we een bizarre foto geloven.
Maar als het om video gaat, dan trekken we dat veel minder vaak in twijfel. Maar
ook daar kan worden gemanipuleerd, namelijk door middel van deepfake.
Volgens nepnieuwsexpert Ruurd Oosterwoud komt dat omdat video
veel meer tot de verbeelding spreekt dan foto. ‘Photoshop is al heel oud en dat
vinden we helemaal niet meer gek’, zegt hij in Na het Nieuws. In het afgelopen
jaar is het aantal deepfake-video’s op internet verdubbeld. Maar dat betekent
niet dat iedereen die video’s zou kunnen maken. Het is namelijk nog best
lastig. ‘Het is niet 1-2-3 te doen. Het kost best veel tijd, energie en computerrekenkracht
om die dingen te maken. En daarbij moet de data die je erin stopt al heel
specifiek zijn.’
Complex
Deepfake werkt namelijk aan de hand van heel veel data. Je moet dus allerlei video’s en foto’s in de computer stoppen. Aan de hand van deze data leert het systeem dan gezichten en gezichtsuitdrukkingen te herkennen, oftewel smart learning. Wil je een specifiek persoon in een video iets laten zeggen, dan moet de computer over heel veel data van die ene persoon beschikken om een geloofwaardige video af te leveren. ‘Het is heel complex om het goed te doen. Je kan de computer het zelf laten uitrekenen, maar dat het kwalitatief zo goed is dat het ook geloofwaardig is, dat vraag ik me af.’
Mimiek
Op dit moment zijn de deepfakes in de meeste gevallen nog vrij
gemakkelijk te herkennen. De fake richt zich namelijk alleen op het gezicht. Daarom
is er op het hoofd vaak een overgang zichtbaar van het ene hoofd naar het
andere hoofd. ‘Mimiek is ook heel belangrijk. De mimiek van de ene persoon is natuurlijk
heel anders dan van de persoon die hij of zij probeert te imiteren. Daarin kun je
verschillen ontdekken.’
Leger van nepgezichten
Beeld: gezichten van niet bestaande mensen, samengesteld door de computer
Computers kunnen namelijk aan de hand van alle data ook nieuwe gezichten ontwikkelen, van niet bestaande mensen. Gezichten met karakteristieken die de computer heeft geleerd van foto’s met gezichten van bestaande mensen. ‘Dan kan je nooit checken wie die persoon daarachter was. Er gaan geen alarmbellen af. Als je honderd mensen hetzelfde kan laten zeggen over een actuele gebeurtenis, dan kan dat invloed hebben.’
Manipuleren
Op dit moment zijn deepfake-video’s nog niet zo gevaarlijk,
volgens Oosterwoud. Maar in de toekomst kan het een grotere rol gaan spelen. ‘We
moeten er naartoe dat we er niet van uitgaan dat iets klopt alleen omdat het video
is. We weten dat tekst en beeld te manipuleren zijn, en dat moeten we in de toekomst
ook in ons achterhoofd houden voor video.’
Meld je snel en gratis aan voor de BNNVARA nieuwsbrief!