Deepfakevideo’s herkennen: hoe doet u dat? Let op deze 5 dingen
Kunstmatige intelligentie (AI) maakt heel veel mogelijk. Ook het maken van levensechte foto’s en video’s. Maar hoe komt u erachter of een video echt is, of gemaakt met kunstmatige intelligentie of wel deepfake is?
Sociale media staat vol met filmpjes
Op sociale media zijn veel filmpjes te vinden. Denk aan grappige kattenvideo’s, maar er zijn ook veel clips te vinden waarin beroemde mensen en politici aan het woord zijn. Tegenwoordig is het alleen niet zo gemakkelijk om direct te zien of een video echt is, of dat deze is gemaakt met kunstmatige intelligentie (AI). En dat kan misleidend zijn en u op het verkeerde been zetten. Waar moet u op letten om te achterhalen of een video betrouwbaar is, of dat u te maken heeft met een deepfakevideo?
Wat zijn deepfakes?
Om te beginnen is het goed om te weten wat deepfakes nu eigenlijk precies zijn. Dat zijn beelden, video’s en audio-bewerkingen die (deels) met kunstmatige intelligente zijn gemaakt. Maar hoe werkt dit precies? Ten eerste worden beelden geanalyseerd. Vervolgens wordt er specifiek gekeken naar belichting, kleur schaduwen, beweging, opbouw van de huid en mimiek. Al deze gegevens gebruikt kunstmatige intelligentie uiteindelijk om bijvoorbeeld een gezicht en bewegingen na te maken. Soms worden bepaalde beelden gedupliceerd, terwijl er een ander beeld (bijvoorbeeld het gezicht van een persoon) overheen wordt geplakt. Dit proces vindt plaats in enkele seconden en deze techniek wordt steeds toegankelijker voor een groot publiek. Het is daarom belangrijk om te kunnen herkennen of beeldmateriaal echt is of niet.
Vingers en tenen tellen
Om meteen met de deur in huis te vallen: waar u regelmatig aan kunt zien of een video (deels) is gemaakt met kunstmatige intelligentie, zijn de handen en voeten van personen in de video. Kunstmatige intelligentie vindt het namelijk nog vrij lastig om deze goed te programmeren, mede omdat hier minder (kwalitatief) beeldmateriaal van te vinden is. Bovendien heeft het systeem geen anatomische kennis. Daarom zijn in deepfakevideo’s vaak mensen te zien met te veel, of te weinig, tenen of vingers.
Uitdrukkingen
Gezichten in deepfakes zijn inmiddels heel lastig te onderscheiden van echte. Hier is immers ook veel materiaal over te vinden. Toch zijn er soms tekenen die verraden dat een beeld nep is. Zo kloppen de gezichtsuitdrukkingen nog niet altijd en kan het voorkomen dat bijvoorbeeld rimpels niet meebewegen wanneer iemand huilt of lacht.
Accessoires
Draagt iemand een bril of bijvoorbeeld oorbellen? Let ook dan goed op, want hier heeft kunstmatige intelligentie wederom nog vaak moeite mee. Zo kunnen de brillenpootjes zweven boven het oor, of is de oorbel verkeerd geplaatst. Kijk dus kritisch.
Schaduwen en lichtinval
Theo Gevers, hoogleraar aan de Universiteit van Amsterdam en onderzoeker van deepfakevideo’s en -foto’s, vertelt aan de Volkskrant dat AI de natuurwetten niet begrijpt. Hierdoor kloppen volgens hem de lichtinval, schaduwen en bewegingen van bijvoorbeeld water (nog) vaak niet. Ook zwaartekracht is iets wat het systeem niet begrijpt en iets wat hard is, kan ineens vloeibaar worden, of andersom.
Let op de mond en stem
Wanneer iemand praat in de video, let dan goed op de mond. Kloppen de bewegingen met de woorden die u hoort? Bij deepfakevideo’s komt dit niet altijd overeen en kunt u zo achterhalen of de video bewerkt is. En kunstmatige intelligentie heeft soms nog moeite met emotie en intonatie door laten klinken in een stem. Ook door hierop te letten zou u te weten kunnen komen of een filmpje echt is of niet.
Wees kritisch
Bij sommige video’s is het overduidelijk dat deze nep zijn en gemaakt door kunstmatige intelligentie. Maar in de toekomst zal het hoogstwaarschijnlijk steeds lastiger worden om echte en gecreëerde beelden van elkaar te onderscheiden. Wees u daarom bewust van het feit dat er veel bewerkt beeldmateriaal rondslingert op sociale media en het internet en blijf kritisch. Ziet u iets waar u twijfels over heeft? Bekijk dan of betrouwbare mediabronnen hier iets over vermelden. Is dit niet het geval? Wees dan alert en trek geen overhaaste conclusies.
Ook stemmen steeds realistischer nagemaakt
Deepfake gaat verder dan alleen beelden en kan dus eveneens audio bevatten. Van deze technologie wordt helaas ook al misbruik van gemaakt, doordat kwaadwillenden stemmen klonen om hier vervolgens mensen mee af te persen. Hoe dit in zijn werk gaat en hoe u uzelf hiertegen kunt weren, leggen we in onderstaand artikel uit.
Nieuwe oplichtingsmethode in opkomst met AI: pas op met hulptelefoontjes
(Bron: de Volkskrant, EenVandaag, Online Veilig, Business Insider, MAX Vandaag. Foto: Shutterstock)
Geef een reactie
U moet inloggen om een reactie te kunnen plaatsen.
De telefoon NIET OPNEMEN als er geen naam staat .het telefoon nummer blokkeren in uw telefoon.📱