Kunstmatige Intelligentie en de komst van Deepfake-technologie
Big Data heeft vele toepassingen op zo ongeveer alle denkbare gebieden, bijvoorbeeld als voeding voor Kunstmatige Intelligentie (Artificial Intelligence). Zoals altijd met innovatie brengt Artificial Intelligence behalve vele voordelen ook gevaren met zich mee. In tijden waar fake news en sociale media het alledaagse leven domineren, kan het verschijnsel van ‘Deep Fake’ ervoor zorgen dat online consumptie er veiligheidsrisico’s bij krijgt.
Wat is Artificial Intelligence?
Kunstmatige Intelligentie, ook wel AI of Artificial Intelligence genoemd, is kort gezegd een techniek waarbij een systeem zelfstandig data verwerkt, om te leren hoe het beter specifieke taken kan volbrengen. Het gaat hierbij dus in wezen om een ‘slim’ computersysteem: vandaar de benaming Kunstmatige Intelligentie.
Met behulp van gigantische datasets en complexe algoritmen kan men dus een programma maken wat zichzelf aanstuurt en verbetert. Je kunt je voorstellen hoe nuttig dit kan zijn. Een voor de hand liggend voorbeeld is de spraakgestuurde software die in bijna iedereens smartphone zit, zoals SIRI. Met Artificial Intelligence kan ook ongewenst gedrag op social media tegen worden gegaan, of het wordt ingezet voor medische doeleinden (denk aan operaties die door robots worden uitgevoerd), of binnen lesprogramma’s: de reikwijdte van Artificial Intelligence-technologie is immens. Meer over Kunstmatige Intelligentie kun je lezen in een ander blog van Tridata.
Deep Learning in een notendop
Een typische Artificial Intelligence techniek is deep learning. Om dit toe te lichten gebruiken we graag het voorbeeld van beeldherkenning. Smartphones hebben tegenwoordig een artificial intelligence-feature die je vertelt van welk voorwerp je een foto van maakt. Richt bijvoorbeeld je camera op een hond, en via een speciale app krijg je te lezen dat het een hond is. Maar hoe kun je een programma zo instellen dat het dat ‘weet’? Ga je alle mogelijke uiterlijke kenmerken van een hond coderen? Met alle variëteiten aan viervoeters die er rondlopen lijkt dat een haast onmogelijke klus. Daarom wordt een dergelijk programma vaak ‘andersom’ ingesteld: grote hoeveelheden reeds bestaande afbeeldingen van honden, groot en klein, wit en zwart, dik en dun, worden aan het programma ‘gevoerd’. Deep learning treedt nu in werking: door middel van blootstelling aan alle soorten honden die er bestaan, leert het programma nu zelf wat een hond zou moeten voorstellen. Als het hier na duizenden foto’s een representatief ‘beeld’ van heeft opgebouwd, werkt de Artificial Intelligence zo dat als er een nieuwe foto wordt gepresenteerd, de software kan beoordelen of dit beeld binnen de representatie van ‘hond’ valt of erbuiten. Grof gezegd is dat hoe de beeldherkenning-feature op je smartphone werkt.
Zoals je op deze manier een computer kunt leren wat een hond is, zo kun je dat ook doen met katten. Of met auto’s, liedjes, schoenen, en zelfs met personen. Een manier waarop dit laatste voorbeeld wordt ingezet is gezichtsherkenningssoftware, wat erg nuttig is. Echter neemt gezichtsherkenning (en dus ook mogelijkheid tot gezichtsimitatie) ook andere mogelijkheden met zich mee. Hiermee komen we tot het onderwerp van deep fake.
Deep learning in actie: DeepFake
Afgelopen jaren is deepfake een hevig bediscussieerd onderwerp binnen Artificial Intelligence kringen geworden, maar ook steeds meer daarbuiten. Hoewel een grote ‘doorbraak’ nog uitblijft is het fenomeen wel bekend, samen met de gevaren en kansen die het met zich meebrengt.
Deepfake is een samentrekking van Deep Learning en fake. Dit is hoe het werkt:
Stel dat je aan zelflerende Artificial Intelligence software 10.000 foto’s van het gezicht van een persoon A ‘voert’. Wat er net zoals met de hond gebeurt, is dat er via deep learning een representatie wordt gebouwd van alle varianten van het gezicht van deze persoon. Dus vanuit meerdere invalshoeken, in allerlei soorten emoties, zowel sprekend als luisterend, noem maar op: er wordt een virtuele kopie van het gezicht gecreëerd aan de hand van bepaalde herkenningspunten. De software van bijvoorbeeld FakeApp, een mobiele app waarmee je deep fake video’s kunt maken, gebruikt bijvoorbeeld steeds dezelfde 64 vaste punten in een foto van iemands gezicht. Artifical Intelligence-programma’s hebben laten zien dat ze zo een vrij ‘complete’ representatie van het gezicht van één persoon kunnen opbouwen. In werkelijkheid is dit natuurlijk een gigantische dataset die van elke ingevoerde foto alle herkenningspunten heeft omgezet in data. Het resultaat is een virtueel gezicht, bijvoorbeeld van een bekende politicus.
Deep fake gaat vervolgens nog een stapje verder. Stel, je hebt een filmpje van een persoon A, de politicus uit de vorige alinea, die in de camera kijkt tijdens een speech. Daarnaast beschikt de software over een virtuele representatie van het gezicht van persoon A. Als je nu persoon B iets laat zeggen in een apart filmpje, waarbij speciale camera’s zijn/haar herkenningspunten in het gezicht ‘meet’, dan kun je met deep fake software ervoor zorgen dat persoon A precies dezelfde gezichtsbewegingen en -uitdrukkingen heeft als persoon B, terwijl A zijn eigen fysieke gezichtskenmerken behoudt. Als je dan ook nog het geluid kopieert, kan het met geavanceerde software net lijken alsof persoon A datgene zegt wat eigenlijk door persoon B is gezegd. Zelfs de gezichtsuitdrukkingen en mondbewegingen komen exact overeen!
Waar is deep fake toe in staat?
Deep fake is interessante en ‘grappige’ technologie, die leuke en spannende toepassingen kan hebben. Maar wat nou als de situatie uit de vorige alinea wordt gebruikt om filmpjes te maken waarin politici vreselijke dingen lijken te zeggen? Dingen die ze in werkelijkheid nooit gezegd hebben, maar omdat het hún gezicht is dat levensecht lijkt te spreken in het filmpje, kan dat hele moeilijke situaties opleveren. Of denk aan een situatie waarbij het gezicht van een onschuldige man door kwaadwillenden in een Opsporing Verzocht-clip is verwerkt in het gelaat van een verdachte. Of een lid van het koninklijk huis dat opeens in een intiem filmpje beland lijkt te zijn?
De technologie die momenteel ophanden is op het vlak van deep fake is nog niet zó geavanceerd dat iedereen overtuigende nepfilmpjes kan maken, maar de verwachting is dat dit binnen een paar jaar kan veranderen. Daarbovenop leert de ervaring die we afgelopen jaren hebben opgedaan met fake news dat men is in hoge mate bereid is om te geloven wat hen online voorgeschoteld wordt, vooral als dit overeenkomt met een reeds bestaand wereldbeeld. De gevaarlijke combinatie van deze twee feiten maakt dat tech-giganten en focusgroepen intussen hard aan het werken zijn om deep fake video’s te kunnen filteren met ‘anti’-software. De basis van dit soort software? Juist: Kunstmatige Intelligentie.
Bekijk de Deep Fake video & audio gemaakt door de journalisten van Bloomberg
Door Lex Pruijn
De inhoud van deze website (afbeeldingen, teksten en informatie) is beschermd door auteursrechten en mag zonder toestemming niet worden gekopieerd.
Meer blogs
De 10 beste data science blogs
Kunstmatige Intelligentie: kunnen slimme apparaten de mens overbodig maken?