Pionier digitale trucage waarschuwt voor misbruik

Foreign Policy / 360  | 24 November 2019 - 10:0024 Nov - 10:00

Hao Li maakte naam in Hollywood met zijn revolutionaire deepfake-technieken. Maar nu realistische nepfilmpjes steeds makkelijker te maken zijn en soms nauwelijks meer van echt zijn te onderscheiden, waarschuwt de pionier voor de gevolgen.

» Lees dit artikel in de Reader

Afgelopen juni in Dalian, een stad op een Chinees schiereiland in de Gele Zee, halverwege tussen Beijing en het Noord-Koreaanse Pyongyang. In een donker gebouw, een blokkendoos die dienst zou kunnen doen als het hoofdkwartier van de schurk in een Bondfilm, staat Hao Li. Buiten is het drukkend heet en gelden strenge beveiligingsmaatregelen. De jaarlijkse bijeenkomst van het World Economic Forum vindt plaats in Dalian.

Politici en topbestuurders uit de hele wereld stappen bij Li in een cabine. Lachend zien ze daar hun eigen gezicht veranderen in dat van beroemdheden als Bruce Lee, Neil Armstrong of Audrey Hepburn. Allemaal live en bijna zonder hapering.

Li’s gezichtsverwisselaar staat hier niet alleen om de machtigen der aarde te vermaken. Hij wil ze ook aan het denken zetten over de mogelijke gevolgen voor hen – en voor ons allemaal – van filmpjes die bewerkt zijn met kunstmatige intelligentie, zogenaamde deepfakes.

MOGEN WE EVEN JE AANDACHT?
Dit artikel krijg je van 360 cadeau. We geloven dat internationale context leidt tot een beter begrip van de wereld om ons heen. Daarom zijn we blij als je dit artikel voor ons deelt. Nog blijer zijn we als je je bij ons aansluit: Probeer nu 5 nummers voor maar 15 euro. Duurt een paar minuten, stopt automatisch.
Bedankt

Desinformatie is in de wereld van de geopolitiek al heel lang een veelgebruikt manipulatiemiddel, maar de sociale media hebben de verspreiding ervan een ongekende boost gegeven. En als nepfilmpjes straks net zo gemakkelijk te maken zijn als nepnieuwsberichten, kun je er vergif op innemen dat ook dit middel als wapen zal worden ingezet. Wil je verkiezingen beïnvloeden, het imago en de carrière van een vijand ondermijnen of etnisch geweld aanzwengelen?

Weinig middelen zijn effectiever dan een bedrieglijk echt filmpje dat als een lopend vuurtje over Facebook, WhatsApp of Twitter gaat – en zich sneller verspreidt dan het besef dat de kijker in de luren wordt gelegd.

Pionier

Li is een pionier op het gebied van digitale trucage, maar hij is bang dat de nepfilmpjes die we nu kennen nog maar het begin zijn. Het is mede aan hem te danken dat we niet meer altijd op onze ogen kunnen vertrouwen, maar hij wil zijn expertise nu ook inzetten tegen de gevaren van laagdrempelige en welhaast volmaakte videotrucage. De vraag is alleen of het daarvoor niet te laat is.

Li is geen typische ‘deepfaker’. Hij is niet zo iemand die filmpjes op Reddit [een populair discussieforum] plaatst waarin het gezicht van een Hollywoodster op het lijf van een pornoster is gemonteerd, of beroemde filmscènes waaraan het gezicht van Nicolas Cage is toegevoegd. Zijn hele werkzame leven houdt hij zich al bezig met het verbeteren van de digitale manipulatie van gezichten. Hij sleutelde aan de gezichten van beroemde sterren in grote kaskrakers, liet miljoenen filmkijkers geloven in een glimlach of een knipoog die in werkelijkheid nooit had plaatsgevonden. Als hij op een middag vanaf zijn werkplek in Los Angeles met ons zit te skypen, vertelt hij tussen neus en lippen door dat Will Smith laatst langskwam, voor een film waar hij aan werkt.

Ik kan zelf al niet meer zeggen welke scènes nep zijn

In zijn lab op de University of Southern California komen vaak acteurs langs om hun gezicht te laten inscannen. Ze zitten dan in een bolvormige stellage van lampen en speciale scanners die de vorm van hun hoofd vastleggen, inclusief gelaatsuitdrukkingen en de teint en structuur van hun huid, tot op de porie nauwkeurig. Makers van special effects kunnen daarmee bestaande opnamen bewerken en zelfs na afloop nog acteurs aan een scène toevoegen.

Bij prestigieuze films is dergelijk digitaal bedrog inmiddels gemeengoed. Achtergronden worden vaak digitaal ingevuld en het is gebruikelijk om in actiescènes het gezicht van de hoofdrolspeler over dat van de stuntman te plakken. Dat heeft al enkele adembenemende filmmomenten opgeleverd, zoals aan het eind van de Star Wars-film Rogue One, waarin een piepjonge prinses Leia haar opwachting maakt, gespeeld door een al bijna zestigjarige Carrie Fisher.

Het vergt normaal gesproken heel wat expertise en bakken met geld om te zorgen dat zulke effecten overtuigend ogen. Maar dankzij de vooruitgang in kunstmatige intelligentie wordt het onderhand een peulenschil om gezichten te vervangen: veel meer dan een laptop is er niet voor nodig. Met een beetje extra kennis kun je een politicus of een persoonlijke vijand in een filmpje laten doen wat je wil.

Li’s persoonlijke uitstraling is meer cyberpunk dan Hollywood. Hij heeft een soort hanenkam die aan één kant over zijn opgeschoren hoofd valt en gaat vaak gekleed in een zwart T-shirt en een leren jasje. Onder het spreken knippert hij af en toe met zijn ogen op een wijze die lange nachten bij de warme gloed van een computerscherm verraadt. Hij doet niet bescheiden over het vernuft van zijn technische oplossingen en wat hij nog allemaal in petto heeft. Onder het praten pakt hij vaak zijn smartphone erbij om iets nieuws te laten zien.

Li groeide als kind van Taiwanese immigranten op in Saarbrücken. Hij zat op een Frans-Duitse middelbare school, zodat hij nu vier talen spreekt (Frans, Duits, Engels en Mandarijn). Hij weet nog precies wanneer hij besloot zijn leven te wijden aan de vervaging van de grens tussen werkelijkheid en verbeelding: in 1993, toen in Spielbergs Jurassic Park een enorme dinosaurus het beeld in banjerde. Terwijl de personages zich aan dat monster vergaapten, besefte de twaalfjarige Li ineens wat de technologie allemaal mogelijk maakte. ‘Ik besefte dat je nu in wezen alles in beeld kon brengen, zelfs dingen die helemaal niet bestaan,’ zegt hij.

Hij promoveerde in Zwitserland aan de prestigieuze technische universiteit ETH Zürich. Een van zijn begeleiders noemt hem een briljante student én een onverbeterlijke grappenmaker. De filmpjes bij zijn wetenschappelijke artikelen bevatten soms weinig flatteuze karikaturen van zijn docenten.

Kort na zijn aantreden aan de University of Southern California ontwikkelde Li de face tracking-technologie waarmee een digitale versie van acteur Paul Walker kon worden gemaakt voor de actiefilm Fast & Furious 7. Een hele prestatie, want Walker was tijdens de draaiperiode omgekomen bij een auto-ongeluk, zijn gezicht was niet vooraf ingescand en hij zat in een groot aantal scènes. Met behulp van Li’s technologie werd Walkers gezicht op het lichaam van zijn twee broers geplakt, die in meer dan tweehonderd scènes beurtelings zijn rol overnamen. Deze film, die in 2015 uitkwam en 1,5 miljard dollar in het laatje bracht, was de eerste die zo zwaar leunde op een digitaal nagebootste acteur. Li haalt Walkers rol aan als voorbeeld van de kwaliteit van de huidige beeldtrucage: ‘Ik kan zelf al niet meer zeggen welke scènes nep zijn,’ zegt hij hoofdschuddend.

Masker

In 2009, krap tien jaar voordat de eerste deepfakefilmpjes op internet verschenen, ontwikkelde Li al een manier om live met je gezicht een virtuele pop aan te sturen. Met de nieuwste dieptesensoren en nieuwe software om gelaatsuitdrukkingen in kaart te brengen creëerde hij een masker van plooibare virtuele stof. Een belangrijke verbetering was dat hij daarvoor geen markeringen op een gezicht hoefde aan te brengen, wat toen nog de standaardmethode was om gezichtsbewegingen te volgen.

Li werkte mee aan de ontwikkeling van het door ETH Zürich opgezette Faceshift, een bedrijfje dat in 2015 werd gekocht door Apple. De technologie van Faceshift is verwerkt in de Animoji-software op de nieuwste iPhone, waarmee je je hoofd kunt omtoveren tot de kop van een eenhoorn of een pratende drol.

Li heeft met zijn studenten tientallen papers gepubliceerd, onder meer over avatars die complete lichaamsbewegingen nabootsen, hyperrealistisch virtueel haar en virtuele huid die op dezelfde manier plooit als echte huid. De laatste jaren maakt zijn onderzoeksgroep gebruik van de nieuwste ontwikkelingen in machine learning, en dan vooral deep learning, waarbij computers worden getraind via kunstmatige neurale netwerken. Zijn bevindingen worden ook toegepast in de geneeskunde, om het verloop van inwendige tumoren te volgen en de eigenschappen van bot en weefsel te simuleren.

Li verdeelt zijn tijd nu tussen lesgeven, advies geven aan filmstudio’s en het opzetten van zijn nieuwe start-up Pinscreen. Dat bedrijf maakt virtuele avatars op basis van verfijndere algoritmen dan die waarmee deepfakefilmpjes op internet worden gemaakt. Op basis van één enkele foto kan de app van Pinscreen in luttele seconden een fotorealistische 3D-avatar maken. Daarbij wordt gebruikgemaakt van slimme algoritmen die zijn getraind aan de hand van duizenden foto’s met een bijbehorende 3D-scan: zo leert het algoritme een 3D-model te extrapoleren van een foto.

Dat proces wordt verder verfijnd met zogenaamde generatieve netwerken (die bij de meeste deepfakes nog niet worden gebruikt). Daarbij doen algoritmen een soort wedstrijdje met elkaar: het ene algoritme genereert een beeld en het andere moet beoordelen of dat nep of echt is, zodat de nepbeelden steeds realistischer worden. Je kunt je Pinscreen-avatar malle dansjes laten doen, verschillende outfits aantrekken of – aangestuurd door je eigen gezicht – gekke bekken laten trekken.

Pinscreen werkt samen met een paar grote modeketens. Zij willen klanten hiermee de mogelijkheid bieden kleren te passen zonder daarvoor naar de winkel te hoeven. De techniek kan ook een grote stap vooruit betekenen voor videoconferenties, virtualrealitytoepassingen en games. Stel je voor dat je Fortnite-avatar niet alleen qua uiterlijk op jou lijkt, maar zelfs in de manier waarop hij lacht en danst.

Een beetje vreemd

Maar onder de digitale gimmicks schuilt een belangrijke trend: dankzij kunstmatige intelligentie verhuist geavanceerde beeldmanipulatie van de computer naar de smartphone. Het door een bedrijf in Sint-Petersburg ontwikkelde FaceApp verwierf miljoenen gebruikers – en veroorzaakte enige ophef – met zijn simpele methode voor het retoucheren van foto’s op je telefoon. Je kunt een glimlach toevoegen, schoonheidsfoutjes wegwerken en je gezicht (of dat van een ander) ouder of jonger maken of van geslacht laten veranderen. En er zijn nog tientallen andere apps waarmee je foto’s in een handomdraai kunt retoucheren.

Niet iedereen is blij met de laagdrempeligheid van deze technologie. Li en anderen ‘proberen in feite op basis van één enkele foto realtime mobiele nepfilmpjes te maken’, zegt Sam Gregory, directeur van Witness, een non-profitorganisatie die beeldmateriaal gebruikt om mensenrechtenschendingen te documenteren. ‘Dat baart mij zorgen: dat het iets wordt waarop je geen vat meer hebt, iets waarvan allerlei partijen gebruik kunnen maken.’

Gelukkig zien de meeste nepfilmpjes er nog steeds een beetje vreemd uit. Er is altijd wel iets in het gezicht, de oogopslag of de teint waaraan je kunt zien dat het nep is. Maar een expert kan zulke onvolkomenheden handmatig retoucheren, en het lijkt erop dat kunstmatige intelligentie het in de toekomst automatisch kan corrigeren. Dan worden nepfilmpjes niet alleen makkelijker te maken, maar ook moeilijker te ontmaskeren. En Li mag dan bijdragen aan de snelle ontwikkeling van dit digitale bedrog, hij maakt zich ook zorgen over de mogelijke schade die die veroorzaakt. ‘We staan voor een probleem,’ zegt hij.

“Algoritmen doen een wedstrijdje: het ene genereert een beeld en het andere moet beoordelen of dat nep of echt is”

Beleidsmakers in de VS zijn vooral bezorgd dat nepfilmpjes kunnen worden gebruikt om bij de presidentsverkiezingen volgend jaar nog verraderlijker nepnieuws en desinformatie te verspreiden. Begin augustus vroeg het House Intelligence Committee aan Facebook, Google en Twitter wat zij tegen het gevaar van deepfakes gaan doen. Ze zeiden er allemaal mee bezig te zijn, maar kwamen geen van allen met een oplossing.

Ook DARPA, het goed gefinancierde onderzoeksbureau van de Amerikaanse krijgsmacht, maakt zich zorgen over de opkomst van digitale beeldmanipulatie. Al in 2016 lanceerde DARPA het MediFor-programma (een afkorting van Media Forensics), waarmee het experts in digitale opsporingstechnieken wil stimuleren om geautomatiseerde tools voor de herkenning van beeldbewerking te ontwikkelen. Een menselijke expert kan beeldmanipulaties herkennen aan allerlei zaken, variërend van discrepanties in de bestandsgegevens en de kenmerken van specifieke pixels tot fysieke tegenstrijdigheden, zoals een onmogelijke schaduw of een onwaarschijnlijke hoek.

MediFor richt zich nu vooral op het herkennen van deepfakes, filmpjes met nepgezichten. Het is moeilijker om zulke deepfakes te ontmaskeren dan om ze te maken, want de algoritmen leren hun sporen steeds beter uit te wissen. Bij de eerste deepfakes werd vooral gekeken naar onnatuurlijk knipperende ogen en rare mondbewegingen, maar de nieuwste algoritmen hebben al geleerd om die schoonheidsfoutjes automatisch weg te werken.

Programmaleider Matt Turek van MediFor vroeg Li eerder dit jaar zijn software aan MediFor-onderzoekers te demonstreren. Dat resulteerde in een samenwerking met Hany Farid van de University of California in Berkeley, een autoriteit op het gebied van digitaal forensisch onderzoek. Zij spelen nu een digitaal kat-en-muisspel, waarbij Farid de door Li ontwikkelde deepfakes probeert te ontmaskeren, waarna Li ze verder verfijnt om het vervolgens opnieuw te proberen.

Wapenwedloop

Samen met andere collega’s hebben ze onlangs een artikel over een krachtigere nieuwe methode voor de herkenning van deepfakes gepubliceerd. Die komt erop neer dat een algoritme wordt getraind om de typische gelaatsuitdrukkingen en hoofdbewegingen van een specifieke persoon te herkennen. Als je alleen iemands gezicht op het lichaam van een ander plakt, worden die motorische kenmerken niet meegenomen.
Het vergt heel veel rekenkracht en trainingsdata (foto’s en filmbeelden van de betreffende persoon) om een nepfilmpje te produceren waarin ook die zijn nagebootst. Al zal ook dat op een dag mogelijk worden. ‘De detectie zal technisch steeds beter worden,’ zegt Turek. ‘Maar of het ooit waterdicht wordt? Dat betwijfel ik.’

In Dalian is duidelijk dat men zich van het gevaar van deepfakes bewust begint te worden. De ochtend voor mijn gesprek met Li wordt een Europese politicus door zijn assistenten uit de cabine gehaald. Ze zijn bang dat hij zo nauwkeurig wordt gescand dat er makkelijk nepfilmpjes van hem kunnen worden gemaakt.

Terwijl Li toekijkt hoe mensen zijn cabine in stappen, zegt hij dat er geen inherente technische reden is waarom een nepfilmpje van echt te onderscheiden zou moeten zijn. ‘Beelden zijn niet meer dan pixels met een bepaalde kleurwaarde,’ zegt hij. Perfectionering van de beeldmanipulatie is slechts een kwestie van tijd en middelen, en in zijn samenwerking met Farid merkt Li dat het steeds makkelijker wordt. ‘We zien een wapenwedloop tussen digitale beeldmanipulatie en de middelen om die te ontmaskeren,’ zegt hij, ‘en beide zijden leunen op de ontwikkeling van algoritmen met kunstmatige intelligentie.’

Het slechte nieuws, denkt Li, is dat hij de wedloop uiteindelijk zal winnen. Hij denkt dat we over een paar jaar met één klik nepfilmpjes kunnen maken die niet meer van echt te onderscheiden zijn. ‘En als het zover is,’ zegt hij, ‘moeten we ons er goed van bewust worden dat niet alle filmpjes die we zien ook per se waarheidsgetrouw zijn.’

Auteur: Will Knight

MIT Technology Review
Verenigde Staten | tweemaandelijks tijdschrift | oplage 165.000

Uitgegeven door het Massachusetts Institute of Technology. Opgericht in 1899 als The Technology Review, voor alumni. Tegenwoordig is de doelgroep breder en is de aandacht verlegd van enkel technologie naar tevens de commerciële toepassing ervan.

» Abonneer u op onze nieuwsbrief: wekelijks berichten uit de buitenlandse pers in uw inbox.

Plaats een reactie