Het algoritme dat fake video een ding gaat maken

Over selfies waarop je je ogen dicht hebt en waarom dat tot problemen kan gaan leiden

Goed nieuws voor iedereen die van selfies maken houdt, maar moeite heeft de ogen erbij open te houden. Facebook heeft een oplossing voor je probleem! ( (Ik wist niet dat dit een probleem was, maar ik ben dan ook terughoudend met de selfies). Met een speciale categorie algoritmes die als GAN bekend staan (voor generative adversorial networks) kan Facebook voortaan je ogen inkleuren voor de foto waarop je je ogen per ongeluk dicht hebt. Ze hebben er een researchpaper over gepubliceerd, maar het is nog onbekend wanneer ze het commercieel gaan aanbieden.

GAN is een voorbeeld van unsupervised machine learning. AI-researcher Pieter Abbeel (die ik sprak voor Datanews) legde me eerder dit jaar als volgt uit wat dat inhoudt:

Bij unsupervised machine learning is er helemaal geen supervisie. Het systeem neemt data tot zich, en nog meer data en nog meer data, en probeert op de een of andere manier een algemeen begrip op te bouwen van hoe die data in elkaar zit. Daarna kan het daarmee hopelijk andere dingen doen in de toekomst.

Dit is in tegenstelling tot supervised machine learning, waarbij alle inputdata geannoteerd wordt door de onderzoekers, en reinforcement learning, waar enige data wordt geannoteerd en het systeem met vallen en opstaan (soms letterlijk) leert hoe de data te behandelen.

In het geval van Facebook haalt het algoritme een enorme lading aan data binnen over jouw ogen: welke kleur ze hebben in welk licht, de vorm, enzovoort. Vervolgens kan het algoritme bepalen hoe jouw ogen eruit moeten zien op een foto waar je ze per ongeluk dicht hebt.



Hieronder een paar voorbeelden uit de paper van Facebook. De eerste kolom is een goede foto van het model, de tweede de foto met de ogen dicht, de derde zoals het eruit zou zien met hulp van Photoshop Elements en de laatste kolom is het resultaat van Facebooks algoritme.

Dat ziet er behoorlijk goed. Volgens The Verge is het algoritme nog niet zo goed met brildragers, mensen met een lange pony of als de foto in een extreme hoek geschoten is, maar bovenstaand resultaat laat zien dat het algoritme al best aardig werkt.

Op zich niets mis mee. Als je rode ogen kunt corrigeren en met filters jezelf zo mooi kunt maken als je wilt, is het corrigeren van dichte ogen de volgende stap.

Maar welke deuren opent een technologie als deze?

Als het algoritme mijn ogen bijna perfect bijna kan creëren, kan het dat dan ook met mijn mond? Kan het mijn mond iets laten zeggen dat ik nooit gezegd heb? Kan het mijn stemgeluid nabootsen? Hoe zit het met mijn lichaam?

Dit lijken misschien vergezochte vragen, maar het tijdperk van fake video is al hier. Zogenaamde deepfakes worden gebruikt om pornovideo’s te maken waar het gezicht van beroemde (non-porno) actrices op pornobeelden wordt geplakt. Er zijn apps (zoals FakeApp) waarmee je zelf gemakkelijk je gezicht in een andere foto kunt plakken.

In dit geval zijn het mensen die de technologie, dit soort algoritmes, gebruiken om nieuwe fake videos te maken en te verspreiden. Maar zo’n algoritme kan op dat op een gegeven moment ook uit zichzelf. Het hoeft maar een keer een opdracht te krijgen om zo veel mogelijk fake video’s te maken en verspreiden van NBA-superster Steph Curry die zegt dat hij graag kleine kinderen in stukjes hakt en opeet, en het algoritme spuwt die video’s zo uit over onze sociale media.

Klinkt dat vergezocht? Vervang dan in bovenstaande alinea de naam Steph Curry voor Hillary Clinton, en het woord video voor nieuws. Het is inmiddels vrij algemeen geaccepteerd dat Russische actoren zich in de Amerikaanse presidentsverkiezingen mengden door op specifieke Facebookgebruikers in te zoomen en hen met een overlading aan fake news-berichten te overspoelen. Algoritmes speelden daarin een belangrijke rol.

Kunnen we dan straks helemaal geen online content meer vertrouwen? Je kunt natuurlijk een algoritme maken dat op zoek gaat naar fake video, maar dat werkt vooral voor beroemdheden, omdat je het algoritme moet trainen met heel veel inputdata. Dat bestaat van beroemdheden, maar niet van iedereen (hoewel de gemiddelde Facebookgebruiker natuurlijk ook aardig wat persoonlijke data heeft overgeleverd). Antonio Garcia Martinez, voormalig marketing product manager bij Facebook, ziet wel toekomst in blockchain (ja, die technologie van bitcoin) om fake video te spotten. Het bedrijfje Factom heeft die technologie al: het gebruikt het decentrale netwerk van blockchain om beeldmateriaal van aangesloten camera’s met een stempel te voorzien. De output van de camera krijgt een virtuele stempel - ja dit beeldmateriaal is daadwerkelijk opgenomen met een camera.

Dat klinkt interessant. Ik ga de komende tijd eens wat meer lezen over Factom en houd je op de hoogte.


Afgelopen week maakte ik mijn debuut op nu.nl. Ik schreef voor hun carrière-site een stuk over hoe in het buitenland wonen goed is voor je zelfkennis. Ik kan dat beamen: emigreren was niet makkelijk, maar heeft me ontzettend veel geleerd over wat ik belangrijk vind en waar ik heen wil. Lees het stuk hier.


Ik ga een weekje kamperen in Oregon en zal niet volledig internetloos zijn, maar wil me toch proberen even af te sluiten van alle beslommeringen die het dagelijkse nieuws met zich meebrengen. Schram Weekly slaat volgende week daarom even over. In de week van 2 juli kun je weer een nieuwe editie verwachten.

In de tussentijd: tweet/snap/insta/Facebook vooral over deze nieuwsbrief, en stuur ‘m door aan al je vrienden, ooms, tantes en buren. Wijs ze dan ook even op de knop hieronder!