For best experience please turn on javascript and use a modern browser!
You are using a browser that is no longer supported by Microsoft. Please upgrade your browser. The site may not present itself correctly if you continue browsing.
Praten met de dader van een vergrijp of bij een gedenkplaats van een overledene kan helpen bij het verwerken van rouw of trauma. Met behulp van deepfaketechnologie kun je dat nu met een virtuele avatar doen. Dat is veiliger dan een echte ontmoeting, en wordt door de gebruikers als levensecht ervaren.

Hoe beweegt een mond als je de ‘o’ uitspreekt? Of de ‘a’? Het vertalen van klanken naar mondbewegingen is een van de technieken die Theo Gevers en collega’s een computer hebben geleerd. Daardoor maakt een virtuele avatar precies de juiste mondbewegingen als er een bepaalde klank klinkt, waardoor deze avatar realistisch overkomt. Dit is zogeheten deepfaketechnologie, bekend geworden van grappige filmpjes, maar ook van actrices waarvan het gezicht ongevraagd is gebruikt in pornofilms, en van politici die je woorden kunt laten zeggen die ze nooit echt hebben uitgesproken. Maar dezelfde technologie kan ook gebruikt worden in de geestelijke gezondheidszorg, voor traumatherapie en rouwverwerking.

Theo Gevers. Fotograaf: Dirk Gillissen
Theo Gevers. Fotograaf: Dirk Gillissen

Deep learning

Gevers is hoogleraar computer vision aan de Universiteit van Amsterdam en groepsleider van de Computer Vision research group (CV). Hij werkt al zijn hele carrière aan beeldherkenning. Tot tien jaar geleden kwam daar veel handwerk bij kijken om te kunnen herkennen wat er op een plaatje te zien is. Totdat er een nieuwe techniek doorbrak: deep learning. De algoritmes konden nu sneller en zelfstandig beelden herkennen. En de laatste paar jaar is daar weer een nieuwe ontwikkeling bij gekomen: het genereren van beelden, zoals je kunt doen met programma’s zoals DALL-E en Midjourney. ‘We zitten nu in een enorm hectische, dynamische en interessante periode want deze generatieve vorm van AI is geschikt voor verschillende toepassingsgebieden, zoals bijvoorbeeld klimaatvoorspelling, nieuwe medicijn- en materiaalontwikkeling en gezondheidzorg. Ik denk dat AI ontzettend veel kan betekenen voor de maatschappij.’

Al in 1997, lang voordat velen druk waren met het maken van deepfakes met beroemdheden, ontwikkelde Gevers samen met zijn team de technologie om deepfakes te maken en detecteren. Maar ze onderzochten ook toepassingen voor het gebruik van deepfakes zoals trauma- en rouwverwerking. In samenwerking met traumaexperts werden de eerste resultaten gepubliceerd en die bleken veelbelovend. Niet alleen voor traumatherapie, maar ook voor rouwverwerking. ‘Voor sommige mensen kan rouw heel problematisch zijn, bijvoorbeeld als iemand plotseling of op een gewelddadige manier overlijdt. Deepfaketherapie als onderdeel van rouwbehandeling kan nabestaanden helpen.’  

We zitten nu in een enorm hectische, dynamische en interessante periode want deze generatieve vorm van AI is geschikt voor verschillende toepassingsgebieden, zoals bijvoorbeeld klimaatvoorspelling, nieuwe medicijn- en materiaalontwikkeling en gezondheidzorg. Ik denk dat AI ontzettend veel kan betekenen voor de maatschappij. Theo Gevers

Videogesprek met avatar

Gevers zocht contact met psychologisch onderzoekers en GGZ-therapeuten en inmiddels zijn er meerdere onderzoeken gestart met deepfaketherapie voor depressie, trauma, rouw en PTSS. Een deepfakesessie gaat als volgt: een cliënt neemt plaats achter een computerscherm en start een videogesprek met zijn of haar therapeut. Deze komt eerst in beeld en legt uit wat er gaat gebeuren. Dan schakelt de therapeut over naar een ander scherm waar de deepfake avatar, met het gezicht van de mogelijke dader, in beeld komt. De cliënt kan nu praten tegen de avatar. De therapeut geeft antwoord, maar is dan dus niet in beeld. Zijn of haar stem kan gebruikt worden, maar het is ook mogelijk om de stem van de dader te gebruiken. De visuele impact, het zien van de mogelijke dader, maakt de meeste indruk, vertelt Gevers, maar met de stem erbij is de impact nog iets groter. Daarnaast is het mogelijk om de echte bewegingen van de therapeut te gebruiken, maar soms wordt er ook een ‘loop’ gemaakt waardoor 20 seconden bewegend beeld telkens wordt herhaald. Iets wat volgens Gevers nauwelijks opvalt.

In gesprek met dader

De eerste resultaten van de experimenten zijn veelbelovend: cliënten geven aan dat het hen helpt bij trauma- en rouwverwerking. Deze methode wordt nu meer en meer ingezet om slachtoffers op een veilige manier te confronteren met de daders. Gevers werkt samen met psychologen, ethici en trauma- en rouwdeskundigen aan richtlijnen die het welzijn van de slachtoffers centraal stellen. Gevers: ‘Bij verkrachting worstelen slachtoffers vaak met de vraag: was het mijn schuld? Dat willen ze vragen aan de daders. Maar het is gevaarlijk om dat in het echt te vragen. De dader zou het slachtoffer nog meer kunnen kwetsen.’ De therapeuten, die de avatars aansturen, werken met scripts. Van tevoren is goed nagedacht wat zij het beste kunnen antwoorden op bepaalde vragen.

Startup

De technologie is nu klaar om ingezet te worden, en dat gebeurt bij de startup 3DUniversum, waarvan Gevers de medeoprichter is. Therapeuten kunnen zich aanmelden bij het platform, en na een intake daar zelf een foto en eventueel audiobestand uploaden om een deepfakesessie te organiseren.

Een volgende onderzoeksstap is het automatiseren van de scripts voor gesprekken vóór en na een therapie. ‘Voordat de therapie start is er altijd een intake, met als doel om een uitgebreid en gedetailleerd beeld te krijgen van de psychische, medische, sociale en persoonlijke achtergrond van een cliënt. Dit helpt de psycholoog om de problematiek van de cliënt beter te begrijpen, een juiste diagnose te stellen en een passend behandelplan op te stellen. Dat kost veel tijd en er zijn weinig therapeuten, dus dit zou je ook door een therapeutische chatbot kunnen laten doen. Daarvoor willen we een AI-model trainen met heel veel bestaande vragen en antwoorden, zodat het model zelf leert wanneer het welke vraag moet stellen, en wanneer het bijvoorbeeld moet doorvragen. Het kan dan signalen oppikken dat een cliënt met een mogelijk probleem zit. Als dat zo is, dan kan de echte therapeut worden ingeschakeld.’ Of AI in de toekomst ook de volledige deepfaketherapie kan gaan verzorgen? Daar is Gevers nog niet zo zeker van. ‘Voor eenvoudige therapieën misschien wel, maar rouw- en traumatherapie vragen toch wel om specifieke expertise en een menselijke benadering.’

Mentale gezondheid is minder makkelijk op te lossen, omdat het niet zo makkelijk meetbaar is. Maar het is zeker mogelijk om wonden, die zijn ontstaan door trauma, met behulp van AI te helen.’