Actieve vormmodellen om pijnbeleving waar te nemen

Ard
Scheirlynck

Actieve vormmodellen om pijnbeleving waar te nemen

 

Ard Scheirlynck (ard_scheirlynck@msn.com)

1/08/2016

 

In mijn thesis probeer ik met behulp van computervisietechnieken een arbeidsintensief proces te automatiseren. Niet alleen kan de voorgestelde techniek gebruikt worden voor de gedoelde toepassing, maar ook een brede waaier aan andere toepassingen kunnen hiertoe in aanmerking komen. Daarnaast zijn computervisietechnieken momenteel hot topic. Het mooiste voorbeeld is zonder twijfel de app ‘Snapchat’ waarbij het systeem op basis van beeldinformatie een gezicht in een videosequentie kan herkennen.

 

Ik ben sterk gefascineerd door de voorgaande toepassing waardoor ik dergelijk model zelf wilde begrijpen en zelf wou kunnen toepassen. Daarnaast vind ik het ‘machine learning’-domein een bijzonder fascinerende wereld. Het intrigeert mij dat men op een punt gekomen is waar men daadwerkelijk computers iets kan aanleren op een soortgelijke manier zoals dat bij de mens gebeurt. Dit schrikt mij enerzijds ook af, maar de voordelen en tijdswinst die men met machine learning-technieken kan boeken weegt niet op tegen mijn nachtmerries en ‘I, Robot’-scenario’s. Daarbij wou ik als ingenieur iets ontwikkelen dat het leven voor andere personen makkelijker en eenvoudiger maakt, een kerngedachte in de ingenieurswereld.

 

De thesis vindt zijn praktische toepassing op het vlak van pijnbeleving bij kinderen. Hier volgt de korte samenvatting van de huidige toepassing die in de thesis geautomatiseerd wordt. In samenwerking met prof. dr. Tine Vervoort worden kinderen onderworpen aan een Cold Pressor Task (CPT). Hierbij wordt de hand van het kind ondergedompeld in een koudwaterbad wat een bepaalde vorm van pijn induceert. Pijn kan men detecteren aan de hand van hartslagveranderingen, zelfbevragingstesten en andere technieken. De techniek die professor Vervoort toepast is die van de gelaatsexpressie. Pijn zal zich veelal manifesteren op het gezicht, iets wat wij als mensen intuïtief kunnen waarnemen. Om verder onderzoek te kunnen doen omtrent de pijnbeleving moet pijn worden omgezet naar een bepaalde wiskundige codering, zodat statistische onderzoeken gedaan kunnen worden. Hiertoe wordt de Child Facial Coding Scale toegepast; een systeem bestaande uit 13 gezichtsacties. Dergelijke gezichtsactie kan bijvoorbeeld het fronsen van de wenkbrauwen zijn, het openen van de mond, enzovoort.

 

Praktisch wordt tijdens de Cold Pressor Task een video gemaakt van het gelaat van het onderzochte kind. Achteraf wordt de video geanalyseerd door getrainde annotatiepersonen. Hun taak bestaat erin de video seconde per seconde te pauzeren en een waarde, gaande van 0 tot 2, toe te kennen aan iedere van de 13 acties uit Child Facial Coding Scale. Hierbij staat 0 voor de afwezigheid van de desbetreffende gezichtsactie en 2 voor maximale aanwezigheid van de gezichtsactie. Op die manier bekomt men voor iedere seconde een vector van 13 cijferwaarden die de acties in het gezicht op dat moment beschrijven. Op dit moment gebeurt voorgaande beschreven taak handmatig. Bekijkt men een videosequentie van 10 minuten, dan kan men snel bereken dat er maar liefst 7800 (10 x 60 x 13) cijferwaarden moeten worden toegekend.

 

Het is hierop dat mijn thesis een belangrijke rol kan spelen. In een eerste deel van mijn masterproef wordt het Active Shape Model geanalyseerd. Dit is een model die men kan vergelijken met een flexibel masker op een gezicht. Door middel van beeldverwerkingstechnieken wordt getracht het masker zo goed mogelijk op het gezicht te plaatsen zodat het masker ons een waarheidsgetrouw beeld kan geven van het gezicht. Hiertoe werd vertrokken van een reeds gerealiseerde implementatie van het Active Shape Model, maar uitgebreid met verschillende andere technieken die het masker volgens de me17-norm met 50% verbeterde. Het masker kan men zien als een verzameling van 76 punten die markante gezichtspunten voorstellen. Dit kunnen de mondhoeken, pupillen, kaakcontour, enzovoort zijn.

 

In een tweede deel van mijn thesis ga ik op zoek naar een relatie tussen de 76 punten en probeer ik de 76 punten te linken aan de 13 faciale acties. Wil men bijvoorbeeld de gezichtsactie waar de mond wordt geopend detecteren aan de hand van het masker, dan kan men bijvoorbeeld de onderlinge afstand monitoren ter hoogte van de punten die de mond beschrijven. Deze onderlinge afstand wordt vervolgens beschreven in een wiskundige vector die geannoteerd wordt met de waarde 0, 1 of 2 naargelang het voorkomen in het desbetreffende geannoteerde frame. Dit werd herhaald voor zes van de dertien faciale acties als basisimplementatie van het systeem. Vervolgens wordt deze data aangeleverd aan verschillende Support Vector Machines die de data aanleren. Daarna kunnen deze getrainde Support Vector Machines uitspraken doen omtrent het voorkomen van één van de zes gezichtsacties in een onbekende videosequentie. Het computersysteem kan met andere woorden het werk van de manuele annotatiepersonen zelfstandig overnemen. We kunnen concluderen dat het systeem voor 85,91% dezelfde resultaten geeft als een manuele annotatiepersoon.

 

Het eerste deel, het Active Shape Model, werkt goed en kan quasi perfect een gezicht herkennen en de 76 punten correct positioneren. Het tweede deel, het machine learning-concept, verdient in de toekomst nog wat extra aandacht. Enerzijds moet het systeem uitgebreid worden tot alle 13 faciale acties kunnen worden gedetecteerd. Het model kan tevens niet alleen op een gezicht worden toegepast. Denken we bijvoorbeeld aan toepassingen in de medische beeldvorming waar een orgaan moet worden gedetecteerd in een röntgenfoto. Hoe dan ook kan ik concluderen dat er – in de tijdspanne van deze thesis – goede en beloftevolle resultaten werden geboekt.

Download scriptie (32.43 MB)
Universiteit of Hogeschool
Universiteit Gent
Thesis jaar
2016
Promotor(en)
prof. dr. ir. P. Veelaaert, prof. dr. J. Lauwaert