Kennisoverdracht in Brein-Computer Interfaces: taal-voorgetrainde transformers voor het classificeren van electro-encefalografie

Wolf De Wulf
Persbericht

Is taal de sleutel bij het decoderen van hersengolven?

Brein-Computer Interfaces en Machine Learning
Een Brein-Computer Interface (BCI) is een apparaat dat de digitalisatie van het brein toelaat. De BCI-pijplijn werkt als volgt (zie Figuur 1). Eerst wordt hersenactiviteit gemeten, dit kan aan de hand van een verscheidenheid aan modaliteiten. Elektro-encefalografie (EEG) is daar een van. EEG bestaat uit metingen van de elektrische breinpotentialen op de hoofdhuid (zie Figuur 2). Zo’n metingen kunnen aan de hand van Machine Learning (ML) gedecodeerd worden, wat resulteert in een reeks intenties. Tenslotte worden deze intenties gebruikt om een bepaald apparaat aan te sturen. Recente vooruitgang in onderzoek naar BCI’s heeft klinische toepassingen mogelijk gemaakt, zoals het voorspellen van epileptische aanvallen in een vroeg stadium en breingestuurde protheses, maar ook alledaagse toepassingen zoals intentieherkenning voor smart-living en voertuig- en robotbesturing. Afgezien enkele zeer specifieke gevallen liggen efficiënte en betrouwbare BCI's echter nog ver weg. De ML-methoden die BCI's toepassen om hersenactiviteit te interpreteren moeten nog tal van uitdagingen overwinnen. Data schaarste en variatie in hersenactiviteit, zowel tussen personen als bij een enkele persoon, maken het ontwerpen van BCI’s een complexe zaak. Soortgelijke problemen zijn onderzocht in andere onderzoeksgebieden, waarbij oplossingen zijn gevonden die als inspiratie kunnen dienen voor nieuwe ML-methoden voor BCI’s. Dit onderzoek gaat nog een stap verder. Hier wordt niet enkel gebruikt gemaakt van een ML-model uit een ander domein maar ook van wat dat model reeds geleerd heeft in dat domein.
 

Figuur 1: De BCI-pijplijn.

Figuur 1: BCI-pijplijn.
 

Figuur 2: Een voorbeeld EEG-opname. De horizontale as toont de tijd in seconden, de verticale as toont de EEG electroden.

Figuur 2: De eerste 10 seconden van een voorbeeld EEG-opname. De horizontale as toont de tijd in seconden, de verticale as toont de EEG-electroden. Intenties worden aangeduid in gekleurde verticale lijnen.
 

Kennisoverdracht
Het decoderen van hersenactiviteit wordt gekenmerkt door een cruciaal probleem: metingen van hersenactiviteit kunnen aanzienlijk verschillen, tussen personen en zelfs voor dezelfde persoon. Om nauwkeurige BCI's te ontwerpen moeten ML-methoden worden gevonden die algemene patronen kunnen leren die op elke persoon van toepassing zijn. Dit aspect van kennisoverdracht heeft in BCI’s altijd al de vorm aangenomen van een ML-model dat eerst leert uit metingen van een aantal personen of verschillende metingen van een bepaald persoon en vervolgens verder leert op de metingen van de persoon die de BCI zal gebruiken. In sommige gevallen leren ML modellen eerst uit data van een geheel verschillend domein. Een recent voorbeeld is een ML model dat eerst leert om foto’s te classificeren aan de hand van een gigantische foto database. Door metingen van hersenactiviteit als foto’s voor te stellen kan zo’n model vervolgens verder leren hersenactiviteit te classificeren, wat resulteert in een relatief accuraat BCI-model. De toegevoegde waarde van deze manier van werken is dat schaarste van data een kleiner probleem is in het domein van foto’s. Met dit in het achterhoofd werkt dit onderzoek aan een gelijkaardige methode maar in plaats van foto’s wordt taal gebruikt. Een samenwerking tussen Facebook en Google resulteerde onlangs in een publicatie waarin beweerd wordt dat enorme taalmodellen die getraind worden op enorme taal databases gezien kunnen worden als algemene computationele modellen. Een aantal evaluaties van een gekend taalmodel in een aantal domeinen niet gerelateerd aan taal toonden dat dit taalmodel, zonder iets van deze domeinen geleerd te hebben, relatief goed presteert. Dit wil zeggen dat er hoogstwaarschijnlijk patronen te vinden zijn in taal die algemeen toepasbaar zijn in domeinen verschillend van taal. In dit onderzoek wordt nagegaan of dit geldt voor EEG.

Taalmodellen voor het decoderen van EEG
Expliciet leest de onderzoeksvraag van dit onderzoek als volgt: “Hoe en in welke mate kan een op taal getraind ML-model overgaan op de classificatie van EEG en beïnvloedt de taaltraining de prestaties?” OpenAI’s GPT2 wordt in verschillende configuraties geëvalueerd op het classificeren van EEG. Een bestaande publieke motor imagery dataset wordt gebruikt. Motor imagery houdt in dat EEG opnames gemaakt worden van een persoon die zich inbeeldt bepaalde bewegingen uit te voeren. De taak van het ML model is om deze bewegingen uit de EEG-metingen te extraheren. Hoewel de finale performantie van GPT2 voor het classificeren van EEG de state-of-the-art niet verbetert, maakt een interessante observatie verder onderzoek de moeite waard. Er wordt namelijk waargenomen dat er een positief statistisch significant verschil is tussen de performantie van GPT2 als het voorgetraind is met taal ten opzichte van wanneer het dat niet is. Dit suggereert dat GPT2 uit de gigantische taaldatabase algemene patronen heeft geleerd die ook toepasbaar zijn in het domein van EEG. Aangezien zulke patronen momenteel relatief ongekend zijn introduceert dit onderzoek dus een nieuwe onderzoeksrichting. Met name, onderzoek dat modellen uit andere domeinen analyseert om zo algemene EEG-patronen te vinden. Daarbij versterkt dit onderzoek ook de claim van de wetenschappers bij Facebook en Google dat deze grote taalmodellen gezien kunnen worden als modellen die verder gaan dan taal en eerder doen aan algemene computatie.

Verder onderzoek
De eerstvolgende stap na dit onderzoek houdt in te gaan kijken of betere performantie verkregen kan worden door gebruik te maken van grotere datasets. Door de grootte en complexiteit van GPT2 is het altijd een mogelijkheid dat het teveel details in de EEG-opnames bekijkt. Het doel van ML is niet op de details te focussen maar de algemene trends te vinden. Door meer data ter beschikking te stellen kan het model geforceerd worden om te gaan veralgemenen en zo algemenere patronen te vinden. Tegelijkertijd kunnen ook de gevonden patronen geanalyseerd worden om zo inspiratie te vinden voor nieuwe BCI-modellen. Deze kunnen op hun beurt BCI’s en het leven van de mens verbeteren. 

Projectdetails
De code die geschreven werd voor dit onderzoek is te vinden op GitHub (https://github.com/wulfdewolf/lpt-for-eeg). Een samenvatting van de resultaten van dit onderzoek is te vinden op Weights&Biases (https://wandb.ai/wulfdewolf/lpt-for-eeg/reports/Transfer-Learning-in-Br…). De infrastructuur en dienstverlening gebruikt in dit onderzoek werd voorzien door het VSC (Vlaams Supercomputer Centrum), gefinancierd door het FWO en de Vlaamse overheid. 

Bibliografie

Related Synchronization. Oxford University Press.
Pfurtscheller, G., & Lopes da Silva, F. H. (1999, November). Event-related EEG/MEG syn-
chronization and desynchronization: Basic principles. Clinical Neurophysiology: Official
Journal of the International Federation of Clinical Neurophysiology, 110 (11), 1842–1857.
doi: 10/ffwmrh
Pfurtscheller, G., Neuper, C., Muller, G., Obermaier, B., Krausz, G., Schl ̈ogl, A., . . . Schrank,
C. (2003, July). Graz-BCI: State of the art and clinical applications. IEEE transactions
on neural systems and rehabilitation engineering : a publication of the IEEE Engineering
in Medicine and Biology Society, 11 , 177–80. doi: 10/dpn8fh
Pratt, L. Y. (1992). Discriminability-Based Transfer between Neural Networks. In Advances in
Neural Information Processing Systems (Vol. 5). Morgan-Kaufmann.
Pratt, L. Y., & Jennings, B. (1996). A survey of transfer between connectionist networks.
Connection Science, 8 (2), 163–184. doi: 10.1080/095400996116866
Pratt, L. Y., Mostow, J., & Kamm, C. A. (1991, July). Direct transfer of learned informa-
tion among neural networks. In Proceedings of the ninth National conference on Artificial
intelligence - Volume 2 (pp. 584–589). Anaheim, California: AAAI Press.
Qiu, X., Sun, T., Xu, Y., Shao, Y., Dai, N., & Huang, X. (2020). Pre-trained Models for Natural
Language Processing: A Survey. ArXiv . doi: 10.1007/s11431-020-1647-3
Radford, A., & Narasimhan, K. (2018). Improving Language Understanding by Generative
Pre-Training. OpenAI .
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language Models
are Unsupervised Multitask Learners. OpenAI .
Raducanu, B. C., Yazicioglu, R. F., Lopez, C. M., Ballini, M., Putzeys, J., Wang, S., . . . Mitra,
S. (2017, October). Time Multiplexed Active Neural Probe with 1356 Parallel Recording
Sites. Sensors (Basel, Switzerland), 17 (10), E2388. doi: 10.3390/s17102388
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., . . . Liu, P. J. (2020).
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal
of Machine Learning Research, 21 (140), 1–67.
Raghu, M., Zhang, C., Kleinberg, J., & Bengio, S. (2019). Transfusion: Understanding transfer
learning for medical imaging. In H. Wallach, H. Larochelle, A. Beygelzimer, F. dAlch ́e-Buc,
E. Fox, & R. Garnett (Eds.), Advances in neural information processing systems (Vol. 32).
Curran Associates, Inc.
Raghu, S., Sriraam, N., Temel, Y., Rao, S. V., & Kubben, P. L. (2020). EEG based multi-class
seizure type classification using convolutional neural network and transfer learning. Neural
Networks, 124 , 202–212. doi: 10.1016/j.neunet.2020.01.017
Raina, R., Battle, A., Lee, H., Packer, B., & Ng, A. Y. (2007, June). Self-taught learning:
Transfer learning from unlabeled data. In Proceedings of the 24th international conference
on Machine learning (pp. 759–766). New York, NY, USA: Association for Computing
Machinery. doi: 10.1145/1273496.1273592
Rakotomamonjy, A., Guigue, V., Mallet, G., & Alvarado, V. (2005). Ensemble of SVMs for
Improving Brain Computer Interface P300 Speller Performances. In W. Duch, J. Kacprzyk,
E. Oja, & S. Zadro ̇zny (Eds.), Artificial Neural Networks: Biological Inspirations – ICANN
802005 (pp. 45–50). Berlin, Heidelberg: Springer. doi: 10/bx78jr
Ramadan, R., & Vasilakos, A. (2017). Brain computer interface: Control signals review. Neu-
rocomputing. doi: 10.1016/j.neucom.2016.10.024
Ramos-Murguialday, A., Broetz, D., Rea, M., L ̈aer, L., Yilmaz, ̈O., Brasil, F., . . . Birbaumer,
N. (2013). Brain–machine interface in chronic stroke rehabilitation: A controlled study.
Annals of neurology. doi: 10.1002/ana.23879
Ranzato, M., Poultney, C., Chopra, S., & Cun, Y. (2006). Efficient learning of sparse repre-
sentations with an energy-based model. In B. Sch ̈olkopf, J. Platt, & T. Hoffman (Eds.),
Advances in neural information processing systems (Vol. 19). MIT Press.
Rao, R., Bhattacharya, N., Thomas, N., Duan, Y., Chen, X., Canny, J., . . . Song, Y. S. (2019,
December). Evaluating Protein Transfer Learning with TAPE. Advances in neural infor-
mation processing systems, 32 , 9689–9701.
Rashid, M., Sulaiman, N., P. P. Abdul Majeed, A., Musa, R. M., Ab. Nasir, A. F., Bari, B. S.,
& Khatun, S. (2020). Current Status, Challenges, and Possible Solutions of EEG-Based
Brain-Computer Interface: A Comprehensive Review. Frontiers in Neurorobotics, 14 , 25.
doi: 10/gj326h
Rebuffi, S.-A., Bilen, H., & Vedaldi, A. (2017). Learning multiple visual domains with residual
adapters. In I. Guyon et al. (Eds.), Advances in neural information processing systems
(Vol. 30). Curran Associates, Inc.
Redrovan, D. V., & Kim, D. (2018, March). Hand gestures recognition using machine learning
for control of multiple quadrotors. In 2018 IEEE Sensors Applications Symposium (SAS)
(pp. 1–6). doi: 10.1109/SAS.2018.8336782
Rivest, F., & Kohar, R. (2020, January). A New Timing Error Cost Function for Binary Time
Series Prediction. IEEE transactions on neural networks and learning systems, 31 (1),
174–185. doi: 10.1109/TNNLS.2019.2900046
Robbins, H., & Monro, S. (1951). A Stochastic Approximation Method. The Annals of Mathe-
matical Statistics, 22 (3), 400–407.
Roy, Y., Banville, H., Albuquerque, I., Gramfort, A., Falk, T. H., & Faubert, J. (2019, August).
Deep learning-based electroencephalography analysis: A systematic review. Journal of
Neural Engineering, 16 (5), 051001. doi: 10/ggc76t
Sameer, M., Gupta, A., Chakraborty, C., & Gupta, B. (2020). ROC Analysis for detection of
Epileptical Seizures using Haralick features of Gamma band. 2020 National Conference on
Communications (NCC). doi: 10/gnhcv2
Sankaranarayanan, S., Jain, A., Chellappa, R., & Lim, S. N. (2018, April). Regularizing Deep
Networks Using Efficient Layerwise Adversarial Training. Proceedings of the AAAI Con-
ference on Artificial Intelligence, 32 (1).
Sannelli, C., Vidaurre, C., M ̈uller, K.-R., & Blankertz, B. (2019, January). A large scale screening
study with a SMR-based BCI: Categorization of BCI users and differences in their SMR
activity. PLOS ONE , 14 (1), e0207351. doi: 10.1371/journal.pone.0207351
Saxe, A. M., McClelland, J. L., & Ganguli, S. (2014). Exact solutions to the nonlinear dynamics of
learning in deep linear neural networks. In Y. Bengio & Y. LeCun (Eds.), 2nd international
conference on learning representations, ICLR 2014, banff, AB, canada, april 14-16, 2014,
81conference track proceedings.
Saxena, S., & Cunningham, J. P. (2019, April). Towards the neural population doctrine. Current
Opinion in Neurobiology, 55 , 103–111. doi: 10.1016/j.conb.2019.02.002
Schalk, G., McFarland, D. J., Hinterberger, T., Birbaumer, N., & Wolpaw, J. R. (2004, June).
BCI2000: A general-purpose brain-computer interface (BCI) system. IEEE transactions
on bio-medical engineering, 51 (6), 1034–1043. doi: 10.1109/TBME.2004.827072
Schl ̈ogl, A., Lee, F., Bischof, H., & Pfurtscheller, G. (2005, August). Characterization of four-
class motor imagery EEG data for the BCI-competition 2005. Journal of Neural Engineer-
ing, 2 (4), L14–L22. doi: 10/dgb66b
Schwemmer, M. A., Skomrock, N. D., Sederberg, P. B., Ting, J. E., Sharma, G., Bockbrader,
M. A., & Friedenberg, D. A. (2018, November). Meeting brain–computer interface user per-
formance expectations using a deep neural network decoding framework. Nature Medicine,
24 (11), 1669–1676. doi: 10.1038/s41591-018-0171-y
Sellers, E., & Donchin, E. (2006). A P300-based brain–computer interface: Initial tests by ALS
patients. Clinical Neurophysiology. doi: 10.1016/j.clinph.2005.06.027
Sennrich, R., Haddow, B., & Birch, A. (2016, August). Neural Machine Translation of Rare
Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association
for Computational Linguistics (Volume 1: Long Papers) (pp. 1715–1725). Berlin, Germany:
Association for Computational Linguistics. doi: 10.18653/v1/P16-1162
Serdar Bascil, M., Tesneli, A. Y., & Temurtas, F. (2015, June). Multi-channel EEG signal
feature extraction and pattern recognition on horizontal mental imagination task of 1-
D cursor movement for brain computer interface. Australasian Physical & Engineering
Sciences in Medicine, 38 (2), 229–239. doi: 10/gnbc95
Shakeel, A., Navid, M. S., Anwar, M. N., Mazhar, S., Jochumsen, M., & Niazi, I. K. (2015,
December). A Review of Techniques for Detection of Movement Intention Using Movement-
Related Cortical Potentials. Computational and Mathematical Methods in Medicine, 2015 ,
e346217. doi: 10.1155/2015/346217
Shannon, C. (1949, January). Communication in the Presence of Noise. Proceedings of the IRE ,
37 (1), 10–21. doi: 10/ftzz7r
Sharmila, A., & Geethanjali, P. (2020). DWT Based Time Domain Features on Detection
of Epilepsy Seizures from EEG Signal. In G. Naik (Ed.), Biomedical Signal Processing:
Advances in Theory, Algorithms and Applications (pp. 181–200). Singapore: Springer.
doi: 10.1007/978-981-13-9097-5 9
Shelhamer, E., Long, J., & Darrell, T. (2017). Fully convolutional networks for semantic segmen-
tation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39 (4), 640–651.
doi: 10.1109/TPAMI.2016.2572683
Shimodaira, H. (2000, October). Improving predictive inference under covariate shift by weight-
ing the log-likelihood function. Journal of Statistical Planning and Inference, 90 (2), 227–
244. doi: 10.1016/S0378-3758(00)00115-4
Shin, J., Kwon, J., & Im, C.-H. (2018). A Ternary Hybrid EEG-NIRS Brain-Computer Inter-
face for the Classification of Brain Activation Patterns during Mental Arithmetic, Motor
Imagery, and Idle State. Frontiers in Neuroinformatics, 12 , 5. doi: 10/ggrkzk
82Shorten, C., & Khoshgoftaar, T. (2019). A survey on Image Data Augmentation for Deep
Learning. Journal of Big Data. doi: 10.1186/s40537-019-0197-0
Shortliffe, E., & Barnett, G. (2006, January). Biomedical Data: Their Acquisition, Storage, and
Use. In Biomedical informatics (pp. 46–79). doi: 10.1007/0-387-36278-9 2
Simonyan, K., & Zisserman, A. (2014). Two-stream convolutional networks for action recognition
in videos. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, & K. Weinberger (Eds.),
Advances in neural information processing systems (Vol. 27). Curran Associates, Inc.
Simonyan, K., & Zisserman, A. (2015). Very Deep Convolutional Networks for Large-Scale Image
Recognition. ICLR.
Singh, S. P. (2014, March). Magnetoencephalography: Basic principles. Annals of Indian
Academy of Neurology, 17 (Suppl 1), S107-S112. doi: 10/gcb3cc
Song, Z., Fang, T., Ma, J., Zhang, Y., Le, S., Zhan, G., . . . Kang, X. (2021, February). Evaluation
and Diagnosis of Brain Diseases based on Non-invasive BCI. In 2021 9th International
Winter Conference on Brain-Computer Interface (BCI) (pp. 1–6). doi: 10.1109/BCI51272
.2021.9385291
Srinivasan, V., Eswaran, C., & Sriraam, N. (2007, May). Approximate Entropy-Based Epilep-
tic EEG Detection Using Artificial Neural Networks. IEEE Transactions on Information
Technology in Biomedicine, 11 (3), 288–295. doi: 10.1109/TITB.2006.884369
Stevenson, I. H., & Kording, K. P. (2011, February). How advances in neural recording affect
data analysis. Nature Neuroscience, 14 (2), 139–142. doi: 10.1038/nn.2731
Steyrl, D., Kobler, R. J., & M ̈uller-Putz, G. R. (2016). On Similarities and Differences of
Invasive and Non-Invasive Electrical Brain Signals in Brain-Computer Interfacing. Journal
of Biomedical Science and Engineering, 09 (08), 393. doi: 10.4236/jbise.2016.98034
Suarjaya, I. M. A. D. (2012, March). A New Algorithm for Data Compression Optimization.
International Journal of Advanced Computer Science and Applications (IJACSA), 3 (8).
doi: 10.14569/IJACSA.2012.030803
Sun, L., Liu, Y., & Beadle, P. (2005, May). Independent component analysis of EEG signals. In
Proceedings of 2005 IEEE International Workshop on VLSI Design and Video Technology,
2005. (pp. 219–222). doi: 10/c8q6qt
Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., . . . Rabinovich, A. (2015,
June). Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision
and Pattern Recognition (CVPR) (pp. 1–9). doi: 10.1109/CVPR.2015.7298594
Tan, C., Sun, F., Kong, T., Zhang, W., Yang, C., & Liu, C. (2018). A Survey on Deep Transfer
Learning. In V. K ̊urkov ́a, Y. Manolopoulos, B. Hammer, L. Iliadis, & I. Maglogiannis
(Eds.), Artificial Neural Networks and Machine Learning – ICANN 2018 (pp. 270–279).
Cham: Springer International Publishing. doi: 10.1007/978-3-030-01424-7 27
Tangermann, M., M ̈uller, K.-R., Aertsen, A., Birbaumer, N., Braun, C., Brunner, C., . . .
Blankertz, B. (2012). Review of the BCI Competition IV. Frontiers in Neuroscience,
6 , 55. doi: 10/ghhvkk
Tayeb, Z., Fedjaev, J., Ghaboosi, N., Richter, C., Everding, L., Qu, X., . . . Conradt, J. (2019,
January). Validating Deep Neural Networks for Online Decoding of Motor Imagery Move-
ments from EEG Signals. Sensors, 19 (1), 210. doi: 10/ggkz2j
83Thomson, D. (1982, September). Spectrum estimation and harmonic analysis. Proceedings of
the IEEE , 70 (9), 1055–1096. doi: 10.1109/PROC.1982.12433
Townsend, G., LaPallo, B. K., Boulay, C., Krusienski, D., Frye, G. E., Hauser, C. K., . . .
Sellers, E. (2010). A novel P300-based brain–computer interface stimulus presentation
paradigm: Moving beyond rows and columns. Clinical Neurophysiology. doi: 10.1016/
j.clinph.2010.01.030
Turnip, A., & Junaidi, E. (2014, August). Removal artifacts from EEG signal using independent
component analysis and principal component analysis. In 2014 2nd International Confer-
ence on Technology, Informatics, Management, Engineering Environment (pp. 296–302).
doi: 10/gnbc98
Uusitalo, M. A., & Ilmoniemi, R. J. (1997, March). Signal-space projection method for separating
MEG or EEG into components. Medical and Biological Engineering and Computing, 35 (2),
135–140. doi: 10/dd6tm7
van de Laar, B., G ̈urk ̈ok, H., Plass-Oude Bos, D., Poel, M., & Nijholt, A. (2013, June). Experi-
encing BCI Control in a Popular Computer Game. IEEE Transactions on Computational
Intelligence and AI in Games, 5 (2), 176–184. doi: 10.1109/TCIAIG.2013.2253778
van Dokkum, L. E. H., Ward, T., & Laffont, I. (2015, February). Brain computer interfaces for
neurorehabilitation – its current status as a rehabilitation strategy post-stroke. Annals of
Physical and Rehabilitation Medicine, 58 (1), 3–8. doi: 10/gjgt4f
van den Oord, A., Li, Y., & Vinyals, O. (2019, January). Representation Learning with Con-
trastive Predictive Coding. arXiv:1807.03748 [cs, stat] .
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., . . . Polosukhin, I.
(2017). Attention is All you Need. In Advances in Neural Information Processing Systems
(Vol. 30). Curran Associates, Inc.
Vidal, J. J. (1973). Toward Direct Brain-Computer Communication. Annual Review of Bio-
physics and Bioengineering, 2 (1), 157–180. doi: 10/ffs9t3
Vilela, M., & Hochberg, L. R. (2020). Applications of brain-computer interfaces to the control
of robotic and prosthetic arms. Handbook of Clinical Neurology, 168 , 87–99. doi: 10.1016/
B978-0-444-63934-9.00008-1
Waldert, S. (2016). Invasive vs. Non-Invasive Neuronal Signals for Brain-Machine Interfaces:
Will One Prevail? Frontiers in Neuroscience, 10 .
Wang, F., Jiang, M., Qian, C., Yang, S., Li, C., Zhang, H., . . . Tang, X. (2017, July). Residual
Attention Network for Image Classification. In 2017 IEEE Conference on Computer Vision
and Pattern Recognition (CVPR) (pp. 6450–6458). doi: 10.1109/CVPR.2017.683
Wang, H., Li, Y., Long, J., Yu, T., & Gu, Z. (2014, October). An asynchronous wheelchair
control by hybrid EEG–EOG brain–computer interface. Cognitive Neurodynamics, 8 (5),
399–409. doi: 10/gc6vxq
Wang, Z., Song, Y., & Zhang, C. (2008). Transferred Dimensionality Reduction. In W. Daele-
mans, B. Goethals, & K. Morik (Eds.), Machine Learning and Knowledge Discovery in
Databases (pp. 550–565). Berlin, Heidelberg: Springer. doi: 10.1007/978-3-540-87481-2 36
Wei, J., & Zou, K. (2019). EDA: Easy Data Augmentation Techniques for Boosting Performance
on Text Classification Tasks. EMNLP . doi: 10.18653/v1/D19-1670
84Weisberg, S. (1980). Maximum Likelihood Estimation. In Applied Linear Regression (pp. 309–
312). New York, NY: Wiley.
Welch, P. (1967, June). The use of fast Fourier transform for the estimation of power spectra:
A method based on time averaging over short, modified periodograms. IEEE Transactions
on Audio and Electroacoustics, 15 (2), 70–73. doi: 10/fjndmb
Wermter, S., Riloff, E., & Scheler, G. (Eds.). (1996). Connectionist, statistical, and symbolic
approaches to learning for natural language processing (Vol. 1040). Springer. doi: 10.1007/
3-540-60925-3
Winograd, T. (1971). Procedures as a representation for data in a computer program for under-
standing natural language. M.I.T. Project MAC.
Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., . . . Rush, A. M. (2020,
October). Transformers: State-of-the-art natural language processing. In Proceedings of
the 2020 conference on empirical methods in natural language processing: System demon-
strations (pp. 38–45). Online: Association for Computational Linguistics.
Wolpaw, J., Birbaumer, N., Heetderks, W., McFarland, D., Peckham, P., Schalk, G., . . .
Vaughan, T. (2000, June). Brain-computer interface technology: A review of the first
international meeting. IEEE Transactions on Rehabilitation Engineering, 8 (2), 164–173.
doi: 10/dz4238
Wolpaw, J. R., McFarland, D. J., Neat, G. W., & Forneris, C. A. (1991, March). An EEG-
based brain-computer interface for cursor control. Electroencephalography and Clinical
Neurophysiology, 78 (3), 252–259. doi: 10/bj36jg
Wu, P., & Dietterich, T. G. (2004, July). Improving SVM accuracy by training on auxiliary data
sources. In Proceedings of the twenty-first international conference on Machine learning
(p. 110). New York, NY, USA: Association for Computing Machinery. doi: 10.1145/
1015330.1015436
Wyler, A. R. (1987). Electrocorticography. In H. G. Wieser & C. E. Elger (Eds.), Presurgical
Evaluation of Epileptics (pp. 183–191). Berlin, Heidelberg: Springer. doi: 10.1007/978-3
-642-71103-9 31
Xu, G., Shen, X., Chen, S., Zong, Y., Zhang, C., Yue, H., . . . Che, W. (2019). A Deep Transfer
Convolutional Neural Network Framework for EEG Signal Classification. IEEE Access, 7 ,
112767–112776. doi: 10.1109/ACCESS.2019.2930958
Xu, J., Mitra, S., Van Hoof, C., Yazicioglu, R. F., & Makinwa, K. A. A. (2017). Active Elec-
trodes for Wearable EEG Acquisition: Review and Electronics Design Methodology. IEEE
Reviews in Biomedical Engineering, 10 , 187–198. doi: 10.1109/RBME.2017.2656388
Yamins, D., Hong, H., Cadieu, C., Solomon, E., Seibert, D., & DiCarlo, J. (2014). Performance-
optimized hierarchical models predict neural responses in higher visual cortex. Proceedings
of the National Academy of Sciences. doi: 10.1073/pnas.1403112111
Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). XLNet:
Generalized Autoregressive Pretraining for Language Understanding. In NeurIPS.
Yger, F., Berar, M., & Lotte, F. (2017, October). Riemannian Approaches in Brain-Computer
Interfaces: A Review. IEEE Transactions on Neural Systems and Rehabilitation Engineer-
ing, 25 (10), 1753–1762. doi: 10.1109/TNSRE.2016.2627016
85Yildiz, K. A., Shin, A. Y., & Kaufman, K. R. (2020, March). Interfaces with the peripheral
nervous system for the control of a neuroprosthetic limb: A review. Journal of NeuroEngi-
neering and Rehabilitation, 17 (1), 43. doi: 10/gh6458
Ying, X. (2019). An Overview of Overfitting and its Solutions. Journal of Physics: Conference
Series. doi: 10.1088/1742-6596/1168/2/022022
Yogatama, D., d’Autume, C. d. M., Connor, J. T., Kocisk ́y, T., Chrzanowski, M., Kong, L., . . .
Blunsom, P. (2019). Learning and Evaluating General Linguistic Intelligence. ArXiv .
Yosinski, J., Clune, J., Nguyen, A., Fuchs, T., & Lipson, H. (2015). Understanding neural
networks through deep visualization. arXiv preprint arXiv:1506.06579 .
Young, C., Liang, S.-F., Chang, D., Liao, Y.-C., Shaw, F., & Hsieh, C.-H. (2011). A Portable
Wireless Online Closed-Loop Seizure Controller in Freely Moving Rats. IEEE Transactions
on Instrumentation and Measurement. doi: 10.1109/TIM.2010.2050358
Zabidi, A., Mansor, W., Lee, Y. K., & Che Wan Fadzal, C. W. N. F. (2012, September). Short-
time Fourier Transform analysis of EEG signal generated during imagined writing. In 2012
International Conference on System Engineering and Technology (ICSET) (pp. 1–4). doi:
10/gnbc92
Zadrozny, B. (2004, July). Learning and evaluating classifiers under sample selection bias. In
Proceedings of the twenty-first international conference on Machine learning (p. 114). New
York, NY, USA: Association for Computing Machinery. doi: 10.1145/1015330.1015425
Zamir, A. R., Sax, A., Shen, W., Guibas, L. J., Malik, J., & Savarese, S. (2018). Taskonomy:
Disentangling Task Transfer Learning. In Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition (pp. 3712–3722).
Zanini, P., Congedo, M., Jutten, C., Said, S., & Berthoumieu, Y. (2018, May). Transfer Learning:
A Riemannian Geometry Framework With Applications to Brain–Computer Interfaces.
IEEE Transactions on Biomedical Engineering, 65 (5), 1107–1116. doi: 10.1109/TBME
.2017.2742541
Zeiler, M. D., & Fergus, R. (2014). Visualizing and Understanding Convolutional Networks. In
D. Fleet, T. Pajdla, B. Schiele, & T. Tuytelaars (Eds.), Computer Vision – ECCV 2014 (pp.
818–833). Cham: Springer International Publishing. doi: 10.1007/978-3-319-10590-1 53
Zhang, H., Goodfellow, I., Metaxas, D., & Odena, A. (2019, May). Self-Attention Generative
Adversarial Networks. In Proceedings of the 36th International Conference on Machine
Learning (pp. 7354–7363). PMLR.
Zhang, R. (2019). Making Convolutional Networks Shift-Invariant Again. ICML.
Zhang, X., Yao, L., Huang, C., Sheng, Q. Z., & Wang, X. (2017). Intent Recognition in
Smart Living Through Deep Recurrent Neural Networks. In ICONIP. doi: 10.1007/
978-3-319-70096-0 76
Zhang, X., Yao, L., Sheng, Q. Z., Kanhere, S. S., Gu, T., & Zhang, D. (2018, March). Converting
Your Thoughts to Texts: Enabling Brain Typing via Deep Feature Learning of EEG Signals.
In 2018 IEEE International Conference on Pervasive Computing and Communications
(PerCom) (pp. 1–10). doi: 10.1109/PERCOM.2018.8444575
Zhang, X., Yao, L., Zhang, S., Kanhere, S., Sheng, M., & Liu, Y. (2019). Internet of Things Meets
Brain–Computer Interface: A Unified Deep Learning Framework for Enabling Human-
86Thing Cognitive Interactivity. IEEE Internet of Things Journal . doi: 10.1109/JIOT.2018
.2877786
Zhang, Y., Nam, C. S., Zhou, G., Jin, J., Wang, X., & Cichocki, A. (2019, September). Tempo-
rally Constrained Sparse Group Spatial Patterns for Motor Imagery BCI. IEEE Transac-
tions on Cybernetics, 49 (9), 3322–3332. doi: 10.1109/TCYB.2018.2841847
Zhuang, F., Qi, Z., Duan, K., Xi, D., Zhu, Y., Zhu, H., . . . He, Q. (2021, January). A
Comprehensive Survey on Transfer Learning. Proceedings of the IEEE , 109 (1), 43–76. doi:
10.1109/JPROC.2020.3004555
Zoph, B., Ghiasi, G., Lin, T.-Y., Cui, Y., Liu, H., Cubuk, E. D., & Le, Q. (2020). Rethinking
pre-training and self-training. In H. Larochelle, M. Ranzato, R. Hadsell, M. Balcan, &
H. Lin (Eds.), Advances in neural information processing systems (Vol. 33, pp. 3833–3845).
Curran Associates, Inc.

Universiteit of Hogeschool
Master in de Ingenieurswetenschappen: Computerwetenschappen
Publicatiejaar
2022
Promotor(en)
Prof. Dr. Kevin De Pauw, Prof. Dr. Geraint Wiggins
Kernwoorden
wolfdewulf
Share this on: