融合Transformer网络与卷积神经网络的稳态运动视觉诱发电位解码方法
针对卷积神经网络(CNN)在感受野有限、缺乏对全局信息的有效感知,以及在处理短时稳态运动视觉诱发电位(SSMVEP)信号时分类效果欠佳的问题,提出了一种紧凑EEGNet-Transformer(即EEGNetformer)网络。EEGNetformer网络融合了为脑电(EEG)信号识别任务而设计的通用的卷积神经网络EEGNet网络和Transformer网络的优势,有效地捕捉与处理脑电信号中的局部和全局信息,增强网络对SSMVEP特征的学习,进而实现良好的解码性能。EEGNet网络用于提取SSMVEP的局部时间和空间特征,而Transformer网络用于捕捉脑电时间序列的全局信息。在基于SSMVEP-BCI范式采集的数据基础上,开展了实验以评估EEGNetformer网络的性能。实验结果显示,当在2 s SSMVEP数据条件下,EEGNetformer网络在基于被试者内情况的平均准确率为88.9%±6.6%,在基于跨被试者情况的平均准确率为69.1%±4.3%。与传统的CNN算法相比,EEGNetformer网络的分类性能提升了4.2%~17.4%。研究内容说明,EEGNetformer网络在有效提高SSMVEP-BCI识别准确率方面具有显著优势,为进一步提升SSMVEP-BCI解码性能提供了新的研究思路。
西安交通大学学报
2025年05期
立即查看 >
图书推荐
相关工具书