下书网

故事栏目

外国小说文学理论侦探推理惊悚悬疑传记回忆杂文随笔诗歌戏曲小故事
下书网 > 小故事

基于CNN-GRU和CA-VGG特征融合的调制识别模型

时间:2023-04-12 11:52:55

基于CNN-GRU和CA-VGG特征融合的调制识别模型一文创作于:2023-04-12 11:52:55,全文字数:20494。

基于CNN-GRU和CA-VGG特征融合的调制识别模型

量的参数,且对于分类没有明显帮助,去掉一层全连接层(FC,Fully Connected)来减少训练参数,进而提高了训练效率。本文增加了输入特征的维度,为防止过拟合,在FC层后面加入dropout,最后通过Softmax层进行最终的分类,由于本文采用的RadioML2016.10a数据集有11种调制信号,因此最终的输出是对应于11类调制信号的概率。

(1)坐标注意力机制

坐标注意力模块的本质是采用通道注意力机制,通过深度学习的方式自动获取图像各个特征通道的权重,来进一步增强特征中有用的部分并抑制特征中无用部分。坐标注意力机制灵活且轻量并有很强的通用性,可以方便地嵌入到其他常见的网络模型中。

坐标注意力作为一种高效的注意力机制,不仅可以对通道间的信息进行了获取,同时也考虑了方向相关的位置信息。具体的实现步骤如下:

第一步将坐标信息嵌入到通道注意力中,对于一个维度为(C,H,W)的输入,其中的C、H、W分别为输入特征图的通道数、高度和宽度,首先通过式(5)将输入特征的一个通道分别沿着X和Y两个方向进行特征聚合,高效地将空间坐标信息整合到注意力图中。

高度为h的第c个通道的输出如公式(6)所示:

同样地,宽度为w的第c个通道的输出如公式(7)所示:

第二步坐标注意力的生成通过拼接两个方向的坐标信息,然后通过式(8)对拼接后的信息依次进行卷积、正则化和非线性激活等操作。

其中,δ为非线性激活函数,F1是卷积变换函数。再将得到的f沿水平方向和垂直方向分解为fh、fw,并对两个张量分别进行卷积变换和非线性激活,如式(9)和式(10)所示:

其中,Fh和Fw分别为对fh和fw的卷积变换函数,σ是Sigmoid激活函数。最后通过矩阵相乘的方法来求最终的注意力权重矩阵,经过yc(i,j)坐标注意力模块的输出如式(11)所示:

坐标注意力模块结构如图4所示:

图4 坐标注意力机制机制

2.3 CNN-GRU模块

CNN作为近年来最常用的人工神经网络,由于其良好的特征提取特性,开始应用于通信信号调制识别领域。2014年文献[13]提出了一种全新的门控循环单元GRU,GRU网络是LSTM网络的一种变体,成功应用在语音识别、自然语言处理等领域中。Chung等[14]对GRU和LSTM做了详细比较,GRU网络的作用与LSTM网络的效果相似,都可以解决循环神经网络(RNN,Recurrent Neural Network)中存在的梯度消失或梯度爆炸问题,但与LSTM相比GRU的网络结构更简单,有着更高的计算效率和处理速度。

一个调制信号的时间序列具有时序依赖关系,GRU能够学习到这种依赖关系。通过建立多个GRU单元,使GRU网络能够学习到不同调制信号的变化趋势。因此,本文将CNN神经网络与GRU神经网络相结合,建立的CNN-GRU网络结构如图5所示:

图5 CNN-GRU网络结构

首先原始I/Q数据通过式(12)进行归一化操作,得到的矩阵中每个点的值都在0和1之间。然后,将I/Q数据转换得到的A/P数据通过式(13)也进行归一化为操作,将得到弧度的相位归一化到-1和+1之间,并将I/Q和A/P数据一并作为输入送到CNN-GRU模块中。

式中SI(t),SQ(t)分别为I/Q通道信号,A(t)为瞬时幅度。

网络结构部分由2个一维卷积层、2个最大池化层和2个GRU层级联构成。首先通过卷积神经网络对信号的I/Q和A/P数据进行卷积处理来初步提取特征,再进行最大池化操作,以减少特征图的尺寸。之后通过改变卷积核大小,再对信号进行一次卷积和最大池化操作来完成对输入数据的深层特征的提取,然后将特征输入到两层GRU网络层中对时间序列具有的时序的依赖关系进行提取,再把特征输入到全连接层中并采用Softmax激活函数进行归一化操作,最后输出11类调制信号的概率。

2.4 模型融合

为了取得更好的分类效果,将多种模型合并形成集合,并研究融合模型对分类的影响。将每个模型得到的结果通过平均最终的分类概率来累积。这一阶段的广义详细工作如下:设有n个模型{P1,P2,P3,...,Pn},每个模型对m个信号中的每个信号识别的最终概率如式(14)所示:

式中,cnm表示模型n中第m个信号的识别概率。融合模型的最终识别率Pfinal可由式(15)描述:

其中pn为模型n的权重,且p1+p2+,...,+pn=1。

本文的MFF网络模型是基于CA-VGG模块和CNNGRU模块的融合模型。首先通过CA-VGG模型对星座图数据进行训练并预测,在训练过程中通过优化其学习率、激活函数等参数使得模型效果达到最优;然后构建CNN-GRU模型,通过调整卷积核、步长等参数优化模型效果;再进行模型融合。通过不同模型对星座图数据和A/P、I/Q数据进行训练,充分利用了不同类型数据的互补性,最后将两个模型信号调制识别的概率值进行加权求和获得融合模型的预测概率。

式中,pm为融合模型的预测概率,pc和pv表示分别使用CNN-GRU和CA-VGG的预测概率。

3 仿真实验及结果分析

3.1 数据集及参数设置

为了验证本文算法的性能,这里选用RadioML2016.10a[8]数据集进行实验,该数据集中共有220 000个信号样本,一共包括以下11种常见的调制信号(AM-DSB、AMSSB、WBFM、8PSK、CPFSK、GFSK、PAM4、QAM16、QAM64、QPSK)。其中的每个信号样本由128×2的IQ两路信号构成,信噪比从-20 dB到18 dB以每2 dB递进,数据集的数据形式为220 000×2×128。最后把训练集、测试集和验证集按照6:2:2的比例进行训练、测试和验证。

实验使用了Python3.7 作为编程语言,以及Tensorflow2.2的Keras库来搭建神经网络训练,使用NVIDIA GeForce GTX 3060设备进行训练和测试。本文具体的软件及参数设置如表1所示:

表1 实验参数详细信息

3.2 消融实验

为验证MFF网络中各模块对网络模型的影响,本节在RadioML2016.10a数据集上,使用4种模型进行消融实验。这里选用分类准确率作为评价指标,结果如表2所示。图6展示了不同信噪比下各网络模型识别准确率。首先使用CNN-GRU+VGG网络模型做基础网络架构并采用I/Q数据和星座图作为输入,识别率为60.9%。保持输入一致的情况下,在VGG的基础上加入CA注意力机制模块,得到的CNN-GRU+CA-VGG模型准确率较CNNGRU+VGG模型提升1.2%。保持CNN-GRU+VGG的网络架构不变并增加A/P数据作为CNN-GRU-1的输入,识别准确率较CNN-GRU+VGG模型提升0.9

提醒您:因为《基于CNN-GRU和CA-VGG特征融合的调制识别模型》一文较长还有下一页,点击下面数字可以进行阅读!

《基于CNN-GRU和CA-VGG特征融合的调制识别模型》在线阅读地址:基于CNN-GRU和CA-VGG特征融合的调制识别模型

热门书籍

热门书评

推荐小故事