本节将通过NMSE性能进行仿真分析,验证算法的性能。仿真过程中,训练集、验证集和测试集个数分别为100 000、30 000和20 000,batch_size为K=200,epochs为1 000,学习率为0.001。此外,在压缩和解压缩模块的LSTM-Attention模块中分别设置6个LSTM单元。
图9-11 LSTM-Attention CsiNet、Reduced LSTM-Attention CsiNet与主流算法的NMSE性能的比较(在室内条件下)(www.xing528.com)
此外,在相同的实验条件下,轻量级的Reduced LSTM-Attention CsiNet信道反馈系统的测试结果如图9-11和图9-12所示。对于室内场景,与其他主流算法相比,Reduced LSTM-Attention CsiNet的NMSE性能更好,其中曲线比CsiNet小1~3 d B。对于室外场景,Reduced LSTM-Attention CsiNet的性能也较好,比CsiNet的性能好0.5~2 d B。Reduced LSTM-Attention CsiNet的压缩和解压模块中的FCN作为一个跳转连接网络,保持LSTM-Attention模块输入和输出的维数不变,从而减少了网络中训练参数的数量,最终降低了反馈网络的计算复杂度。
图9-12 LSTM-Attention CsiNet、Reduced LSTM-Attention CsiNet与主流算法的NMSE性能的比较(在室外条件下)
LSTM-Attention CsiNet和轻量级Reduced LSTM-Attention CsiNet两种网络的性能相比,后者要次于前者。这是因为,FCN将提取的特征向量的大小从N维压缩到M维,导致一些特征信息丢失,所以轻量级网络Reduced LSTM-Attention CsiNet的性能不如LSTM-Attention CsiNet。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。