1.一种基于生成对抗网络的稀疏码本多址编解码系统,其特征在于:所述稀疏码本多址编解码系统包括SCMA TPGAN系统的编码端和SCMA TPGAN系统解码端;
所述SCMA TPGAN系统的编码端,使用Transformer作为生成对抗网络模型的生成器,所述Transformer模型包含一个编码器和一个解码器,Transformer中的编码器和解码器分别包含6个相同的层,位于编码器中的层,由一个自注意力子层和一个前向神经网络子层组成;
所述SCMA TPGAN系统解码端为卷积神经网络作为生成对抗网络模型的判别器,所述判别器网络由卷积层、批归一化层、激活层和最大池化层交替构成;
Transformer编码器的算法包括以下步骤:
S1、将数据向量矩阵词嵌入得到t=[t1,t2…,tn],经过位置编码,用不同频率的sin函数和cos函数直接计算,输入词嵌入向量t=[t1,t2…,tn]加上位置编码x=[x1,x2,…,xn]所得到加入位置信息的词嵌入仍然记为x=[x1+t1,x2+22,…,xn+tn],向量x就是Trasformer的输入;
S2、将向量x输入层,head数为2,此时的Mulit Head(Q,K,V)记为Z的维数是n×dmodel与X的维数一样,dmodel设置的是向量Query、Key和Value的维数;每个批次输入序列长度是不一致的,长度不足的序列需要用0进行填充,使不同长度的序列进行对齐,在模型设计中使用“Padding Mask”方式实现,即对需要填充的位置赋予一个负无穷大的数值,这样经Soft max函数计算后结果就是一个趋近0的值,不会影响Attention的结果;
S3、利用残差网络和层归一化调整特征信息以提高系统的准确度,进入Add&Norm,通过一次残差连接和层归一化,得到的结果仍然记为x;
S4、先升维度,变换为更高维度进行提取特征,再降维度;
S5、再进入Add&Norm,通过一次残差网络和层归一化调整特征值作为Transformer编码器的最终输出值,作为编码器的输出,仍记为x,并作为下一个编码器的输入,模型总共设计
6个编码器堆叠,最后也就是最上层编码器输出值记为x;
S6、对输出的结果x做全连接,经Soft max变换之后,得到词典库上的概率分布,输出最大的概率,并与真实值进行交叉熵损失函数,得到与真实值的差距值,并利用优化算法进行训练;
所述SCMA TPGAN系统解码端基于PatchGAN网络来设计鉴别网络模型,将PatchGAN设计成全卷积的形式,当信号经过各层卷积后,不会直接输入到全连接层或者是激活函数中,需使用卷积将输入映射为N*N的矩阵;
所述矩阵中的每一个元素只有正确的或者是生成的这两种选择;
所述Transformer的核心为多头注意力层,多头注意力是基于放缩点积注意力,注意力机制描述为一个查询(Query)到一组键值对的映射,计算表达式为Attention(Q,K,V)=Tsoftmak(QK)V;
所述Q是Query的嵌入矩阵;所述K是Key的嵌入矩阵;所述V是每个Key对应的Value组成的矩阵; 表示缩放因子。
2.根据权利要求1所述的基于生成对抗网络的稀疏码本多址编解码系统,其特征在于:所述Transformer模型是基于编码器-解码器的构架,构架是由编码组件、解码组件和连接层组成。
3.根据权利要求2所述的基于生成对抗网络的稀疏码本多址编解码系统,其特征在于:所述编码器包括自注意力机制层和前馈神经网络层。
4.根据权利要求3所述的基于生成对抗网络的稀疏码本多址编解码系统,其特征在于:所述解码组件由六个完全一样的层组成,所述解码器同样有着两个子层,在解码器中,两个子层间增加了一个Masked多头注意力层,解码到当前位置时,对解码器输入当前位置之前的信息保留,当前位置之后的信息进行屏蔽。
5.根据权利要求1所述的基于生成对抗网络的稀疏码本多址编解码系统,其特征在于:所述卷积层和最大池化层的步幅均设置为2。