1.一种云用户身份识别任务分配与并行处理方法,其特征在于,包括以下步骤:S1,移动终端使用摄像头收集人脸图像,人脸图像以三元组(TS,AC,TM)表示,其中,TS,AC,TM依次代表任务的数据量、任务的计算量、任务的最大容忍时间,边缘节点以三元组(C,S,P)表示,其中C,S,P依次表示边缘节点的计算能力、边缘节点的总存储量、边缘节点的网络带宽;
S2,采用改进的灰狼优化算法求解身份识别任务与边缘服务器分配问题;
S3,对系统获取的原始图像进行图像预处理和人脸特征提取;
S4,构建并行处理模型,引入二级边缘服务器;
S5,使用K‑means聚类算法并行策略,根据某一属性,对特征进行聚类,并均匀分配到各个子特征中,以保证各子特征中的个体属性相似度达到较低,缩小各子特征间的差异,增加获得该问题最优解的机会;
S6,结合基于Sarsa算法和Q‑learning算法的参数自学习策略与遗传算法的并行策略,实现身份识别任务的并行处理。
2.根据权利要求1所述一种云用户身份识别任务分配与并行处理方法,其特征在于:步骤S2所述改进的灰狼优化算法在传统灰狼优化算法的基础上进行了以下改进:‑t/T
1)指数规律收敛因子调整策略:采用以下公式调整收敛因子b,b=2e ,t表示当前迭代次数,T表示设定的最大迭代次数;
2)自适应位置更新策略:当前灰狼个体到α,β,δ之间的距离权重分别为:其中,ε为常数,α,β,δ表示等级制度,α是领导者和决策制定者,β和δ帮助α做决策;X1,X2,X3分别表示灰狼个体朝向α,β,δ三者的移步距离;
最终,用下式表示灰狼的位置更新方式:
表示ω狼迭代后的位置;
3)判断猎物:添加了判断猎物过程,判断猎物的数学模型如下:判断猎物的过程需要使用中间向量Jα,Jβ,Jδ,并将Xα,Xβ,Xδ赋值给Jα,Jβ,Jδ;
Jα=Xα
Jβ=Xβ
Jδ=Xδ
每个维度的Jα,Jβ,Jδ的更新公式为:
其中, 表示第j个ω狼的第i维度的位置值;必须将Jα,Jβ,Jδ的第i维度替换为然后比较Jα和Xα的位置,如果Jα比Xα的位置好,则将Jα的位置赋值给Xα,否则的话,Xα不改变;Xβ和Xδ重复相同操作, 表示第i维度Jα,Jβ,Jδ的值。
3.根据权利要求1所述一种云用户身份识别任务分配与并行处理方法,其特征在于:所述步骤S4中构建并行处理问题的数学模型:
1)决策变量
Ck,j=边缘节点j上第k位置任务所需时间k={1,2,...,n},j={1,2,...,m}
2)优化目标
min Cmax=Cn,m
其中Cn,m表示特征n从一级服务器分配到二级边缘服务器m上的完成时间;Cmax表示最大完成时间;
3)约束条件
保证了一个位置只能被一个任务占用:
控制了第一个和后面边缘节点完成所有分配任务的时间:确保任务上一个子特征已完成且将上一个任务分配给边缘节点也已完成:决策变量取值范围的保证:
Ck,j≥0,k={1,2,...,n},j={1,2,...,m}Xi,k∈{0,1},j,k={1,2,...,n}式中,n表示特征数目,m表示二级边缘服务器数目;ti,j表示任务特征i在一级边缘节点分配给二级边缘节点j所需时间。
4.根据权利要求1所述一种云用户身份识别任务分配与并行处理方法,其特征在于:步骤S5所述K‑means聚类算法的并行策略包括:
1)定义数据:初始化随机产生的一组数量为N的种群,每个个体是条染色体,将其视为一条数据,构成大小为N的数据集P;
2)聚类:用原始K‑means聚类方法,获得结果,及每个个体归属的类别;
(1) (2) (k)
3)调整:将每个个体放置于它们归属的类中,这样就获得了{{C ,C ,...,C }}共k(1) (2)个子类的集合,再将这些子类按顺序放置,即新的数据集={{C 中的数据,C 中的数(k)据,...,C 中的数据}},也就构成新的种群newP;
4)划分子种群:在调整后的种群newP中,分为k个子种群,第一个子种群的构成为{newP[1],newP[1+k],newP[1+2k],...,newP[‑k]},以此类推,共划分为k个子种群。
5.根据权利要求1所述一种云用户身份识别任务分配与并行处理方法,其特征在于:所述步骤S6具体是,利用K‑means初始化种群后,再针对不同的子种群采取不同的参数策略,对于满足强化学习转换条件的子种群,使用Sarsa算法的参数自学习策略,实现参数的自主控制和自适应;不满足条件的子种群,则采用Q‑learning的参数自学习策略,从而实现多策略并行计算。
6.根据权利要求1或5所述一种云用户身份识别任务分配与并行处理方法,其特征在于:结合Q‑learning算法和Sarsa算法的混合学习策略,在不同阶段应用不同的强化学习算法,具体步骤如下所示:Step1:为每个状态‑动作初始化Q值表;
Step2:获得当前状态St,S←St;
Step3:根据转换条件,使用Sarsa算法或Q‑learning算法从状态s中选择动作集中的动作a;
Step4:执行动作a;
Step5:根据调整交叉率得到的奖励和调整变异率得到的奖励获得强化奖励r,并得到新状态St+1;
Step6:如果达到GA算法的终止状态则终止进程,否则,继续步骤7;
Step7:根据Sarsa算法或Q‑learning算法更新Q值;
Step8:更新状态S←St+1
Step9:确定是否满足转化条件,满足的话,转化Sarsa算法为Q‑learning算法并转向步骤2,否则的话,直接转向步骤2。
7.根据权利要求6所述一种云用户身份识别任务分配与并行处理方法,其特征在于:在初始阶段,将Sarsa算法与GA算法结合并通过下式更新Q值;
Q(st,at)←(1‑α)Q(st,at)+α(rt+1+γQ(st+1,at+1))式中,Q(st,at)为在当前状态St采取动作at的Q值,rt+1是在状态St执行动作at后的奖赏值,γ是折扣率,Q(st+1,at+1)为在当前状态St+1采取动作at+1的Q值,α是学习率;
若满足以下转换条件,则将Sarsa算法转换为Q‑learning算法;
式中,Nti表示当前迭代数,Nts表示状态总数,Nta表示动作总数;RL表示强化学习算法。
初始阶段结束后,Q‑learning算法取代Sarsa算法与GA算法结合,由下式更新Q值;
式中, 表示当状态St+1执行动作at+1时在Q值表中最高的Q值。
8.根据权利要求6所述一种云用户身份识别任务分配与并行处理方法,其特征在于:还包括
1.状态集:从以下三方面构建,包括:1)种群的平均适应度,2)种群多样性,3)最佳个体适应度;
第一代种群平均适应度归一化后得到的种群的平均适应度由下式计算:第一代种群多样性归一化后得到的种群多样性由下式计算:第一代种群最佳个体适应度归一化后得到的最佳个体适应度:种群状态值由种群平均适应度,种群多样性,最佳个体适应度加权计算:* * * *
S=w1f+w2d+w3m
式中, 表示第t代第i个体的适应度, 表示第一代第i个体的适应度, 表示第一代第j个体的适应度, 表示第t代最佳个体适应度,w1,w2,w3是权重因子且w1+w2+w3=1;
2.动作集:每代代理人会采取不同的动作获得适当的Pc和Pm,当动作设置为a1时,Pc∈[0.4,0.45),并在这个范围内取一个随机值;当动作设置为a2时,Pc∈[0.45,0.5),当动作设置为a2时,Pm∈[0.01,0.03)并在这个范围内取一个随机值,其中a1表示动作1,a1表示动作
2;
3.奖励方法:如果第t代的最佳个体适应度比第t‑1代的要好,那么代理人获得奖励并且当前的Pc是有效的,如果第t代的平均适应度比第t‑1代的要好,那么代理人获得奖励并且当前的Pm是有效的;
调整交叉率得到的奖励:
调整变异率得到的奖励:
式中, 表示第t代第i个体的适应度。
4.动作选择策略:探索未知的环境并利用获得的知识指导代理人选择动作,初始时,所有的Q值都为0,这意味着代理人没有任何学习经验可以使用,只有探索可以执行和学习。