欢迎来到利索能及~ 联系电话:18621327849
利索能及
我要发布
收藏
专利号: 2019101384209
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-10-29
缴费截止日期: 暂无
联系人

摘要:

权利要求书:

1.一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,该方法具体为:在内容服务时延和网络切片服务等级协议(Service‑LevelAgreement,SLA)约束下以最大化系统长期平均效用为目标进行的联合资源分配和内容缓存决策,在每个离散时隙内,根据当前时刻边缘雾节点的内容请求虚拟队列长度状态、前传链路和无线接入链路传输内容的数据率的信息以及对未来网络状态的估计,在无线资源容量限制和缓存容量限制内为每个网络切片分配合适的无线资源并做出内容缓存策略;

边缘雾节点的内容请求虚拟队列为:能动态地反映不同内容的需求,为网络切片服务的情况以及相应的内容服务时延约束;满足所述内容服务时延约束为:保证每个边缘雾节点服务网络切片的内容请求的长期平均时延不大于某个时延上限,以此避免网络切片的内容请求无限堆积导致网络切片的某些内容请求被丢弃的情况;其中,所述的长期平均时延为:边缘雾节点的内容请求虚拟队列在长时间上求平均后的队列长度;

网络切片SLA约束为:保证每个网络切片所分配到的长期平均无线资源不小于该网络切片的最小需求;其中,所述的长期平均无线资源为:网络切片所分配到的无线资源在长时间求平均后的无线资源数量;

联合资源分配和内容缓存决策为:在每个离散时隙动态地为网络切片分配无线资源以及调整边缘雾节点内容缓存策略且满足所述无线资源容量限制和内容缓存容量限制,具体步骤为:

1)在每个离散时隙开始时,收集上一时隙各网络切片新到达的内容需求量和当前时隙前传链路和无线接入链路传输内容的数据率信息;

2)更新当前时隙的决策前边缘雾节点的内容请求虚拟队列状态信息;

3)根据贝尔曼方程确定当前时隙最优资源分配和内容缓存的策略,并获得一个瞬时报酬;其中,所述策略π为当系统处于任一状态时,系统对当前状态采取行动,其行动空间需满足所述无线资源容量限制和内容缓存容量限制;所述瞬时报酬为内容缓存带来的收益与租用无线资源的成本之间的差;所述贝尔曼方程为当前时隙的决策前状态值函数等于采取资源分配和内容缓存的策略获得的瞬时报酬值与折扣因子乘以决策后状态值函数之和的最大值。

2.根据权利要求1所述的一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,所述无线资源容量限制为:保证在每一离散时隙内,分配给网络切片的无线资源之和不超过网络中所拥有的无线资源总量;

所述缓存容量限制为:保证在每一离散时隙内,边缘雾节点缓存内容总量不超过其缓存容量。

3.根据权利要求1所述的一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,所述边缘雾节点的内容请求虚拟队列更新公式为:Qnf(t+1)=max{0,Qnf(t)‑Dnf(t)+Anf(t)}

其中,Qnf(t+1)为边缘雾节点n上内容f请求在下一时隙开始时的队列长度,Qnf(t)为边缘雾节点n上内容f请求在当前时隙开始时的队列长度,Dnf(t)为边缘雾节点n上内容f请求在当前时隙采取资源分配和内容缓存决策后离开的内容请求数,Anf(t)为边缘雾节点n上内容f请求在当前时隙新到达的网络切片内容请求数,每个网络切片内容请求到达数服从相互独立的泊松过程。

4.根据权利要求1所述的一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,所述边缘雾节点的内容请求虚拟队列长度状态、所述前传链路和无线接入链路传输内容的数据率在每个离散时隙的变化过程均为马尔科夫链。

5.根据权利要求1所述的一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,为保证最大化系统长期平均效用问题能够收敛,用折扣因子表示当前资源分配和内容缓存的决策,对未来的报酬产生影响;

为避免对状态转移概率的依赖,引入决策后状态,用于反映外界环境随机变量的统计特征;其中,所述决策后状态与决策前状态之间的关系为当前时隙的决策后状态值函数等于转移到下一时隙开始时的决策前状态值函数求数学平均。

6.根据权利要求1所述的一种在F‑RAN架构中联合资源分配和内容缓存的方法,其特征在于,采用随机梯度法的方式更新决策后状态值函数,使决策后状态值函数不断逼近真实的决策前状态值函数,具体步骤为:

1)初始化各决策后状态值函数为零;

2)初始化拉格朗日乘子和学习因子;

3)设置初始参考状态,包括所述边缘雾节点的内容请求虚拟队列长度、所述前传链路和无线接入链路传输内容的数据率;

4)在每一次迭代过程,观察并更新网络状态的变化,为了避免决策后状态值函数收敛到局部最优,以概率∈随机选取资源分配和内容缓存的策略,而以1‑∈的概率找到使决策后状态值函数最逼近真实的决策前状态值函数的资源分配和内容缓存决策,记录当前最优决策和产生的瞬时报酬;

5)更新决策后状态值函数;

6)根据KKT条件更新拉格朗日乘子;

7)更新学习因子

8)判断是否满足收敛条件:若所述资源分配和内容缓存方案不满足收敛条件,则重复以上迭代步骤,进行下一次迭代;反之满足收敛条件,则得到所述资源分配和内容缓存最优方案。