机器博弈 (二) 遗憾最小化算法

Valentina ·
更新时间:2024-11-15
· 905 次阅读

  现代的博弈论快速与人工智能进行结合,形成了以数据驱动的博弈论新的框架。博弈论与计算机科学的交叉领域非常多,有以下几个方面:

理论计算机科学:算法博弈论 人工智能:多智能体系统、AI游戏、人机交互、机器学习、广告推荐等。 互联网:互联网经济、共享经济。 分布式系统:区块链。

  人工智能与博弈论结合,形成了两个主要研究方向:1. 博弈策略的求解;2. 博弈规则的设计。

  博弈论提供了许多问题的数学模型。纳什定理确定了博弈过程问题存在解。人工智能的方法可以用来求解均衡局面或者最优策略。

  主要研究的问题就是:如何高效求解博弈参与者的策略以及博弈的均衡局势。

  其应用领域主要有:

大规模搜索空间的问题求解:围棋。 非完美信息博弈问题求解:德州扑克。 网络对战游戏智能:Dota、星球大战。 动态博弈的均衡解:厂家竞争、信息安全。 遗憾最小化算法(Regret Minimization):

  我们对遗憾最优化算法(RM)中符号做若干定义:

假设一共有NNN个玩家。玩家iii所采用的策略表示为σi\sigma_{i}σi​。 对于每个信息集Ii∈ξiI_{i} \in \xi_{i}Ii​∈ξi​,σi(Ii):A(Ii)→[0,1]\sigma_{i}(I_{i}):A(I_{i}) \rightarrow [0,1]σi​(Ii​):A(Ii​)→[0,1]是在动作集A(Ii)A(I_{i})A(Ii​)上的概率分布函数。玩家iii的策略空间用∑i\sum_{i}∑i​表示。 一个策略组包含所有玩家策略,用σ=(σ1\sigma =(\sigma_{1}σ=(σ1​,σ2\sigma_{2}σ2​,⋯\cdots⋯,σ∣N∣)\sigma_{|N|})σ∣N∣​)。 σ−i\sigma_{-i}σ−i​表示σ\sigmaσ中除了σi\sigma_{i}σi​之外的策略(即除去玩家iii所采用的策略)。 在博弈对决中,不同玩家在不同时刻会采取相应策略以及行动。策略σ\sigmaσ下对应的动作序列hhh发生概率表示为πσ(h)\pi^{\sigma}(h)πσ(h)。于是,πσ(h)=∏i∈Nπiσ(h)\pi^{\sigma}(h)=\prod_{i \in N} \pi_{i}^{\sigma}(h)πσ(h)=∏i∈N​πiσ​(h),这里πiσ(h)\pi_{i}^{\sigma}(h)πiσ​(h)表示玩家iii使用策略σi\sigma_{i}σi​促使行动序列hhh发生的概率。除玩家iii以外,其他玩家通过各自策略促使行动序列hhh发生的概率可表示为:π−iσ(h)=∏i∈N /{i}πjσ(h)\pi_{-i}^{\sigma}(h)=\prod_{i \in N \ / \{i\}} \pi_{j}^{\sigma}(h)π−iσ​(h)=∏i∈N /{i}​πjσ​(h)。 对于每个玩家i∈Ni \in Ni∈N,ui:Z→Ru_{i}:Z \rightarrow Rui​:Z→R表示玩家iii的收益函数,即在到达终止序列集合ZZZ中某个终止序列时,玩家iii所得到的收益。 玩家iii在给定策略σ\sigmaσ下所能得到的期望收益可如下计算:ui(σ)=∑h∈Zui(h)πσ(h)u_{i}(\sigma)=\sum_{h \in Z}u_{i}(h)\pi^{\sigma}(h)ui​(σ)=∑h∈Z​ui​(h)πσ(h)。 最佳反应策略与纳什均衡

  我们来看一下遗憾最小化算法下的最佳反应策略和纳什均衡。

玩家iii对于所有玩家的策略组σ−i\sigma_{-i}σ−i​的最佳反应策略σi∗\sigma_{i}^{*}σi∗​满足如下条件:

ui(σi∗,σ−i)≥maxσi′∈∑iui(σi′,σ−i) u_{i}(\sigma_{i}^{*},\sigma_{-i}) \geq max_{\sigma_{i}^{'}\in \sum_{i}} u_{i}(\sigma_{i}^{'},\sigma_{-i}) ui​(σi∗​,σ−i​)≥maxσi′​∈∑i​​ui​(σi′​,σ−i​)

  即玩家iii采用其它策略获得的收益小于采用最佳策略所能获得的收益。(这里其它玩家策略保持不变。)

  在策略组σ\sigmaσ中,如果每个玩家的策略相对于其他玩家的策略而言都是最佳反应策略,那么策略组σ\sigmaσ就是一个纳什均衡(Nash equilibrium)策略。

  纳什均衡:策略组σ=(σ1∗\sigma =(\sigma_{1}^{*}σ=(σ1∗​,σ2∗\sigma_{2}^{*}σ2∗​,⋯\cdots⋯,σ∣N∣∗)\sigma_{|N|}^{*})σ∣N∣∗​)是纳什均衡当且仅当对每个玩家i∈Ni \in Ni∈N,满足如下条件:

ui(σ)≥maxσi′ui(σi∗,σ2∗,⋯ ,σi′,⋯ ,σ∣N∣∗) u_{i}(\sigma) \geq max_{\sigma_{i}^{'}} u_{i}(\sigma_{i}^{*},\sigma_{2}^{*}, \cdots , \sigma_{i}^{'}, \cdots, \sigma_{|N|}^{*}) ui​(σ)≥maxσi′​​ui​(σi∗​,σ2∗​,⋯,σi′​,⋯,σ∣N∣∗​)

ε\varepsilonε-纳什均衡与平均遗憾值

ε\varepsilonε-纳什均衡

对于给定的正实数ε\varepsilonε,策略组σ\sigmaσ是ε\varepsilonε-纳什均衡当且仅当对于每个玩家i∈Ni \in Ni∈N,满足如下条件:
ui(σ)+ε≥maxσi′∈∑iui(σi′,σ−i) u_{i}(\sigma) + \varepsilon \geq max_{\sigma_{i}^{'} \in \sum_{i}}u_{i}(\sigma_{i}^{'},\sigma_{-i}) ui​(σ)+ε≥maxσi′​∈∑i​​ui​(σi′​,σ−i​)

平均遗憾值(average overall regret):假设博弈能够重复地进行(如围棋等),令第ttt次博弈时的策略组为σt\sigma^{t}σt,若博弈已经进行了MMM次,则这MMM次博弈对于玩家i∈Ni \in Ni∈N的平均遗憾值定义为:

RegretiM‾=1Mmaxσi∗∈∑i∑i=1M(ui(σi∗,σ−it)−ui(σt)) \overline{Regret_{i}^{M}} = \frac{1}{M}max_{\sigma_{i}^{*} \in \sum_{i}}\sum_{i=1}^{M}(u_{i}(\sigma_{i}^{*},\sigma_{-i}^{t})-u_{i}(\sigma^{t})) RegretiM​​=M1​maxσi∗​∈∑i​​i=1∑M​(ui​(σi∗​,σ−it​)−ui​(σt))

策略选择 遗憾最小化算法是一种根据过去博弈中的遗憾程度来决定将来动作选择的方法 在博弈中,玩家iii在第TTT轮次(每一轮表示一次博弈完成)采取策略σi\sigma_{i}σi​的遗憾值定义如下(累加遗憾):

RegretiT(σi)=∑t=1T(μi(σi,σ−it)−μi(σt)) Regret_{i}^{T}(\sigma_{i})=\sum_{t=1}^{T}(\mu_{i}(\sigma_{i},\sigma_{-i}^{t})-\mu_{i}(\sigma^{t})) RegretiT​(σi​)=t=1∑T​(μi​(σi​,σ−it​)−μi​(σt))

通常遗憾值为负数的策略被认定为不能提升下一时刻收益,所以这里考虑的遗憾值均为正数或0;

计算得到玩家iii在第TTT轮次采取策略σi\sigma_{i}σi​的遗憾值后,在第T+1T+1T+1轮次玩家iii选择策略aaa的概率如下(悔值越大、越选择,即亡羊补牢):

P(a)=RegretiT(a)∑b∈所有可能选择策略RegretiT(b) P(a) = \frac{Regret_{i}^{T}(a)}{\sum_{b \in {所有可能选择策略}}Regret_{i}^{T}(b)} P(a)=∑b∈所有可能选择策略​RegretiT​(b)RegretiT​(a)​

Rock-Paper-Scissors,RPS 例子

假设两个玩家AAA和BBB进行石头-剪刀-布(Rock-Paper-Scissors,RPS)的游戏,获胜玩家收益为1分,失败玩家收益为-1分,平局则两个玩家收益均为零分。

第一局时,若玩家AAA出石头(RRR),玩家BBB出布(PPP),则此时玩家AAA的收益μA(R,P)=−1\mu_{A}(R,P)=-1μA​(R,P)=−1,玩家BBB的收益为μB(P,R)=1\mu_{B}(P,R)=1μB​(P,R)=1。

对于玩家AAA来说,在玩家BBB出布(PPP)这个策略情况下,如果玩家AAA选择出布(PPP)或者剪刀(SSS),则玩家AAA对应的收益值μA(P,P)=0\mu_{A}(P,P)=0μA​(P,P)=0或者μA(S,P)=1\mu_{A}(S,P)=1μA​(S,P)=1。

所以第一局之后,玩家AAA没有出布的遗憾值为:

μA(P,P)−μA(R,P)=0−(−1)=1\mu_{A}(P,P)-\mu_{A}(R,P)=0 -(-1)=1μA​(P,P)−μA​(R,P)=0−(−1)=1,

  没有出剪刀的遗憾值为:

μA(S,P)−μA(R,P)=1−(−1)=2\mu_{A}(S,P)-\mu_{A}(R,P)=1-(-1)=2μA​(S,P)−μA​(R,P)=1−(−1)=2。

所以在第二局中,玩家AAA选择石头、剪刀和布这三个策略的概率分别为0、2/3、1/3。因此,玩家AAA趋向于在第二局中选择出剪刀这个策略

在第一轮中,玩家AAA选择石头和玩家BBB选择布、在第二局中玩家AAA选择剪刀和玩家BBB选择石头情况下,则玩家AAA每一轮遗憾值及第二轮后的累加遗憾取值如下:

从上表可知,在第三局时,玩家AAA选择石头、剪刀和布的概率分别为1/6、2/6、3/6 在实际使用中,可以通过多次模拟迭代累加遗憾值找到每个玩家在每一轮次的最优策略。 但是当博弈状态空间呈指数增长时,对一个规模巨大的博弈树无法采用最小遗憾算法

我的微信公众号名称:深度学习与先进智能决策
微信公众号ID:MultiAgent1024
公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!


作者:小小何先生



博弈 算法

需要 登录 后方可回复, 如果你还没有账号请 注册新账号