Skip to content

Latest commit

 

History

History
495 lines (318 loc) · 27 KB

File metadata and controls

495 lines (318 loc) · 27 KB
title 博弈论
aliases
Game Theory
category
决策、交互与社会机制
tags
ai-foundations
decision
game-theory
type topic
status stable
importance important
version v2.1
date 2026-04-08

博弈论(Game Theory):从起源到 AI 的完整脉络

上帝视角:博弈论将 AI 从"单智能体优化"扩展到"多智能体战略交互"。纳什均衡为分析系统稳定性提供了理论框架,机制设计则研究如何通过改变博弈规则来实现特定目标。在当前专题结构中,博弈论专注于互动结构与均衡分析,而更细的人类偏好建模、制度激励与对齐问题则由经济学专题 (23) 深入展开。


相关主题

  • [[21-operations-research|运筹学]]:运筹学处理单主体或统一目标下的优化,博弈论处理多主体相互影响的优化
  • [[23-economics|经济学]]:经济学更系统讨论偏好、激励和机制设计,博弈论提供互动结构与均衡语言
  • [[20-evolutionary-biology|进化生物学]]:演化稳定策略与复制者动力学把竞争与适应连接起来
  • [[13-cybernetics|控制论]]:对抗控制、鲁棒控制与微分博弈共享“面向最坏情况”的思路
  • [[19-linguistics|语言学]]:在多轮对话、协商与博弈语言行为分析中,策略性交互与语言使用相互交织

1. 上帝视角:为什么 AI 需要博弈论

传统机器学习的核心范式是单智能体优化——给定一个损失函数,找到使其最小化的参数。但现实世界中,智能体很少孤立存在。自动驾驶汽车需要预判其他车辆的行为,推荐系统面对的是会策略性点击的用户,语言模型的对齐需要建模人类偏好。这些场景的共同特征是:一个智能体的最优策略取决于其他智能体的策略

博弈论正是研究这类策略性交互(strategic interaction)的数学框架。它为 AI 提供了:

  • 均衡概念:在多方互动中,什么是"稳定"的结果?(纳什均衡提供了分析工具)
  • 最优对抗策略:面对最坏情况的对手,如何保证最低收益?(极小化极大策略)
  • 机制设计:如何设计规则,使自利的参与者产生期望的集体行为?(如 RLHF 中的激励设计)
  • 演化稳定性:哪些策略能在长期竞争中存活?(演化博弈论的研究对象)

1.1 与其他学科的关键连接

学科 连接点 AI 中的体现
经济学 市场均衡、拍卖理论 广告竞价系统、资源分配
运筹学 线性规划对偶、零和博弈 对抗鲁棒性、安全策略
进化生物学 演化稳定策略(ESS) 群体智能、遗传算法中的竞争
心理学 有限理性、前景理论 人类偏好建模、RLHF
计算机科学 算法博弈论、复杂性 分布式系统、多智能体协调
控制论 微分博弈、最优控制 对抗控制、鲁棒控制
信息论 信息不对称、信号博弈 对抗样本、隐私保护

2. 历史脉络

博弈论的发展可以划分为几个关键阶段,每个阶段都为 AI 提供了新的理论工具。

2.1 奠基时期(1920s–1950s)

  • Émile Borel (1921):最早对策略性博弈进行数学化研究,提出有限博弈中混合策略的概念。
  • John von Neumann (1928):证明了二人零和博弈的极小化极大定理(minimax theorem),这是博弈论的第一个重大定理。
  • von Neumann & Morgenstern (1944):出版《博弈论与经济行为》(Theory of Games and Economic Behavior),系统建立了博弈论的数学基础,引入了效用理论和合作博弈的概念。
  • John Nash (1950):在博士论文中证明了纳什均衡(Nash equilibrium)的存在性定理——任何有限博弈至少存在一个混合策略均衡。这一结果将博弈论从零和博弈推广到一般的非合作博弈。

2.2 精炼与扩展(1960s–1980s)

  • Reinhard Selten (1965):提出子博弈完美均衡(subgame perfect equilibrium),排除了不可信的威胁,精炼了纳什均衡的概念。
  • John Harsanyi (1967–68):引入贝叶斯博弈(Bayesian game),处理不完全信息下的博弈问题。
  • Robert Aumann (1974):提出相关均衡(correlated equilibrium),比纳什均衡更一般的均衡概念。
  • John Maynard Smith (1973):将博弈论引入生物学,提出演化稳定策略(evolutionarily stable strategy, ESS),开创了演化博弈论。
  • Axelrod (1984):通过计算机锦标赛研究重复囚徒困境,发现"以牙还牙"(tit-for-tat)策略的有效性。

2.3 算法博弈论兴起(1990s–2000s)

  • Nisan & Ronen (1999):提出算法机制设计(algorithmic mechanism design),将计算复杂性引入机制设计。
  • Daskalakis, Goldberg & Papadimitriou (2009):证明计算纳什均衡是 PPAD-complete 问题,揭示了均衡计算的内在困难。
  • Roughgarden (2005):系统研究了无政府代价(price of anarchy),量化自利行为对社会效率的损害。

2.4 博弈论与深度学习的融合(2014–至今)

  • Goodfellow et al. (2014):提出生成对抗网络(GAN),将博弈论的对抗思想引入深度生成模型。
  • Silver et al. (2016, 2017):AlphaGo / AlphaZero 在围棋中击败人类冠军,核心使用了蒙特卡洛树搜索 + 自我对弈(self-play),本质上是一个博弈论过程。
  • Christiano et al. (2017):提出 RLHF(Reinforcement Learning from Human Feedback),其中人类与模型的交互可以用机制设计的框架来分析。
  • Vinyals et al. (2019):AlphaStar 在《星际争霸 II》中达到大师级水平,展示了多智能体博弈中的策略复杂性。
  • Brown & Sandholm (2019):Pluribus 在六人德州扑克中击败职业选手,解决了不完全信息多人博弈的挑战。

3. 核心知识点详解

3.1 纳什均衡(Nash Equilibrium)

数学定义

考虑一个 $n$ 人博弈 $G = (N, S, u)$,其中:

  • $N = {1, 2, \ldots, n}$ 是参与者集合

  • 策略空间记为:

    $$S = S_1 \times S_2 \times \cdots \times S_n$$

    其中 $S_i$ 是参与者 i 的策略集。

  • 效用函数组记为:

    $$u = (u_1, u_2, \ldots, u_n)$$

    其中 $u_i: S \to \mathbb{R}$

纳什均衡是一个策略组合 $s^* = (s_1^, s_2^, \ldots, s_n^*)$,满足:

$$\forall i \in N, \forall s_i \in S_i: \quad u_i(s_i^_, s_{-i}^_) \geq u_i(s_i, s_{-i}^*)$$

其中 $s_{-i}^*$ 表示除参与者 $i$ 以外所有人的策略。

直觉理解:在纳什均衡中,没有任何参与者有动机单方面改变自己的策略。每个人的策略都是对其他人策略的最佳响应(best response)。

混合策略均衡

当纯策略均衡不存在时(如石头剪刀布),我们需要混合策略(mixed strategy)。参与者 $i$ 的混合策略是其纯策略集 $S_i$ 上的一个概率分布 $\sigma_i \in \Delta(S_i)$

对于 2×2 博弈,设参与者 1 以概率 $p$ 选择策略 A、以概率 $1-p$ 选择策略 B,参与者 2 以概率 $q$ 选择策略 A、以概率 $1-q$ 选择策略 B。混合策略纳什均衡要求每个参与者在均衡混合策略下对各纯策略无差异(indifference condition):

$$E[u_1(A, \sigma_2^_)] = E[u_1(B, \sigma_2^_)]$$

这个条件给出了对方的均衡混合概率。

Nash 存在性定理

定理(Nash, 1950):每个有限博弈(参与者有限、策略有限)至少存在一个混合策略纳什均衡。

证明思路:利用 Kakutani 不动点定理。定义最佳响应对应(best response correspondence):

$$BR: \Delta(S) \rightrightarrows \Delta(S)$$

证明其满足 Kakutani 定理的条件(上半连续、凸值),从而存在不动点,即纳什均衡。

AI 中的角色

  • GAN 训练:生成器和判别器的均衡点就是纳什均衡
  • 多智能体 RL:智能体策略收敛的目标通常是纳什均衡
  • 对抗鲁棒性:对抗样本攻防可建模为攻击者与防御者的博弈

参见代码示例:code/math-foundations/nash_equilibrium.py


3.2 极小化极大定理(Minimax Theorem)

数学定义

考虑二人零和博弈,参与者 1 的收益矩阵为 $A \in \mathbb{R}^{m \times n}$,参与者 2 的收益矩阵为 $-A$

极小化极大定理(von Neumann, 1928):

$$\max_{p \in \Delta_m} \min_{q \in \Delta_n} p^T A q = \min_{q \in \Delta_n} \max_{p \in \Delta_m} p^T A q = v^*$$

其中 $\Delta_m$$\Delta_n$ 分别是 $m$ 维和 $n$ 维概率单纯形,$v^*$ 称为博弈的(value of the game)。

直觉理解:在零和博弈中,"先行动后观察"和"先观察后行动"的最优结果相同。这意味着不存在先手优势或后手优势(在混合策略意义下)。

与线性规划的对偶

极小化极大定理与线性规划的强对偶定理密切相关。求解零和博弈等价于求解一对对偶线性规划:

原问题(参与者 1 的视角): $$\max_{p, v} \quad v \quad \text{s.t.} \quad A^T p \geq v \cdot \mathbf{1}, \quad p \geq 0, \quad \mathbf{1}^T p = 1$$

对偶问题(参与者 2 的视角): $$\min_{q, w} \quad w \quad \text{s.t.} \quad A q \leq w \cdot \mathbf{1}, \quad q \geq 0, \quad \mathbf{1}^T q = 1$$

AI 中的角色

  • 对抗搜索:Alpha-Beta 剪枝算法是极小化极大思想的经典实现,用于国际象棋、围棋等完全信息博弈
  • GAN 的目标函数:$\min_G \max_D V(D, G)$ 可以写成极小化极大形式
  • 对抗鲁棒训练$$\min_\theta \max_{|\delta| \leq \epsilon} \mathcal{L}(f_\theta(x + \delta), y)$$

3.3 GAN 的博弈论视角

博弈建模

生成对抗网络(Generative Adversarial Network, GAN)由 Goodfellow et al. (2014) 提出,其对抗训练过程常借助博弈论语言来分析。

GAN 定义了一个二人零和博弈:

  • 生成器 G:将噪声分布中的样本映射为假样本,目标是"欺骗"判别器
  • 判别器 $D$:判断输入样本是真实的还是生成的,目标是正确区分

目标函数(价值函数):

$$\min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{\text{data}}}[\log D(x)] + \mathbb{E}_{z \sim p_z}[\log(1 - D(G(z)))]$$

均衡分析

定理(Goodfellow et al., 2014):当 $G$$D$ 的容量足够大时,上述博弈的纳什均衡满足:

  1. 最优判别器: $$D^*(x) = \frac{p_{\text{data}}(x)}{p_{\text{data}}(x) + p_g(x)}$$
  2. 在最优判别器下,生成器的最优解满足真实分布与生成分布一致。
  3. 此时价值函数达到平衡点 -log 4。

证明思路:固定 G,对 D 求导令其为零,得到 $D^$。将 $D^$ 代入 $V$,得到关于 G 的目标函数,可以证明它等价于最小化:

$$2 \cdot JSD(p_{\text{data}} | p_g) - \log 4$$

其中 JSD 是 Jensen-Shannon 散度。

训练不稳定性的博弈论解释

GAN 训练的困难,可部分从博弈均衡计算与对抗优化动态的角度来理解:

  • 模式崩塌(mode collapse):生成器找到了一个局部最优响应,但不是全局纳什均衡
  • 训练振荡:梯度下降在鞍点附近振荡,无法收敛到均衡
  • 梯度消失:当判别器太强时,生成器的梯度趋近于零

这些问题催生了大量改进工作:

  • WGAN(Arjovsky et al., 2017):用 Wasserstein 距离替代 JS 散度
  • 谱归一化(Miyato et al., 2018):约束判别器的 Lipschitz 常数
  • 渐进式训练(Karras et al., 2018):逐步增加分辨率

直觉理解

生成器和判别器像一对拉力赛的选手:一个不断改进伪造能力,另一个不断提高辨别真伪的眼力。学习曲线因此充满振荡:生成器追赶判别器的变化、判别器又重新调整,从而形成一个在高维空间中来回震荡的动态过程。能否收敛取决于双方是否都能快速适应对方的策略(即双方是否能够在相似的速度下完成博弈更新),这与传统单智能体的纯优化过程有本质区别。

AI 中的角色

  • 生成式模型:GAN 通过 Goodfellow et al. (2014) 提出的对抗优化,使生成器和判别器共同优化一个零和目标,从而在没有标注的情况下逼近真实数据分布。
  • 强化学习视角:训练过程可以看作一个多智能体的策略更新,促使研究者借助博弈论工具(如 Nash-Q、CTDE)分析训练 dynamics。
  • 对抗优化衍生物:白盒对抗训练、对抗自编码器、域对抗网络等都源自 GAN 的双目标思想,为鲁棒性和迁移学习提供了一致框架。

参见代码示例:code/ml-algorithms/simple_gan.pycode/visualizations/viz_gan_training.py


3.4 多智能体强化学习(Multi-Agent RL)

从单智能体到多智能体

单智能体 RL 的目标是最大化累积奖励:

$$\max_\pi \mathbb{E}\left[\sum_{t=0}^{\infty} \gamma^t r_t \mid \pi\right]$$

在多智能体环境中,每个智能体的奖励不仅取决于自己的策略,还取决于其他智能体的策略。这使得环境从单个智能体的视角看是非平稳的(non-stationary)——其他智能体也在学习和改变策略。

随机博弈(Stochastic Game)

多智能体 RL 的标准形式化是随机博弈(也称马尔可夫博弈):

$$\mathcal{G} = (N, \mathcal{S}, {A_i}_{i \in N}, T, {R_i}_{i \in N}, \gamma)$$

其中:

  • $N$:智能体集合

  • 状态空间记为 S

  • 智能体 i 的动作空间记为 A_i

  • 状态转移函数定义为:

    $$T: \mathcal{S} \times A_1 \times \cdots \times A_n \to \Delta(\mathcal{S})$$

  • 智能体 i 的奖励函数定义为:

    $$R_i: \mathcal{S} \times A_1 \times \cdots \times A_n \to \mathbb{R}$$

  • $\gamma$:折扣因子

关键算法

算法 类型 核心思想
Independent Q-Learning 竞争/合作 每个智能体独立学习,忽略其他智能体
Minimax-Q (Littman, 1994) 竞争 在零和随机博弈中求解极小化极大策略
Nash-Q (Hu & Wellman, 2003) 一般和 在每个状态求解阶段博弈的纳什均衡
MADDPG (Lowe et al., 2017) 混合 集中训练、分散执行(CTDE)范式
QMIX (Rashid et al., 2018) 合作 将联合 Q 值分解为个体 Q 值的单调混合

自我对弈(Self-Play)

自我对弈是多智能体 RL 中最成功的范式之一。核心思想:让智能体与自己的历史版本对弈,通过不断击败过去的自己来提升。

AlphaGo Zero (Silver et al., 2017) 的训练流程:

  1. 初始化随机策略网络 $f_\theta$
  2. 用当前网络进行自我对弈,生成训练数据
  3. 用 MCTS(蒙特卡洛树搜索)改进策略
  4. 更新网络参数,回到步骤 2

从博弈论角度,自我对弈是一种虚拟博弈(fictitious play)的变体,在特定条件下可以收敛到纳什均衡。

直觉理解

多智能体 RL 中的环境在你不断更新策略的同时也在更新,导致你的"对手"始终跑在前面。自我对弈则把对手固定为自己过去的版本,像在镜子前与前一次棋局对弈,让策略的调整步伐可控,渐进地逼近更强的策略。这样的训练过程避免了因对手变化太快而导致的无穷震荡。

AI 中的角色

  • 协作/竞争框架:多智能体智能体间的通信、任务分配与资源共享,可以用博弈中的合作均衡或纳什均衡来建模,提升自动驾驶、机器人团队等场景的稳定性。
  • 自我对弈数据生成:AlphaGo Zero、OpenAI Five 等系统通过与自己的历史版本对弈,生成大量无需人工标注的训练数据,显著提高策略推理能力(Silver et al., 2017)。
  • 公平与安全:采用博弈论工具评估策略的收敛性与脆弱点,为多智能体系统的可靠部署提供机制保障(Lowe et al., 2017;Rashid et al., 2018)。

3.5 机制设计接口与 RLHF 的有限博弈论视角

机制设计基础

机制设计(mechanism design)被称为"逆博弈论"——博弈论分析给定规则下的均衡结果,机制设计则是设计规则以实现期望的均衡结果

形式化定义:

  • 参与者集合记为 N,每个参与者有私有类型 $\theta_i \in \Theta_i$

  • 社会选择函数定义为:

    $$f: \Theta_1 \times \cdots \times \Theta_n \to \mathcal{O}$$

    它表示期望的结果映射。

  • 机制定义为:

    $$\mathcal{M} = (\Sigma, g)$$

    其中 Σ 是策略空间,结果函数定义为:

$$g: \Sigma \to \mathcal{O}$$

激励相容(incentive compatibility):如果诚实报告类型是每个参与者的占优策略,则机制是激励相容的:

$$\forall i, \forall \theta_i, \forall \theta_i': \quad u_i(g(\theta_i, \theta_{-i}), \theta_i) \geq u_i(g(\theta_i', \theta_{-i}), \theta_i)$$

其中 $u_i$ 表示参与者 $i$ 的效用函数,$\theta_{-i}$ 表示除 $i$ 以外的其他参与者的类型,$g$ 是机制输出结果的映射。

关键定理:

  • 显示原理(revelation principle):任何可实现的社会选择函数都可以通过一个激励相容的直接机制来实现
  • VCG 机制(Vickrey-Clarke-Groves):一类保证激励相容和效率的机制

RLHF 的机制设计视角

RLHF(Reinforcement Learning from Human Feedback)的流程:

  1. 预训练语言模型作为基线模型
  2. 收集人类偏好数据:给定 prompt x,人类比较两个回答 y₁、y₂
  3. 训练奖励模型 $r_\phi(x, y)$ 拟合人类偏好
  4. 用 PPO 优化策略: $$\max_\pi \mathbb{E}{x, y \sim \pi}[r\phi(x, y)] - \beta \cdot KL(\pi | \pi_{\text{base}})$$

其中:

  • $r_\phi$ 是奖励模型
  • π 是待优化策略
  • 基线模型来自预训练语言模型
  • β 控制策略更新时与基线模型的距离

从机制设计角度分析:

  • 参与者:人类标注者(有私有偏好 $\theta$
  • 机制:偏好收集协议(如 Bradley-Terry 模型)
  • 目标:设计激励相容的收集方式,使标注者诚实表达偏好

这里需要明确边界:RLHF 可以借用机制设计与战略交互的语言来分析,但它并不等于一个由博弈论完整刻画的问题。真正涉及偏好定义、效用聚合、制度设计与标注者激励时,仍需要回到[[23-economics|经济学]]专题中的偏好与对齐框架。

关键挑战:

  • 偏好不一致:不同标注者的偏好可能矛盾(Arrow 不可能定理的影子)
  • 策略性行为:标注者可能为了效率而非真实偏好进行标注
  • 奖励黑客(reward hacking):模型可能找到奖励模型的漏洞,类似于博弈中的"钻规则空子"

直觉理解

RLHF 的流程等价于一个机制设计问题:你要设定规则(人类偏好收集、奖励模型、PPO 目标),让诚实报告偏好这一策略成为每个参与者的占优策略,从而令整个系统自动引导模型朝向更稳健的输出。这个过程的核心是把人类标注看成博弈双方中的裁判,通过机制设计保证裁判不会"作弊"(例如偏向某一类回答)。

AI 中的角色

  • 对齐机制:将人类偏好建模为游戏参与者的类型,利用激励相容性原则设计训练流程,减少奖励模型被模型"骗"的空间(Christiano et al., 2017)。
  • 偏好收集协议:采用 Bradley-Terry、RankNet 等模型从博弈的胜负关系中学习奖励信号,使标注者的选择产生清晰的博弈反馈。
  • RLHF 的局部分析工具:博弈论在这里主要帮助我们描述策略性反馈、机制脆弱点与规则设计风险,而不是单独给出完整的人类偏好理论。

4. 对 AI 的核心贡献

博弈论对 AI 的贡献可以从四个层面来理解:

4.1 概念层:对抗性思维

博弈论为 AI 引入了对抗性思维——不再假设数据和环境是友好的,而是考虑最坏情况。

这种思维方式的影响:

  • 对抗样本(Szegedy et al., 2014):输入空间中存在微小扰动可以欺骗分类器,这本质上是攻击者与模型之间的博弈
  • 对抗训练(Madry et al., 2018):通过求解内层最大化问题来增强模型鲁棒性
  • 红队测试(red teaming):用对抗性方法发现大模型的安全漏洞

4.2 算法层:对抗优化

GAN 开创了一种全新的训练范式——对抗优化(Goodfellow et al., 2014)。不同于传统的单目标优化,对抗优化同时优化两个相互竞争的目标。

这一范式的扩展:

  • 对抗自编码器(AAE):用对抗训练替代 VAE 中的 KL 散度正则化
  • 域对抗网络(DANN):通过对抗训练学习域不变特征
  • 对抗文本生成:SeqGAN 等将 GAN 扩展到离散序列

4.3 系统层:多智能体架构

博弈论为多智能体系统提供了理论基础:

  • 通信协议:智能体之间如何高效通信?(信号博弈)
  • 任务分配:如何在多个智能体之间分配任务?(合作博弈、Shapley 值)
  • 涌现行为:简单规则如何产生复杂的集体行为?(演化博弈论)

实际应用:

  • 自动驾驶:车辆之间的交互建模为重复博弈
  • 机器人协作:多机器人任务分配使用拍卖机制
  • 网络安全:攻防对抗建模为 Stackelberg 博弈

4.4 对齐层:机制接口而非完整偏好理论

博弈论为 AI 对齐(alignment)提供了关键工具:

  • 委托-代理问题(principal-agent problem):人类(委托人)如何确保 AI(代理人)按照人类意图行事?
  • 合同理论:如何设计"合同"(训练目标)使 AI 的激励与人类一致?
  • 社会选择理论:如何聚合多个人类的偏好?

但这部分更适合被理解为“接口层贡献”:博弈论擅长分析参与者互动和规则稳定性,却不单独决定人类偏好该如何定义、比较和聚合。这正是它与经济学专题的分工边界。


5. 前沿与开放问题

5.1 大模型时代的博弈论

  • LLM 作为博弈参与者:大语言模型能否理解和执行博弈策略?初步研究表明 LLM 在简单博弈中表现出一定的策略性行为,但在复杂博弈中仍然不稳定(Akata et al., 2023)
  • 多 LLM 交互:当多个 LLM 相互交互时,会产生什么样的均衡?这是一个全新的研究方向
  • AI 辩论(AI debate):Irving et al. (2018) 提出让两个 AI 系统辩论来帮助人类判断,这是一个零和博弈框架

5.2 计算挑战

  • 均衡计算的复杂性:即使是两人博弈,计算纳什均衡也是 PPAD-complete 的。对于多人博弈和连续策略空间,问题更加困难
  • 在线学习与博弈:在重复博弈中,如何设计无悔(no-regret)学习算法?遗憾最小化(regret minimization)与纳什均衡的关系是什么?
  • 大规模博弈求解:如何在状态空间巨大的博弈中找到近似均衡?反事实遗憾最小化(CFR)在扑克中取得了成功,但能否推广?

5.3 理论前沿

  • 均衡选择问题:一个博弈可能有多个纳什均衡,应该选择哪一个?这个问题至今没有令人满意的答案
  • 有限理性博弈:真实的参与者(包括 AI)计算能力有限,如何建模有限理性下的博弈?
  • 合作 AI:如何设计能够与人类和其他 AI 有效合作的智能体?(Dafoe et al., 2021)
  • 演化动力学与学习:梯度下降在博弈中的动力学行为与演化动力学(如复制者动态)有深刻联系

5.4 伦理与社会影响

  • 算法共谋:自主定价算法是否会"学会"共谋提高价格?
  • AI 军备竞赛:各国在 AI 发展上的竞争可以用博弈论建模,如何避免"囚徒困境"式的结果?
  • 公平性:如何在多方博弈中保证公平?Shapley 值提供了一种分配方案,但计算复杂度是指数级的

6. 推荐阅读与参考文献

经典教材

  • von Neumann, J. & Morgenstern, O. (1944). Theory of Games and Economic Behavior. Princeton University Press.
  • Osborne, M. J. & Rubinstein, A. (1994). A Course in Game Theory. MIT Press.
  • Fudenberg, D. & Tirole, J. (1991). Game Theory. MIT Press.
  • Nisan, N. et al. (2007). Algorithmic Game Theory. Cambridge University Press.

博弈论与 AI 的关键论文

  • Nash, J. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of Sciences, 36(1), 48–49.
  • Goodfellow, I. et al. (2014). Generative adversarial nets. Advances in Neural Information Processing Systems, 27.
  • Silver, D. et al. (2017). Mastering the game of Go without human knowledge. Nature, 550(7676), 354–359.
  • Brown, N. & Sandholm, T. (2019). Superhuman AI for multiplayer poker. Science, 365(6456), 885–890.
  • Christiano, P. et al. (2017). Deep reinforcement learning from human preferences. Advances in Neural Information Processing Systems, 30.
  • Daskalakis, C., Goldberg, P. W. & Papadimitriou, C. H. (2009). The complexity of computing a Nash equilibrium. SIAM Journal on Computing, 39(1), 195–259.

前沿综述

  • Lanctot, M. et al. (2017). A unified game-theoretic approach to multiagent reinforcement learning. Advances in Neural Information Processing Systems, 30.
  • Dafoe, A. et al. (2021). Cooperative AI: machines must learn to find common ground. Nature, 593(7857), 33–36.
  • Akata, E. et al. (2023). Playing repeated games with large language models. arXiv preprint arXiv:2305.16867.

在线资源

  • Shoham, Y. & Leyton-Brown, K. Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations. 免费在线版本:masfoundations.org
  • Roughgarden, T. Twenty Lectures on Algorithmic Game Theory. 斯坦福课程讲义。

7. 本篇在全书中的位置

本篇介绍了博弈论对 AI/AGI 发展的核心贡献:将 AI 从单智能体优化扩展到多智能体战略交互,提供了分析系统稳定性和设计激励机制的理论框架

与相邻篇章的关系

  • 与[[23-economics|经济学]]共同研究激励与对齐问题:博弈论提供互动结构分析,经济学提供偏好建模与机制设计
  • 与[[21-operations-research|运筹学]]在优化问题上形成对比:运筹学处理单目标优化,博弈论处理多目标冲突
  • 与[[13-cybernetics|控制论]]在对抗控制上相关:鲁棒控制可理解为与"自然"的极小极大博弈
  • 与[[20-evolutionary-biology|进化生物学]]在演化稳定策略上形成连接:演化博弈论研究策略的长期竞争

贡献边界: 博弈论主要提供了多智能体交互的分析框架和均衡概念,但在实际 AI 系统中面临诸多挑战。首先,计算纳什均衡是 PPAD-complete 问题,在大规模系统中难以求解。其次,博弈论假设参与者是理性的,但实际 AI 系统和人类都表现出有限理性。第三,博弈论主要分析"给定规则下会发生什么",但在 AI 对齐问题中,更关键的是"如何设计规则"(机制设计),这需要经济学的补充。最后,博弈论提供了互动结构的数学描述,但不能直接告诉我们"人类真正想要什么"(偏好建模),这同样需要经济学、心理学等学科的支持。