一句話解釋

分析隨機演算法的數學基礎:機率、條件機率、期望值,以及最重要的 Linearity of Expectation。


機率空間與公理

機率空間

一個機率空間由三個元素組成:$(\Omega, \mathcal{F}, \Pr)$

  • 樣本空間 $\Omega$: 所有可能結果的集合
  • 事件空間 $\mathcal{F}$: $\Omega$ 的子集合族(可測事件)
  • 機率測度 $\Pr$: $\mathcal{F} \to [0, 1]$ 的函數

Kolmogorov 機率公理

公理 1(非負性): $$\Pr[A] \geq 0, \quad \forall A \in \mathcal{F}$$ 公理 2(規範性): $$\Pr[\Omega] = 1$$ 公理 3(可數可加性): 若 $A_1, A_2, \dots$ 兩兩互斥,則: $$\Pr\left[\bigcup_{i=1}^\infty A_i\right] = \sum_{i=1}^\infty \Pr[A_i]$$

衍生性質

1. 補集: $\Pr[\bar{A}] = 1 - \Pr[A]$ 2. 單調性: 若 $A \subseteq B$,則 $\Pr[A] \leq \Pr[B]$ 3. 聯集界(Union Bound): $$\Pr[A \cup B] \leq \Pr[A] + \Pr[B]$$ 4. 包含排斥原理: $$\Pr[A \cup B] = \Pr[A] + \Pr[B] - \Pr[A \cap B]$$

條件機率與獨立性

條件機率

定義: 給定事件 $B$ 發生,事件 $A$ 發生的機率: $$ \Pr[A \mid B] = \frac{\Pr[A \cap B]}{\Pr[B]}, \quad \text{若 } \Pr[B] > 0 $$

Bayes 定理

Theorem: Bayes' Theorem
$$ \Pr[A \mid B] = \frac{\Pr[B \mid A] \cdot \Pr[A]}{\Pr[B]} $$ 全機率公式(Law of Total Probability): 若 $B_1, \dots, B_n$ 分割 $\Omega$(兩兩互斥且聯集為 $\Omega$),則: $$ \Pr[A] = \sum_{i=1}^n \Pr[A \mid B_i] \cdot \Pr[B_i] $$

範例:疾病檢測

  • 疾病盛行率:$\Pr[\text{病}] = 0.01$
  • 檢測靈敏度:$\Pr[\text{陽性} \mid \text{病}] = 0.99$
  • 偽陽性率:$\Pr[\text{陽性} \mid \text{健康}] = 0.05$

問:檢測陽性時,真的有病的機率?

\[\begin{align} \Pr[\text{病} \mid \text{陽性}] &= \frac{\Pr[\text{陽性} \mid \text{病}] \cdot \Pr[\text{病}]}{\Pr[\text{陽性}]} \\ &= \frac{0.99 \times 0.01}{0.99 \times 0.01 + 0.05 \times 0.99} \\ &\approx 0.166 \end{align}\]

只有 16.6%!偽陽性嚴重稀釋了陽性結果的意義。

獨立性

定義: 事件 $A$ 和 $B$ **獨立**若: $$ \Pr[A \cap B] = \Pr[A] \cdot \Pr[B] $$ 等價條件: - $\Pr[A \mid B] = \Pr[A]$($B$ 不影響 $A$ 的機率) - $\Pr[B \mid A] = \Pr[B]$ 多個事件獨立: 事件 $A_1, \dots, A_n$ **互相獨立**若對任意子集 $I \subseteq \{1, \dots, n\}$: $$ \Pr\left[\bigcap_{i \in I} A_i\right] = \prod_{i \in I} \Pr[A_i] $$

隨機變數與期望值

隨機變數

隨機變數 $X$ 是從樣本空間到實數的函數:$X: \Omega \to \mathbb{R}$

期望值

離散情況: $$\mathbb{E}[X] = \sum_{x} x \cdot \Pr[X = x]$$ 連續情況: $$\mathbb{E}[X] = \int_{-\infty}^\infty x \cdot f_X(x) \, dx$$

期望值的性質

Theorem: Linearity of Expectation
線性性: $$\mathbb{E}[aX + bY] = a\mathbb{E}[X] + b\mathbb{E}[Y]$$ **關鍵:不需要 $X$ 和 $Y$ 獨立!** 推廣: $$\mathbb{E}\left[\sum_{i=1}^n X_i\right] = \sum_{i=1}^n \mathbb{E}[X_i]$$

🔑 為什麼重要?
Linearity of Expectation 是隨機演算法分析的最強工具

  • 即使變數高度相關,期望仍可加
  • 可以把複雜問題分解成簡單部分
  • 不需要計算聯合分佈

經典應用:期望比較次數

問題: Quicksort 的期望比較次數?

定義指示變數(Indicator):

\[X_{ij} = \begin{cases} 1 & \text{若元素 } i \text{ 和 } j \text{ 有比較} \\ 0 & \text{否則} \end{cases}\]

總比較次數:

\[X = \sum_{i<j} X_{ij}\]

期望:

\[\mathbb{E}[X] = \sum_{i<j} \mathbb{E}[X_{ij}] = \sum_{i<j} \Pr[i \text{ 和 } j \text{ 比較}]\]

分析得 $\Pr[i \text{ 和 } j \text{ 比較}] = \frac{2}{j-i+1}$,所以:

\[\mathbb{E}[X] = 2n \ln n + O(n) = O(n \log n)\]

關鍵: 不需要知道 $X_{ij}$ 之間的相關性!


常見分佈

Bernoulli 分佈

定義: 單次試驗,成功率 $p$ $$ X \sim \text{Bernoulli}(p) $$ - $\Pr[X = 1] = p$,$\Pr[X = 0] = 1-p$ - $\mathbb{E}[X] = p$ - $\text{Var}(X) = p(1-p)$

Binomial 分佈

定義: $n$ 次獨立 Bernoulli$(p)$ 試驗的成功次數 $$ X \sim \text{Binomial}(n, p) $$ - $\Pr[X = k] = \binom{n}{k} p^k (1-p)^{n-k}$ - $\mathbb{E}[X] = np$ - $\text{Var}(X) = np(1-p)$ 推導(用 Linearity): 令 $X = X_1 + \cdots + X_n$,其中 $X_i \sim \text{Bernoulli}(p)$ $$ \mathbb{E}[X] = \mathbb{E}[X_1] + \cdots + \mathbb{E}[X_n] = np $$

Geometric 分佈

定義: 直到第一次成功的試驗次數 $$ X \sim \text{Geometric}(p) $$ - $\Pr[X = k] = (1-p)^{k-1} p$ - $\mathbb{E}[X] = \frac{1}{p}$ - $\text{Var}(X) = \frac{1-p}{p^2}$ 無記憶性(Memoryless): $$\Pr[X > n+m \mid X > n] = \Pr[X > m]$$

變異數與協方差

變異數

$$ \text{Var}(X) = \mathbb{E}[(X - \mathbb{E}[X])^2] = \mathbb{E}[X^2] - (\mathbb{E}[X])^2 $$ 性質: - $\text{Var}(aX + b) = a^2 \text{Var}(X)$ - 若 $X, Y$ 獨立:$\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y)$

協方差

$$ \text{Cov}(X, Y) = \mathbb{E}[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y] $$ 性質: - 若 $X, Y$ 獨立,則 $\text{Cov}(X, Y) = 0$(反之不一定) - $\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y) + 2\text{Cov}(X, Y)$

總結

機率工具是隨機演算法的基礎:

  1. 機率公理 → Union Bound、包含排斥
  2. 條件機率 → Bayes 定理、全機率
  3. 獨立性 → 簡化計算
  4. 期望值Linearity of Expectation(最重要!)
  5. 常見分佈 → Bernoulli, Binomial, Geometric

下一步:用這些工具分析演算法的時間、正確性與效能!


參考資料

  • Mitzenmacher & Upfal, Probability and Computing, Chapter 1-2
  • Motwani & Raghavan, Randomized Algorithms, Appendix A
  • Ross, A First Course in Probability