[Ald85] D.Aldous . Exchangeability and related topics. St-Flour Lecture Notes (1985).
[Ber06] J.Bertoin. Random fragmentation and coagulation processes (Vol. 102). Cambridge University Press. (2006)
[Kle13] A.Klenke. Probability theory: a comprehensive course. Springer Science & Business Media (2013).
[Wik24] Wikipedia page: Exchangeable random variables.
Quelques exemples :
Un exemple :
Soient $r,b\geq 1$. On considère une urne avec $r$ boules rouges, $b$ boules bleues à l'instant $i=0$. A tout instant $i$ on tire une boule uniformément et on la remet dans l'urne, avec une nouvelle boule de la même couleur. On pose
$$
X_i=\mathbf{1}_{i-\text{ème boule est rouge}}.
$$
Le résultat suivant n'est pas intuitif :
Conséquences :
Pourvu que $\Lambda$ vérifie bien p.s. les hypothèses que l'on souhaite, on peut appliquer "presque tout" théorème limite aux $X_i$ conditionnellement à $\mathcal{T}$, et ensuite déconditionner. On a par exemple :
Je détaille la LFGN. Supposons que $\mathbb{E}[|X_1|]<+\infty$, ce qui implique que la v.a. $$ \mathrm{mean}(\Lambda):= \int x d\Lambda(x) $$ est bien définie p.s. Alors $$ \mathbb{P}\bigg(\frac{X_1+\dots+X_n}{n}\to \mathrm{mean}(\Lambda)\bigg)= \mathbb{E}\bigg[\mathbb{P}\bigg(\frac{X_1+\dots+X_n}{n}\to \mathrm{mean}(\Lambda)\ |\ \mathcal{T}\bigg)\bigg] =\mathbb{E}[1]=1, $$ où l'on a appliqué la LFGN "classique".
Pour voir concrètement comment peuvent s'appliquer les résultats ci-dessus, on revient sur Pólya.
Sachant $\mathcal{T}$ les $X_i$ sont i.i.d. de loi $\Lambda$, à support dans $\{0,1\}$. On écrit $\Lambda=\mathrm{Bernoulli}(P)$, où $P$ est une v.a. dans $[0,1]$ qu'on cherche à déterminer. On va calculer ses moments.
Soit $n\geq 1$, $$ \mathbb{P}(X_1=X_2=\dots =X_n=1\ |\ \mathcal{T})= P^n. $$ En passant à l'espérance, $$ \mathbb{P}(X_1=X_2=\dots =X_n=1)= \mathbb{E}[P^n], $$ mais par ailleurs le terme de gauche est la probabilité de ne tomber que sur rouge : $$ \mathbb{P}(X_1=X_2=\dots =X_n=1)= \frac{r}{r+b}\times \frac{r+1}{r+b+1}\times \dots\times \frac{r+(n-1)}{r+b+(n-1)}. $$ Dans le terme de droite on "reconnaît" le $n$-ème moment de la loi Beta de paramètres $(r,b)$. Pour résumer on a donc $$ \frac{X_1+\dots+X_n}{n}\stackrel{\text{p.s.}}{\to} \mathrm{mean}(\Lambda)=P \stackrel{\text{(d)}}{=} \mathrm{Beta}(r,b). $$ (On a aussi un TCL mais la renormalisation en $\sqrt{P(1-P)}$ est aléatoire.)