Index: Notions de probabilités


Indépendance

Toutes les tribus considérées sont des sous-tribus de $ {\cal A}$.


Tribus indépendantes.

Définition 2.9   Des tribus $ {\cal B}_i,\,i=1,\ldots,n$ sont dites indépendantes si

pour tous $\displaystyle A_i\in {\cal B}_i\,,\; \;\;\hbox{$\mathbb{P}$}(\cap_{i=1}^n
A_i)=\prod_{i=1}^n \hbox{$\mathbb{P}$}(A_i).$

Une famille quelconque ( $ {\cal B}_i,\,i\in I)$ de tribus est dite indépendante si toute sous famille finie est indépendante.


Cette définition a comme conséquence évidente mais importante:

Lemme 2.10   Si les tribus $ ({\cal B}_i,\,i\in I)$ sont indépendantes et si, pour chaque $ i\in I$, $ {\cal B}'_i$ est une sous-tribu de $ {\cal B}_i$, les tribus $ ({\cal B}'_i,\,i\in I)$ sont indépendantes.

Proposition 2.11   Soient $ {\cal C}_k\subset{\cal
P}(\Omega),\,k=1,\ldots,n$ des classes stables par intersection finie et contenant $ \Omega$. On suppose que

pour tous $\displaystyle A_k\in {\cal C}_k,\,k=1,\ldots,n,\; \hbox{$\mathbb{P}$}(\cap_{k=1}^{n}A_k)=\prod _{k=1}^{n}\hbox{$\mathbb{P}$}(A_k).$ (2.3)

Alors les tribus $ \sigma({\cal C}_k),\,k=1,\ldots,n$, sont indépendantes.

Démonstration. On considère la propriété pour $ k=1,\ldots,n$,

$\displaystyle (P_k): \forall A_i\in \sigma({\cal C}_i),\;i=1,\ldots,k-1,\,
\for...
...box{$\mathbb{P}$}(\cap_{k=1}^{n}A_k))=\prod _{k=1}^{n}\hbox{$\mathbb{P}$}(A_k).$

Par hypothèse $ (P_1)$ est vraie. Supposons $ (P_r)$. On pose

$\displaystyle \displaylines{{\cal M}=\{B,\; \forall A_i\in \sigma({\cal
C}_i),\...
...{$\mathbb{P}$}(B)\hbox{$\mathbb{P}$}(A_{r+1})\ldots\hbox{$\mathbb{P}$}(A_n)\}.}$

$ {\cal M}$ contient $ \Omega$, est stable par limite croissante et contient, vu ($ P_r$), $ {\cal C}_r$ donc (prop.1.1) $ {\cal M}$ contient $ \sigma({\cal
C}_r)$ et $ (P_{r+1})$ est vraie. On a donc ($ P_n$) qui est le résultat cherché $ \qed$


Enfin on a ``l'indépendance par paquets'':

Proposition 2.12   Soient $ ({\cal B}_i,\,i\in I)$ des tribus indépendantes et $ (I_j,\,j\in J)$ une partition de $ I$. Alors les tribus $ (\sigma({\cal
B}_i,\,i\in I_j),\,j\in J)$ sont indépendantes.

Démonstration. Il suffit de considérer le cas $ J$ fini. Soit

$\displaystyle {\cal C}_j=\{B,\, B=A_1A_2\ldots A_n,\, A_k\in \cup_{i\in I_j}{\cal B}_i\}.$

Vu l'indépendance des $ {\cal B}_i$, on a, pour tous $ B_j\in {\cal C}_j$, $ \hbox{$\mathbb{P}$}(\cap B_j)=\prod
\hbox{$\mathbb{P}$}(B_j)$. Mais les $ {\cal C}_j$ sont stables par intersection finie, $ \Omega\in
{\cal C}_j$ et $ \sigma({\cal C}_j)=\sigma({\cal B}_i,\,i\in I_j)$. On applique la prop.2.11 $ \qed$



Variables aléatoires indépendantes.

Définition 2.13   Des v.a. $ (X_i,i\in I)$ à valeurs $ (E_i,{\cal E}_i)$ sont dites indépendantes si les tribus $ (\sigma(X_i),\,i\in I)$ sont indépendantes.

Des événements $ (A_i,i\in I)$ sont dits indépendants si les tribus $ (\sigma(A_i),
\,i\in I)$ sont indépendantes.

On a immédiatement,

Lemme 2.14   Si les tribus $ ({\cal B}_i,\,i\in I)$ sont indépendantes et si, pour chaque $ i\in I$, $ X_i$ est une v.a. $ {\cal B}_i$-mesurable, les v.a. $ (X_i,\,i\in I)$ sont indépendantes.

Démonstration. On remarque que $ \sigma(X_i)\subset {\cal B}_i$ et on applique le lem.2.10 $ \qed$


Le résultat essentiel est:

Théorème 2.15   Soient $ X_i$ des v.a. à valeurs $ (E_i,{\cal E}_i)$ $ i=1,\ldots,n$. Les propriétés suivantes sont équivalentes:
(i)
Les v.a. $ X_1,\ldots,X_n$ sont indépendantes.
(ii)
Pour tous $ \Gamma_i\in {\cal E}_i$, $ \hbox{$\mathbb{P}$}(X_1\in \Gamma_1,\ldots,
X_n\in \Gamma_n)=\hbox{$\mathbb{P}$}(X_1\in \Gamma_1)\ldots\hbox{$\mathbb{P}$}(X_n\in \Gamma_n)$.
(iii)
Pour tous $ \Gamma_i\in {\cal D}_i$, $ \hbox{$\mathbb{P}$}(X_1\in \Gamma_1,\ldots,
X_n\in \Gamma_n)=\hbox{$\mathbb{P}$}(X_1\in \Gamma_1)\ldots\hbox{$\mathbb{P}$}(x_n\in \Gamma_n)$ où, pour chaque $ i$, $ {\cal D}_i$ est une classe stable par intersection finie, contenant $ E_i$ et telle que $ \sigma({\cal D}_i)={\cal E}_i$.
(iv)
Pour toutes $ f_i\in {\cal E}^+_i$ (resp. $ f_i\in b{\cal E}_i$), $ \hbox{$\mathbb{E}$}(f_1(X_1)\ldots f_n(X_n))=\hbox{$\mathbb{E}$}(f_1(X_1))\ldots\hbox{$\mathbb{E}$}(f_n(X_n))$.
(v)
$ \mu_{(X_1,\ldots,X_n)}=\mu_{X_1}\otimes\ldots\otimes \mu_{X_n}$.

Démonstration. (i) $ \Leftrightarrow$(ii). C'est la définition.


(ii) $ \Rightarrow$(v). On a, pour tous $ \Gamma_i\in {\cal E}_i$,

$\displaystyle \mu_{(X_1,\ldots,X_n)}(\Gamma_1\times\ldots\times \Gamma_n)
=\mu_{X_1}(\Gamma_1)\ldots\mu_{X_n}(\Gamma_n)$

ce qui entraîne l'égalité des mesures (th.1.21).


(v) $ \Rightarrow$(iv). C'est le th.1.21 ou le th.1.22.


(iv) $ \Rightarrow$(iii). On prend $ f_i=\hbox{{\indic 1}$_{\{\Gamma_i\}}$}$.


(iii) $ \Rightarrow$(ii). On applique la prop.2.11 aux $ {\cal
C}_i=\{X_i^{-1}(\Gamma),\,\Gamma\in {\cal D}_i\}$ $ \qed$

Corollaire 2.16   Soient $ X_1,\ldots,X_n$ des v.a.r., il y a équivalence entre

(i) Les v.a. $ X_1,\ldots,X_n$ sont indépendantes.

(ii) Pour tous $ a_i,b_i\in\hbox{$\mathbb{R}$}$,

$\displaystyle \hbox{$\mathbb{P}$}(a_1<X_1<b_1,\ldots,a_n<X_n<b_n)=\hbox{$\mathbb{P}$}(a_1<X_1<b_1)\ldots \hbox{$\mathbb{P}$}(a_n<X_n<b_n).$

(iii) Pour toutes $ f_i$ continues à support compact

$\displaystyle \hbox{$\mathbb{E}$}(f_1(X_1)\ldots f_n(X_n))=\hbox{$\mathbb{E}$}(f_1(X_1))\ldots\hbox{$\mathbb{E}$}(f_n(X_n)).$

Démonstration. Il suffit de remarquer que (iii) $ \Rightarrow$(ii) puisque $ \hbox{{\indic 1}$_{\{]a,b[\}}$}=\lim\uparrow f_m$ avec $ f_m\in C_k$ et d'appliquer le th.2.15 $ \qed$

Corollaire 2.17   Soient $ X_1,\ldots,X_n$ des v.a.r. intégrables indépendantes. Alors le produit $ X_1\ldots X_n$ est intégrable et $ \hbox{$\mathbb{E}$}(X_1\ldots
X_n)=\hbox{$\mathbb{E}$}(X_1)\ldots
\hbox{$\mathbb{E}$}(X_n)$.

Démonstration. On a, vu (iv), $ \hbox{$\mathbb{E}$}\vert X_1\ldots X_n\vert=\hbox{$\mathbb{E}$}\vert X_1\vert\ldots \hbox{$\mathbb{E}$}\vert X_n\vert<+\infty$. Donc $ X_1\ldots X_n\in L^1(\mu_{(X_1,\ldots,X_n)})$ et on applique (v) et le th. de Fubini $ \qed$


Remarque 1. Si les v.a. $ X_1,\ldots,X_n$ sont à valeurs $ E_i$ dénombrables, une condition nécessaire et suffisante d'indépendance est (il suffit de sommer)

$\displaystyle \forall x_i\in
E_i,\;\;\hbox{$\mathbb{P}$}(X_1=x_1,\ldots,X_n=x_n)=\hbox{$\mathbb{P}$}(X_1=x_1)\ldots\hbox{$\mathbb{P}$}(X_n=x_n).$

Remarque 2. Attention. On peut avoir $ X$ indépendante de $ Y$, $ X$ indépendante de $ Z$ sans que $ X$ soit indépendante de $ (Y,Z)$. Par exemple soient $ X$ et $ Y$ deux v.a. indépendantes telles que $ \hbox{$\mathbb{P}$}(X=1)=\hbox{$\mathbb{P}$}(Y=1)=\hbox{$\mathbb{P}$}(X=-1)=\hbox{$\mathbb{P}$}(Y=-1)=\frac{1}{2}$. On pose $ Z=XY$. On a encore $ \hbox{$\mathbb{P}$}(Z=1)=\hbox{$\mathbb{P}$}(Z=-1)=\frac{1}{2}$. On vérifie facilement que $ X$ et $ Z$ sont indépendantes (en effet $ \hbox{$\mathbb{P}$}(X=1,Z=1)=\hbox{$\mathbb{P}$}(X=1,Y=1)=\frac{1}{4}=\hbox{$\mathbb{P}$}(X=1)\hbox{$\mathbb{P}$}(Z=1),\ldots$). Mais $ X$ n'est pas indépendante de $ Z/Y=X$ car ceci implique $ X=C^{te}$. En fait la classe $ {\cal C}=\{A,\;A=\{Y\in\Gamma_1\}\;$ou$ \;A=\{Z\in\Gamma_2\}\}$ n'est pas stable par intersection.



Loi 0-$ 1$.

Proposition 2.18   Soit $ X_1,\ldots,X_n,\ldots$ une suite de v.a. indépendantes. On pose

$\displaystyle {\cal B}_\infty=\cap_{n\geq 1}\sigma(X_k,\;k\geq n).$

Alors, pour tout $ A\in {\cal
B}_\infty$, $ \hbox{$\mathbb{P}$}(A)=0$ ou $ 1$. De plus, si $ X$ est une v.a.r. $ {\cal
B}_\infty$-mesurable alors $ X$ est p.s. constante.

Démonstration. Posons $ {\cal A}_n=\sigma(X_k,\;k\leq n)$, $ {\cal A}_\infty=\sigma(
X_k,\;k\geq 0)$, $ {\cal B}_n=\sigma(X_k,\;k\geq n)$. D'après la prop.2.12, $ {\cal
A}_n$ est indépendante de $ {\cal B}_{n+1}$ et de $ {\cal B}_\infty\subset {\cal B}_{n+1}$. Donc $ {\cal
B}_\infty$ est indépendante de $ {\cal A}_\infty$ (prop.2.11 appliquée à $ \cup{\cal A}_n$) mais $ {\cal
B}_\infty\subset {\cal A}_\infty$ d'où $ {\cal
B}_\infty$ est indépendante d'elle même. Si $ A\in {\cal
B}_\infty$, on a donc $ \hbox{$\mathbb{P}$}(A)=\hbox{$\mathbb{P}$}(A\cap A)=\hbox{$\mathbb{P}$}(A)\hbox{$\mathbb{P}$}(A)$ i.e. $ \hbox{$\mathbb{P}$}(A)=0$ ou $ 1$. Si $ X$ est une v.a. $ {\cal
B}_\infty$-mesurable, $ \hbox{$\mathbb{P}$}(X\leq a)=0$ ou $ 1$. Donc si $ c=\sup(a,\,\hbox{$\mathbb{P}$}(X\leq
a)=0)$,

$\displaystyle \hbox{$\mathbb{P}$}(X=c)=\lim\downarrow \hbox{$\mathbb{P}$}(X\leq c+\epsilon)-\lim\uparrow \hbox{$\mathbb{P}$}(X\leq
c-\epsilon)=1\ \qed$


Applications. Soit $ X_1,\ldots,X_n,\ldots$ une suite de v.a.r. indépendantes. On a $ \{\sum
X_n$ converge$ \}$ $ \in{\cal B}_\infty$ donc une série de v.a.r. indépendantes converge p.s. ou diverge p.s. De même $ \hbox{$\overline{\lim}\;$}\frac{1}{n}(X_1+\ldots+X_n)$ est une v.a. $ {\cal
B}_\infty$-mesurable et donc cette $ \hbox{$\overline{\lim}\;$}$ est p.s. constante.



Lemme de Borel-Cantelli.


Rappelons que, pour des événements $ A_n$,

$\displaystyle \hbox{$\overline{\lim}\;$}A_n=\cap_n\cup_{k\geq n}A_k=\lim\downarrow_n \cup_{k\geq n}A_k.$

On a donc $ \hbox{$\overline{\lim}\;$}A_n=\{\omega,\;\omega\in A_n$ pour une infinité de $ n\}=
\{\sum_{n}\hbox{{\indic 1}$_{\{A_n\}}$}=+\infty\}$.

Proposition 2.19   Soit $ (A_n,\,n\geq 0)$ une suite d'événements.
(i)
Si $ \sum_{n}\hbox{$\mathbb{P}$}(A_n)<+\infty$, $ \hbox{$\mathbb{P}$}(\hbox{$\overline{\lim}\;$}A_n)=0$.
(ii)
Si les $ A_n$ sont indépendants et si $ \sum_{n}\hbox{$\mathbb{P}$}(A_n)=+\infty$, $ \hbox{$\mathbb{P}$}(\hbox{$\overline{\lim}\;$}A_n)=1$.

Démonstration. (i) On a

$\displaystyle \hbox{$\mathbb{P}$}(\hbox{$\overline{\lim}\;$}A_n)=\lim\downarrow...
...geq n}A_k)\leq
\lim\downarrow_n \sum_{k=n}^{\infty}\hbox{$\mathbb{P}$}(A_k)=0.$


(ii) Vu l'inégalité $ 1-u\leq$   e$ ^{-u}$ et l'indépendance des $ A_n^c$, on a

$\displaystyle \displaylines{\hbox{$\mathbb{P}$}(\cap_{k=n}^{m}A_k^c)=\prod_{k=n...
...bb{P}$}(\cap_{k=n}^{m}A_k^c)=0\mbox{
si }\sum\hbox{$\mathbb{P}$}(A_n)=+\infty.}$

Passant au complémentaire, on a $ \hbox{$\mathbb{P}$}(\cup_{k=n}^{\infty}A_k)=1$ et $ \hbox{$\mathbb{P}$}(\hbox{$\overline{\lim}\;$}A_n)=1$ $ \qed$



Retour Index: Notions de probabilités