Index: Notions de probabilités


Espace de probabilité

Tout commence par:

Définition 2.1   On appelle espace de probabilité un triplet $ (\Omega,{\cal
A},\hbox{$\mathbb{P}$})$ $ (\Omega,{\cal A})$ est un espace mesurable et $ \hbox{$\mathbb{P}$}$ une probabilité sur $ {\cal A}$.

Les éléments de $ {\cal A}$ s'appellent des événements. Pour des événements $ A$ et $ B$, on écrira indifféremment $ A\cap B$ ou $ AB$.


Premières propriétés. $ A_n,A,B$ étant des événements,


(i) $ \hbox{$\mathbb{P}$}(A^c)=1-\hbox{$\mathbb{P}$}(A)$, si $ A\subset B$, $ \hbox{$\mathbb{P}$}(A)\leq \hbox{$\mathbb{P}$}(B)$,


(ii) $ \hbox{$\mathbb{P}$}(A\cup B)=\hbox{$\mathbb{P}$}(A)+\hbox{$\mathbb{P}$}(B)-\hbox{$\mathbb{P}$}(A\cap B)$, $ \hbox{$\mathbb{P}$}(\cup A_n)\leq
\sum \hbox{$\mathbb{P}$}(A_n)$


(iii) si $ A_n\uparrow A$, $ \hbox{$\mathbb{P}$}(A_n)\uparrow \hbox{$\mathbb{P}$}(A)$, si $ A_n\downarrow A$, $ \hbox{$\mathbb{P}$}(A_n)\downarrow \hbox{$\mathbb{P}$}(A)$


Rappelons qu'un sous-ensemble $ B$ de $ \Omega$ est dit négligeable si $ B\subset
A\in{\cal A}$ tel que $ \hbox{$\mathbb{P}$}(A)=0$. Une propriété dépendant de $ \omega$ est vraie presque sûrement, en abrégé p.s., si elle est vraie en dehors d'un ensemble négligeable. Notons qu'un ensemble négligeable n'est pas toujours un événement sauf si l'espace $ (\Omega,{\cal
A},\hbox{$\mathbb{P}$})$ est complet. On peut cependant toujours se ramener à ce cas. Voir à ce sujet 1.2.3.



Probabilité conditionnelle.

Définition 2.2   Soient $ A,B\in{\cal A}$ avec $ P(B)>0$. On appelle probabilité conditionnelle de $ A$ sachant $ B$ et on note $ \hbox{$\mathbb{P}$}(A\vert B)$ la quantité $ \hbox{$\mathbb{P}$}(A\cap B)/\hbox{$\mathbb{P}$}(B)$.

Noter que $ A\mapsto \hbox{$\mathbb{P}$}(A\vert B)$ est une probabilité sur $ (\Omega,{\cal A})$. La proposition suivante s'appelle la formule de Bayes.

Proposition 2.3   Soient $ (B_n,\,n\in{\hbox{$\mathbb{N}$}})$ une partition de $ \Omega$ avec $ B_n\in {\cal A}$ et $ \hbox{$\mathbb{P}$}(B_n)>0$. On a, pour tout $ A\in {\cal A}$ tel que $ \hbox{$\mathbb{P}$}(A)>0$ et tout $ n$,

$\displaystyle \hbox{$\mathbb{P}$}(B_n\vert A)=\frac{\hbox{$\mathbb{P}$}(B_n)\hb...
...}$}(A\vert B_n)}{\sum_k\hbox{$\mathbb{P}$}(B_k)\hbox{$\mathbb{P}$}(A\vert B_k)}$

Démonstration. On a $ \hbox{$\mathbb{P}$}(B_n\vert A)=\frac{\hbox{$\mathbb{P}$}(A\cap
B_n)}{\hbox{$\...
...hbox{$\mathbb{P}$}(B_n)\hbox{$\mathbb{P}$}(A\vert B_n)}{\hbox{$\mathbb{P}$}(A)}$ et $ \hbox{$\mathbb{P}$}(A)=\sum_k \hbox{$\mathbb{P}$}(A\cap B_k)=\sum_k\hbox{$\mathbb{P}$}(B_k)\hbox{$\mathbb{P}$}(A\vert B_k)$ $ \qed$

Proposition 2.4   Soient $ A_1,\ldots,A_n$ des événements tels que $ \hbox{$\mathbb{P}$}(A_1\ldots A_n)>0$. Alors

$\displaystyle \hbox{$\mathbb{P}$}(A_1\ldots
A_n)=\hbox{$\mathbb{P}$}(A_1)\hbox{...
...hbb{P}$}(A_3\vert A_1A_2)\ldots\hbox{$\mathbb{P}$}(A_n\vert A_1\ldots A_{n-1}).$

Démonstration. Par récurrence $ \qed$


Si $ \hbox{$\mathbb{P}$}(A\vert B)=\hbox{$\mathbb{P}$}(A)$, l'occurrence de $ A$ n'est pas influencée par celle de $ B$, on dit que les événements $ A$ et $ B$ sont indépendants. Ceci s'écrit aussi $ \hbox{$\mathbb{P}$}(A\cap B)=\hbox{$\mathbb{P}$}(A)\hbox{$\mathbb{P}$}(B)$. On voit facilement qu'alors $ A$ et $ B^c$, $ A^c$ et $ B$, $ A^c$ et $ B^c$ sont aussi indépendants. En fait ce sont les tribus $ \sigma(A)=\{\Omega,\emptyset, A, A^c\}$ et $ \sigma(B)=\{\Omega,\emptyset, B,
B^c\}$ qui sont indépendantes. Nous développerons cette notion en 2.2.



Variables aléatoires.


Les variables aléatoires sont les fonctions qui dépendent du hasard, celui-ci étant modélisé par le tirage d'un point $ \omega\in\Omega$.

Définition 2.5   On appelle variable aléatoire (en abrégé v.a.) à valeurs $ (E,{\cal E})$ toute application mesurable de $ (\Omega,{\cal A})$ dans $ (E,{\cal E})$.

Si $ E$ est dénombrable et $ {\cal E}={\cal P}(E)$, on parle de v.a. discrète,


si $ E=\overline{\hbox{$\mathbb{R}$}}^+$ et $ {\cal E}={\cal B}(
\overline{\hbox{$\mathbb{R}$}}^+)$, on parle de v.a. positive,


si $ E=\hbox{$\mathbb{R}$}$ et $ {\cal E}={\cal B}(\hbox{$\mathbb{R}$})$, on parle de v.a. réelle (v.a.r.),


si $ E=\hbox{$\mathbb{R}$}^d$ et $ {\cal E}={\cal B}(\hbox{$\mathbb{R}$}^d)$, on parle de v.a. vectorielle,


si $ E=\hbox{$\mathbb{C}$}$ et $ {\cal E}={\cal B}(\hbox{$\mathbb{C}$})$, on parle de v.a. complexe.

Définition 2.6   Soit $ X$ une v.a.

Définition 2.7   Soit $ X$ une v.a. à valeurs $ (E,{\cal E})$. On appelle loi de $ X$ et on note $ \mu_X$ la mesure image (prop.1.20) de $ \hbox{$\mathbb{P}$}$ par $ X$.

Il résulte de la prop.1.20 que $ \mu_X$ est la probabilité sur $ (E,{\cal E})$ définie par

$\displaystyle \mu_X(\Gamma)=\hbox{$\mathbb{P}$}(X\in\Gamma)$$\displaystyle \{X\in \Gamma\}=\{\omega\in \Omega,\;X(\omega)\in \Gamma\}=X^{-1}(\Gamma),$ (2.1)

et que

pour toute $\displaystyle f\in{\cal E}^+\cup{\cal L}^1(E,{\cal E},\mu_X),\;\hbox{$\mathbb{E}$}(f(X))=\int f\,d\mu_X\,.$ (2.2)

Proposition 2.8   Soient $ X$ une v.a. à valeurs $ (E,{\cal E})$ et $ \phi$ une application mesurable de $ (E,{\cal E})$ dans $ (F,{\cal F})$, alors $ Y=\phi(X)$ est une v.a. à valeurs $ (F,{\cal F})$ et la loi de $ Y$ est l'image par $ \phi$ de la loi de $ X$.

Démonstration. Le premier point résulte de ce que la composée de deux applications mesurables est mesurable. Quant au second, on a, pour $ f\in {\cal F}^+$,

$\displaystyle \int f\,d\mu_Y=\hbox{$\mathbb{E}$}(f(Y))=\hbox{$\mathbb{E}$}(f(\phi(X)))=\int f\circ \phi\,d\mu_X$

i.e. (prop.1.20) $ \mu_Y$ est l'image par $ \phi$ de $ \mu_X$ $ \qed$


Exemples. Il y a deux situations fondamentales.


(i) $ X$ est discrète i.e. $ E$ est dénombrable. La loi $ \mu_X$ est alors déterminée par la famille $ (\mu_X(x),\;x\in E)$ $ \mu_X(x)=\hbox{$\mathbb{P}$}(X=x)$ et l'on a

pour toute $\displaystyle f\geq 0,\;\;\;\hbox{$\mathbb{E}$}(f(X))=\sum_{x\in E}f(x)\mu_X(x).$


(ii) $ X$ est vectorielle i.e. à valeurs $ \hbox{$\mathbb{R}$}^d$ et $ \mu_X=h_X.\lambda$, $ \lambda$ étant la mesure de Lebesgue sur $ \hbox{$\mathbb{R}$}^d$. On dit alors que $ X$ est une v.a. de densité $ h_X$. Dans ce cas, on a,

pour toute $\displaystyle f\in{\cal B}^+(\hbox{$\mathbb{R}$}^d),\;\;\;\hbox{$\mathbb{E}$}(f(X))=\int fh_X\,d\lambda.$



Retour Index: Notions de probabilités