Au concours, il arrive souvent qu’on nous fasse démontrer une nouvelle formule de l’espérance, ainsi qu’une nouvelle condition d’existence de l’espérance, pour des variables aléatoires discrètes ou continues. À l’écrit, on sera guidés par des questions intermédiaires, c’est par exemple le cas à l’ESSEC, en 2016 (maths appliquées). À l’oral, la question tombe aussi régulièrement, dans la partie exercice, ou en QSP, avec l’aide des examinateurs.
Dans cet article, on étudiera les deux cas : la propriété ainsi que sa démonstration dans le cas discret et le cas continu. Le cas continu étant analogue, on s’attardera plus sur le cas discret. Si la démonstration peut paraître compliquée au premier abord, les techniques utilisées sont plutôt classiques. Il ne faut pas apprendre la démonstration par cœur, mais plutôt la maîtriser.
En effet, la démonstration ne sert pas qu’à réutiliser ce résultat (tu seras sûrement guidé·e si tu en as besoin). L’intérêt réside surtout dans les outils utilisés et les techniques employées pour démontrer le résultat, qui pourront t’être utiles dans beaucoup d’autres exercices.
Le cas discret
Proposition
Soit \(X\) une variable aléatoire discrète à valeur dans \(\mathbb{N}^*\). \(X\) admet une espérance si et seulement si la série \(\displaystyle \sum_{k \geq 0} P([X>k])\) converge, et dans ce cas : \(\displaystyle \mathbb{E}(X)= \sum_{k = 0}^{+\infty}P([X>k])\).
Prouvons ce résultat.
Soit \(j\in \mathbb{N}^*\)
D’abord, \([X>j-1]=[X>j]\cup [X=j]\).
En effet, si l’événement \([X>j-1]\) est réalisé, alors soit \([X>j]\) est réalisé, soit \([X=j]\) est réalisé.
Réciproquement, si on a \([X>j]\) réalisé ou \([X=j]\) réalisé, alors \([X>j-1]\) est réalisé.
Nous sommes alors face à une union d’événements incompatibles, donc en passant aux probabilités, on trouve : \(P([X>j-1])=P([X>j])+P([X=j])\).
Ce résultat est à retenir. Il sert souvent au concours, mais n’est pas au programme !
On multiplie l’égalité précédente par \(j\), on a alors :
\(jP([X>j-1])=jP([X>j])+jP([X=j])\), ce qui veut aussi dire que \(jP([X=j])=jP([X>j-1])-jP([X>j])\).
Fixons désormais \(n\) dans \(\mathbb{N}^*\). On somme l’égalité, et on trouve alors :
\(
\begin{aligned}
\sum_{j=1}^n j P(X=j) &=\sum_{j=1}^n j(P(X>j-1)-P(X>j)) \\
&=\sum_{j=1}^n j P(X>j-1)-\sum_{j=1}^n j(P(X>j))\\
&=\sum_{j=0}^{n-1}(j+1)P(X>j)-\sum_{j=1}^{n-1} j P(X>j)-n P(X>n)\\
&=\sum_{j=0}^{n-1} P(X>j)+\sum_{j=0}^{n-1} jP(X>j)-\sum_{j=1}^{n-1} j P(X>j)-n P(X>n)\\
&=\sum_{j=0}^{n-1} P(X>j)-n P(X>n)
\end{aligned}
\)
Supposons désormais que \(X\) admet une espérance
Alors, la série \(\displaystyle \sum_{k \geq 1}P([X=k]) \) converge absolument selon la définition de l’espérance.
Donc, cette même série converge.
Alors, notre cours sur le reste des séries convergentes nous assure que \(\displaystyle \lim \limits_{n \to +\infty} \sum_{k=n}^{+\infty}P([X=k])=0\) (reste d’une série convergente).
Pour tout \(n \geq 1:[X>n]=\displaystyle \bigcup_{k=n+1}^{+\infty}[X=k]\).
Les événements considérés étant incompatibles, on a : \(n P(X>n)=\displaystyle \sum_{k=n+1}^{+\infty} n P(X=k)\).
Pour tout \(k \geq n+1, k P(X=k) \geq n P(X=k)\).
On en déduit : pour tout \(n \geq 1\),\(0 \leq n P(X>n) \leq \displaystyle \sum_{k=n+1}^{+\infty} k P(X=k)\).
Par théorème d’encadrement, on trouve alors que \(\lim \limits_{n \to +\infty} nP([X>n])=0 \).
On reprend l’égalité\(\displaystyle \sum_{j=1}^n j P(X=j) =\sum_{j=0}^{n-1} P(X>j)-n P(X>n) \) de laquelle on déduit que \( \displaystyle \sum_{j=0}^{n-1} P(X>j)=\sum_{j=1}^n j P(X=j) + n P(X>n)\).
Dès lors, on comprend que \(\displaystyle \lim _{n \rightarrow+\infty} \sum_{j=0}^{n-1} P(X>j)\) existe et vaut \(\mathbb{E}(X)\).
Finalement, \(\displaystyle \sum_{j \geq 0} P(X>j)\) converge et sa somme vaut \(\mathbb{E}(X)\).
On a donc prouvé la première implication de la propriété !
Réciproquement, supposons que la série \(\displaystyle \sum_{j \geq 0} P(X>j)\) converge
Montrons alors que \(X\) admet une espérance, et que celle-ci vaut \(\displaystyle \sum_{j \geq 0}^{+\infty} P(X>j)\).
On a \(\displaystyle \sum_{j=1}^n j P(X=j) \leq \sum_{j=0}^{n-1} P(X>j) \leq \sum_{j=0}^{+\infty} P(X>j)\).
Alors, \(\displaystyle \left(\sum_{j=1}^n j P(X=j)\right)_{n\in\mathbb{N}^*}\) est une suite croissante majorée, elle converge donc.
On en déduit que la série \(\displaystyle \sum_{j \geq 1} j P(X=j)\) est convergente. Comme tous les termes de la série sont positifs, on peut aussi dire que cette série converge absolument.
Donc, \(X\) admet une espérance.
On revient alors dans le cas précédent, celui où \(X\) admet une espérance, et dès lors, on sait que celle-ci vaut \(\displaystyle \sum_{j \geq 0}^{+\infty} P(X>j)\).
Ce qui achève la démonstration.
Le cas continu
Proposition
Soit \(X\) une variable aléatoire continue à valeur dans \(\mathbb{R}_+\). \(X\) admet une espérance si et seulement si l’intégrale impropre \(\displaystyle\int_0^{+\infty} P(X>t) d t\) converge, et dans ce cas : \(\displaystyle \mathbb{E}(X)= \int_0^{+\infty} P(X>t) d t\).
Prouvons ce résultat.
On note \(f\) une densité de \(X\), celle-ci est donc nulle sur \(\mathbb{R}_-\).
Par intégration par parties, on montre que pour tout \(A \in \mathbb{R}^*_+\) :
\(\displaystyle \int_0^A P(X>t) d t=A P(X>A)+\int_0^A t f(t) d t\).
Si \(X\) admet une espérance, alors : \(AP(X>A)=A \displaystyle \int_A^{+\infty}f(t)dt\), donc \(A P(X>A) \leq \displaystyle \int_A^{+\infty} t f(t) d t\).
On en déduit que l’intégrale \(\displaystyle \int_0^{+\infty}P(X>t) d t\) est convergente et qu’elle est égale à \(E(X)\) de la même manière que dans le cas discret.
Réciproquement, si \(\displaystyle \int_0^{+\infty} P(X>t) d t\) est convergente, alors \(X\) admet une espérance, de la même manière que dans le cas discret, et dès lors, on peut affirmer que :
\(
E(X)=\displaystyle \int_0^{+\infty} P(X>t) d t
\)
On a donc démontré le résultat.
On te conseille vivement de consulter nos ressources en mathématiques !