Chapitre 1.- Quelques notions de base
- Introduction
- Définition de quelques termes reliés aux ensembles et aux probabilités
- La probabilité d'un événement et sa détermination
- L'espace échantillonnal fini et son dénombrement
- Les probabilités conditionnelles
- Les expériences statistiquement indépendantes et les événements indépendants
- La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes
***********************************************
LEÇON 1.6 - Expériences statistiquement indépendantes, événements indépendants
Dans cette sixième leçon le lecteur apprendra les notions suivantes:
- Expériences statistiquement indépendantes, Événements indépendants.
- Événements mutuellement indépendants.
1.6.1 Expériences indépendantes, Événements indépendants
Expériences indépendantes.-
On dit que deux expériences aléatoires sont «statistiquement» indépendantes ou plus simplement indépendantes, quand le résultat de l’une n’a aucune influence sur le résultat de l’autre.
Soit A un événement associé à la première expérience et B un événement associé à la deuxième expérience. L’occurrence de A n’a pas d’influence sur la probabilité de l’occurrence de l’événement B, et réciproquement. On dit alors que les événements A et B sont (statistiquement) indépendants.
Définition.-
Soit deux expériences aléatoires E1 et E2 et deux événements arbitraires A1 et A2 définis dans leurs espaces échantillonnaux respectifs.
Si P(A1 ∩ A2) = P(A1) . P(A2), alors les expériences E1 et E2 sont dites indépendantes.
Événements indépendants.-
Plus formellement, on définit ci-après l’indépendance de deux événements.
Définition.-
Deux événements sont indépendants l’un de l’autre si et seulement si la probabilité de leur intersection est égale au produit de leurs probabilités respectives:
P(A ∩ B) = P(A) . P(B)
Conséquence.-
Dans le cas de deux événements indépendants A et B, la relation générale définissant la probabilité conditionnelle s’écrit :
P(A\B) = P(A ∩ B)/P(B) = P(A) . P(B) / P(B) = P(A)
De même,
P(B\A) = P(B ∩ A)/P(A) = P(B) . P(A) / P(A) = P(B)
Donc, A et B étant indépendants, on a:
P(A\B) = P(A); P(B\A) = P(B)
Théorème.-
Si A et B sont deux événements indépendants, alors (B’ étant le complémentaire de B; A’ le complémentaire de A):
- A et B’ sont des événements indépendants.
- A’ et B’ sont des événements indépendants.
- A’ et B sont des événements indépendants.
Preuve.- (preuve de 1. seulement).
On suppose que A et B sont indépendants. De la règle de multiplication, on tire:
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A)(1 - P(B\A))
P(A ∩ B’) = P(A)(1 - P(B))
P(A ∩ B’) = P(A) . P(B’).
Les événements A et B’ sont donc indépendants.
1.6.2 Événements mutuellement indépendants
Définition.-
K événements A1, A2, …, Ak sont mutuellement indépendants si et seulement si la probabilité de l’intersection de 2, de 3, …, de k de ces ensembles pris au hasard, correspond au produit de leurs probabilités respectives :
P(Ai1 ∩ Ai2 ∩ … ∩ Air) = P(Ai1) . P(Ai2) . … . P(Air), r = 2, 3, … , k.
La définition précédente contient (2^k – k – 1) conditions à satisfaire. Dans le cas de 3 événements indépendants A, B et C, ces conditions sont au nombre de 4 :
P(A ∩ B) = P(A) . P(B);
P(B ∩ C) = P(B) . P(C);
P(C ∩ A) = P(C) . P(A);
P(A ∩ B ∩ C) = P(A) . P(B). P(C).
Fin de la leçon 1.6
Références utilisées
- Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
- Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
- Rozanov, Y.A. (1977) Probability Theory-A Concise Course, Dover, 148 p.
- Moi-même.
Aucun commentaire:
Enregistrer un commentaire