jeudi 5 août 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.7)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.7 - Partition de l’espace échantillonnal, probabilités totales, théorème de Bayes

Dans cette septième et dernière leçon du chapitre 1 le lecteur apprendra les notions suivantes:

  1. Partition de l’espace échantillonnal.
  2. Théorème des probabilités totales.
  3. Théorème de Bayes.


1.7.1 Partition de l’espace échantillonnal.

Définition.-
Si B1, B2, …, Bk sont des sous-ensembles disjoints de S (des événements mutuellement exclusifs) et si :
B1 U B2 U … U Bk = S
alors, ces ensembles forment une partition de S.
Lorsqu’on réalise l’expérience, un seul des événements, Bi, se réalise en présence d’une partition de S.

La figure suivante illustre une partition de S.




Étant donné la partition de S ci-dessus, si A désigne un événement arbitraire dans S comme le montre la figure ci-dessus, on peut toujours écrire :
A = (A ∩ B1) U (A ∩ B2) U … U (A ∩ Bk)
Comme les événements (A ∩ Bi) sont mutuellement exclusifs par paire (voir figure précédente où k = 4), on a :
P(A) = P(A ∩ B1) + P(A ∩ B2) + … + P(A ∩ Bk) (éq. 1.7.1)


1.7.2 Théorème des probabilités totales.
Si B1, B2, …, Bk forment une partition de S et si A est un événement quelconque dans S, alors la probabilité totale de A s’écrit:
P(A) = P(B1) . P(A\B1) + P(B2) . P(A\B2) + … + P(Bk) . P(A\Bk)
Ou:
P(A) = ∑ (P(Bi) . P(A\Bi)) , i entier allant de 1 à k (éq. 1.7.2)


Preuve.-

La preuve est évidente. Il suffit de porter (éq. 1.5.2 a) dans (éq. 1.7.1) :
P(A) = P(B1) . P(A\B1) + P(B2) . P(A\B2) + … + P(Bk) . P(A\Bk)
ou, en écriture condensée:
P(A) = ∑ ( P(Bi) . P(A\Bi)), i entier allant de 1 à k
Ce théorème est très utile. Si l’on sait que les Bi sont réalisés, alors on peut évaluer les probabilités conditionnelles P(ABi) et ainsi déterminer P(A), une fois que l’on connaît les probabilités P(Bi).


1.7.3 Théorème de Bayes.

Si B1, B2, …, Bk forment une partition de S et si A est un événement arbitraire dans S, alors, pour r = 1, 2, …, k, on a :
P(Br\A) = P(Br) . P(A\Br) / ∑ (P(Bi) . P(A\Bi)), i entier allant de 1 à k


Preuve.-

Selon la définition reliée à (éq. 1.5.1), on écrit :
P(Br\A) = P(Br ∩ A)/P(A) (a)
Selon la règle de multiplication, (éq. 1.5.2), on a:
P(Br ∩ A) = P(Br) . P(A\Br) (b)
On porte (b) et (éq. 1.7.2) au numérateur et au dénominateur respectivement du second membre de (a).
D’où :
P(Br\A) = P(Br) . P(A\Br) / ∑ (P(Bi) . P(A\Bi), i entier allant de 1 à k
C.Q.F.D.

Remarque.-
Dans la résolution des problèmes dans lesquelles les théorèmes de probabilité totale et de Bayes doivent être appliqués, on aura intérêt à faire un croquis clair montrant le diagramme de Venn de la partition de S et de l’événement étudié; de plus et surtout, un diagramme en arbre permettra d’appliquer aisément la règle de Bayes au problème étudié.
Le diagramme de Venn sera souvent présenté sous une forme ressemblant au croquis suivant:



L'utilisation du diagramme de Venn et du diagramme en arbre sera illustrée dans un exemple.

Fin de la Leçon 1.7


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and Statistics in Engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Moi-même.

______________________

Note.- Avec la leçon 1.7 prend fin le chapitre 1. On proposera sous peu un certain nombre d'exercices sur les 7 leçons du chapitre 1.

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.6)

Chapitre 1.- Quelques notions de base


  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.6 - Expériences statistiquement indépendantes, événements indépendants


Dans cette sixième leçon le lecteur apprendra les notions suivantes:

  1. Expériences statistiquement indépendantes, Événements indépendants.
  2. Événements mutuellement indépendants.



1.6.1 Expériences indépendantes, Événements indépendants

Expériences indépendantes.-

On dit que deux expériences aléatoires sont «statistiquement» indépendantes ou plus simplement indépendantes, quand le résultat de l’une n’a aucune influence sur le résultat de l’autre.

Soit A un événement associé à la première expérience et B un événement associé à la deuxième expérience. L’occurrence de A n’a pas d’influence sur la probabilité de l’occurrence de l’événement B, et réciproquement. On dit alors que les événements A et B sont (statistiquement) indépendants.


Définition.-

Soit deux expériences aléatoires E1 et E2 et deux événements arbitraires A1 et A2 définis dans leurs espaces échantillonnaux respectifs.
Si P(A1 ∩ A2) = P(A1) . P(A2), alors les expériences E1 et E2 sont dites indépendantes.


Événements indépendants.-

Plus formellement, on définit ci-après l’indépendance de deux événements.

Définition.-

Deux événements sont indépendants l’un de l’autre si et seulement si la probabilité de leur intersection est égale au produit de leurs probabilités respectives:
P(A ∩ B) = P(A) . P(B)


Conséquence.-

Dans le cas de deux événements indépendants A et B, la relation générale définissant la probabilité conditionnelle s’écrit :

P(A\B) = P(A ∩ B)/P(B) = P(A) . P(B) / P(B) = P(A)

De même,

P(B\A) = P(B ∩ A)/P(A) = P(B) . P(A) / P(A) = P(B)

Donc, A et B étant indépendants, on a:

P(A\B) = P(A); P(B\A) = P(B)


Théorème.-
Si A et B sont deux événements indépendants, alors (B’ étant le complémentaire de B; A’ le complémentaire de A):


  1. A et B’ sont des événements indépendants.
  2. A’ et B’ sont des événements indépendants.
  3. A’ et B sont des événements indépendants.

Preuve.- (preuve de 1. seulement).


On suppose que A et B sont indépendants. De la règle de multiplication, on tire:
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A)(1 - P(B\A))
P(A ∩ B’) = P(A)(1 - P(B))
P(A ∩ B’) = P(A) . P(B’).

Les événements A et B’ sont donc indépendants.


1.6.2 Événements mutuellement indépendants

Définition.-


K événements A1, A2, …, Ak sont mutuellement indépendants si et seulement si la probabilité de l’intersection de 2, de 3, …, de k de ces ensembles pris au hasard, correspond au produit de leurs probabilités respectives :

P(Ai1 ∩ Ai2 ∩ … ∩ Air) = P(Ai1) . P(Ai2) . … . P(Air), r = 2, 3, … , k.

La définition précédente contient (2^k – k – 1) conditions à satisfaire. Dans le cas de 3 événements indépendants A, B et C, ces conditions sont au nombre de 4 :

P(A ∩ B) = P(A) . P(B);
P(B ∩ C) = P(B) . P(C);
P(C ∩ A) = P(C) . P(A);
P(A ∩ B ∩ C) = P(A) . P(B). P(C).


Fin de la leçon 1.6


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Rozanov, Y.A. (1977) Probability Theory-A Concise Course, Dover, 148 p.
  4. Moi-même.

mercredi 4 août 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.5)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

    LEÇON 1.5 - Les probabilités conditionnelles

    Dans cette cinquième leçon le lecteur apprendra les notions suivantes:
  1. Probabilité conditionnelle d’un événement.
  2. Propriétés de la probabilité conditionnelle.

1.5.1 Probabilité conditionnelle d’un événement.

Si l’on dispose d’une information a priori sur le résultat d’une expérience aléatoire, cette information peut souvent changer la probabilité de ce résultat.
Les probabilités conditionnelles tiennent compte des changements qui résultent d’informations antérieures.

Une probabilité conditionnelle est la probabilité d’un événement, étant donné qu’un autre événement a déjà lieu.

Toutes les probabilités considérées dans la leçon 3 étaient associées à l’espace échantillonnal S dans son ensemble. Au lieu de noter P(A), la probabilité d’un événement A donné, on aurait pu écrire P(A\S) qui se lit : «probabilité de A par rapport à l’espace échantillonnal S».

Dans cette leçon, on va trouver la probabilité d’événements d’un sous ensemble quelconque de l’espace échantillonnal S.


La probabilité conditionnelle de l’événement A, étant donné la réalisation de l’événement B, se note P(A\B).


Espace échantillonnal réduit.-

On définit l’espace échantillonnal réduit comme étant l’espace formé de tous les sous-ensembles de S qui appartiennent à B, un événement dont la réalisation est supposée (a priori).

La figure suivante illustre la situation.




Définition de la probabilité conditionnelle.-

La probabilité conditionnelle de l’événement A étant donné la réalisation de l’événement B se définit comme suit :
P(A\B) = P(A ∩ B)/P(B), si P(B) ≠ 0 (éq. 1.5.1)


1.5.2 Propriétés de la probabilité conditionnelle.

La probabilité conditionnelle a les propriétés requises d’une probabilité, à savoir :
1. 0 ≤ P(A\B) ≤ 1.
2. P(S\B) = 1.
3. P( (A1\B) U (A2\B) U … U (Ak\B) ) = ∑ P(Ai\B), i entier allant de 1 à k, si Ai ∩ Aj = Ø, i ≠ j.
4. Pour une suite A1, A2, A3, … dénombrable d’événements disjoints, on a :
P( (A1\B) U (A2\B) U (A3\B) U … ) = ∑ P(Ai\B), i entier allant de 1 à ∞.



Règle de multiplication.-

On peut écrire:
P(A ∩ B) = P(B) . P(A\B), P(B) > 0 (éq. 1.5.2 a)
P(A ∩ B) = P(A) . P(B\A), P(A) > 0 (éq. 1.5.2 b)


Si A et B sont mutuellement exclusifs (A ∩ B = Ø), alors P(A\B) = P(B\A) = 0. (Voir figure ci-après).




Si B inclus dans A, alors P(A\B) = 1. (Voir figure ci-après).

En effet, si B inclus dans A, alors P(A ∩ B)= P(B).
Or, P(A ∩ B) = P(B) . P(A\B)
Donc P(B) = P(B) . P(A\B)
Par conséquent,
P(A\B) = 1.



Fin de la leçon 1.5


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and Statistics in Engineering, Fourth Edition, Wiley 2003, des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Moi-même.

Compteur