jeudi 16 décembre 2010

Haïti-élections présidentielles 2010-2011/Un second tour à trois?

Par Dr. Pierre Montès
LCDP-Mathématiques appliquées, jeudi 16 décembre 2010.
Mise à jour: dimanche 23 janvier 2011

Selon les résultats du premier tour publiés par le CEP le 7 décembre 2010, malgré le faible écart de 6845 voix qui sépare les candidats Jude Célestin et Michel Martelly, classés deuxième et troisième respectivement, loin derrière la candidate Mirlande Manigat, classée première, la statistique mathématique ne permet pas de considérer que les candidats Célestin et Martelly soient à égalité.

Aux élections présidentielles 2010, le nombre d’électeurs potentiels est, selon le CEP, estimé à 4 712 693. C’est la taille de la population considérée dans cet article. Nous la désignerons par N.

Au premier tour des élections réalisé le 28 novembre 2010, selon les données du CEP, 1 074 056 électeurs ont voté pour les 19 candidats à la présidence. Ces électeurs constituent un échantillon de taille n = 1 074 056 tiré au hasard de la population de taille N. Le taux de participation s’est donc établi à environ 23%.

Les trois candidats arrivant en tête et se démarquant des 16 autres, sont :

  1. Mirlande Manigat, 1ère, avec X1= 336 878 voix, ou en proportion p1 = X1/n = 0,3137.
  2. Jude Célestin, 2eme, avec X2 = 241 462 voix, ou en proportion p2 = X2/n = 0,2248.
  3. Michel Martelly, 3eme, avec X3 = 234 617, ou en proportion p3 = X3/n = 0,2184.

Soient P1, P2, P3 les proportions réelles (nombres inconnus qui le resteront à jamais, du point de vue de la statistique) des électeurs qui auraient voté pour Mirlande Manigat, Jude Célestin et Michel Martelly, respectivement, si toute la population de taille N = 4,7 millions avait voté le 28 novembre 2010.

Les proportions inconnues P1, P2 et P3 sont des paramètres (fixes, le jour du scrutin, et inconnus). Les quantités p1, p2 et p3, estimateurs de P1, P2 et P3, suivent des lois binomiales, comme les quantités X1, X2 et X3 qui ont servis à les définir.

Le candidat Michel Martelly étant classé troisième au premier tour n’est pas admis à concourir au deuxième tour des élections présidentielles. Il proteste en dénonçant les fraudes qui ont été commises le jour du scrutin par les partisans du candidat du pouvoir Jude Célestin, apparemment moins populaire que lui à travers le pays.

De plus, l’écart entre Martelly et Célestin est de 6 845 voix, soit 0,64%.

Les partisans de Michel Martelly ont protesté pendant plusieurs jours contre l’élimination de leur candidat par le CEP, obéissant selon eux aux ordres du pouvoir. Michel Martelly, selon ses partisans, aurait dû terminer 2eme, au premier tour, devant le candidat du pouvoir Jude Célestin.

Sous les pressions de la Rue et des pays amis d'Haïti, le CEP a accepté de procéder à un recomptage des voix pour les trois candidats qui sont arrivés en tête du classement.

Le recomptage des voix déterminera quel est le candidat qui ira au second tour en face de la favorite, Mirlande Manigat, le 16 janvier 2010.

En attendant, plusieurs secteurs suggèrent que le second tour soit organisé avec les trois premiers candidats : Manigat, Martelly et Célestin, considérant que l’écart entre Célestin et Martelly est tellement faible que l’on peut les considérer comme ex aequo. La France est pour un second tour à trois.

Selon Madame Mirlande Manigat, constitutionnaliste, le second tour à trois est inconstitutionnel, même si la loi électorale le permet, car la loi électorale ne peut être au-dessus de la Constitution.


Martelly et Célestin sont-ils vraiment à égalité ?

Du point de vue de la statistique mathématique, peut-on dire que les deux candidats Martelly et Célestin sont à égalité sur la base des résultats publiés le 7 décembre (avant recomptage)?

En d’autres termes, sur la base des résultats du premier tour publiés le 7 décembre 2010, et moyennant un niveau de confiance acceptable (95%, 99%, 99,9%, ou 99.99%), peut-on accepter pour vraie l’hypothèse nulle :
H0 : P2 = P3
Et rejeter l’hypothèse alternative :
H1 : P2 ≠ P3 ?

Nous allons voir que, quel que soit le choix du niveau de confiance parmi ceux mentionnés ci-dessus, l’hypothèse nulle H0 : P2 = P3 est rejetée. Par conséquent on devrait accepter l’hypothèse alternative H1 : P2 ≠ P3.

Sur la base de ces calculs, Michel Martelly devrait donc être écarté du second tour.

Montrons que l’hypothèse H0 : P2 = P3 est fausse.

L’échantillon de taille n peut être considéré comme tiré aléatoirement de la population de taille N. La taille de l’échantillon aléatoire étant grand, on peut supposer que les estimateurs p1, p2 et p3 suivent approximativement la loi normale. Les variables X2 et X3 (nombre d'électeurs ayant voté pour Célestin et Martelly respectivement) sont tirées du même échantillon qui lui-même provient de la même population. Dans le cas qui nous intéresse ici, la comparaison de P2 et P3, les variables X2 et X3 sont tirées du même échantillon taille n provenant de la même population de taille N. Les variables X2 et X3 ne sont donc pas indépendantes et leur covariance n'est pas nulle. Nous en tiendrons compte ici en utilisant le test d'hypothèse de l'égalité des deux proportions P2 et P3 tirées de la même population.

Lorsque les paramètres P2 et P3 sont associés à deux populations différentes, leurs estimateurs p2 et p3 sont des variables aléatoires indépendantes et la variance de leur différence (p2-p3) est égale à la somme des variances de p2 et de p3, soit:
Var(p2-p3) = p2(1-p2)/n2 + p3(1-p3)/n3, n2 et n3 étant les tailles des échantillons d'où proviennent p2 et p3 respectivement.

Lorsque les paramètres P2 et P3 sont associés à la même population, leurs estimateurs p2 et p3 provenant d'un même échantillon de taille n tiré de la population, ne sont pas des variables aléatoires indépendantes et la variance de leur différence (p2-p3) est (voir par exemple, Kish(1965), Scott et Seber(1983)):
Var(p2-p3) = [p2 + p3 - (p2 - p3)^2]/n, avec p^2 = pxp (et dans le cas qui nous occupe, n est grand (plus d'un million)).
Ce résultat intéressant s'obtient après avoir établi que la covariance de p2 et p3 est donnée par: Cov(p2, p3) = -p2xp3/n.

La variable aléatoire:
Z = (p2-p3)/racine carrée de Var (p2-p3) = (p2-p3)/(racine carrée de [(p2+p3)-(p2-p3)^2]/n)
suit approximativement la loi normale de moyenne zéro et de variance 1 : N(0; 1).


Par conséquent, dans le cas qui nous intéresse (P2 et P3 associés à la même population), si l’hypothèse H0 : P2=P3 est vraie, en posant P2 = P3 = P, la variable aléatoire Z telle que :

Z = (p2-p3)/racine carrée de Var (p2-p3) = (p2-p3)/racine carrée de [(p2+p3)/n]

suit approximativement la loi normale de moyenne zéro et de variance 1 : N(0; 1).

Un estimateur de P est :

p = (X2+X3)/(2n)

La statistique du test de l'hypothèse H0 : P2 = P3 est alors :

Z0 = (p2-p3)/racine carrée de [(2p/n)]

Soit α l’erreur de première espèce ou la probabilité de rejeter l’hypothèse H0 : P2 = P3, alors qu’elle est vraie.
Donc la probabilité d’accepter l’hypothèse H0 : P2 = P3, alors qu’elle est vraie est (1- α).
En pourcentage, 100(1- α)% représente le niveau de confiance du test.

Il s’agit ici d’un test bilatéral. Pour un α spécifié, on définit à l’aide des tables de la loi normale, les limites -Zα/2 et Zα/2 de l’intervalle à l’intérieur duquel doit se situer Z0 pour que l’hypothèse H0 : P2 = P3 soit vraie.

Par conséquent, si Z0 supérieur à Zα/2 , ou Z0 inférieur à -Zα/2 , l’hypothèse H0 : P2 = P3 est rejetée.

Résultats du test dans le cas de Célestin et Martelly.-

Estimateur de P : p= 0,2216
Écart entre les deux estimateurs : p2 – p3 = 0,0064
Statistique Z0 = 9,92
1) Pour 100α% = 5%, ou 100(1- α) = 95%, on a Zα/2 = 1,96, et H0 est rejetée;
2) Pour 100α% = 1%, ou 100(1- α) = 99%, on a Zα/2 = 2,57, et H0 est rejetée;
3) Pour 100α% = 0,27%, ou 100(1- α) = 99,73%, on a Zα/2 = 3,00, et H0 est rejetée;
4) Pour 100α% = 0,1%, ou 100(1- α) = 99.9%, on a Zα/2 = 3,29, et H0 est rejetée;
5) Pour 100α% = 0,01%, ou 100(1- α) = 99.99%, on a Zα/2 = 3,89, et H0 est rejetée;
6) Pour 100α% = 1,33E-13 %, ou 100(1- α) =100%, on a Zα/2 = 8, et H0 est rejetée;

On rejette l’hypothèse H0 : P2 = P3 pratiquement à tous les coups.

On ne peut dire que les candidats Martelly et Célestin sont à égalité sur la base des résultats publiés.

Cependant, on peut s’étonner d’un pareil résultats des urnes : élimination de Martelly et passage de Célestin au second tour, étant donné la faible popularité du candidat du pouvoir sur le terrain par rapport à celle de Martelly, si l’on oublie un moment les fraudes en faveur du candidat du pouvoir.

Au recomptage qui aura lieu sous peu, si les voix en faveur de Célestin ne changent pas et que l’écart entre Célestin et Martelly diminue pour passer de 6845 voix à une valeur de l'ordre de 1826 voix, par exemple, alors Z0 passerait au-dessous de la valeur 3,00 (2,65 plus exactement) et l’hypothèse H0 : P2 = P3 ne pourrait plus être rejetée avec un niveau de confiance de 99,73% (99,2% plus exactement).

La figure ci-après montre la situation des trois candidats Manigat, Célestin et Martelly construite par LCDP-Maths appliquées à partir des résultats du premier tour et avant recomptage.



Sur un axe gradué en pourcentages entre 21,5% et 32%, on montre les fonctions de densité de probabilités des variables aléatoires p1, p2 et p3 approximées par la loi normale.

À l'extrême droite se trouve la fonction de densité de p1 associée à la candidate Mirlande Manigat. C'est une courbe normale de moyenne 31,37% et d'écart-type 0,045%.
À l'extrême gauche se trouve la courbe normale de p3 associée au candidat Michel Martelly, de moyenne 21,84% et d'écart-type 0,040%.
Entre les deux extrêmes se situe la courbe normale de p2 associée au candidat du pouvoir Jude Célestin, de moyenne 22,48% et d'écart-type 0,040%.
On voit que les courbes de densité de Martelly et de Célestin n'accusent aucun chevauchement (pour des densités non nulles), ce qui corrobore en quelque sorte, graphiquement, le rejet de l'hypothèse H0: P2 = P3 obtenue ci-dessus.

L'écart entre Manigat et Célestin est de 95 416 voix, soit 8,89% comme l'illustre la figure. L'écart entre Célestin et Martelly est de 6845 voix, soit 0,64% comme le montre la figure.

Si, au recomtage, l'écart entre Célestin et Martelly rétrécissait à 1826 voix et que Célestin ne bougeait pas, alors l'écart en pourcentages entre ces deux candidats serait de 0,17%. Cette situation hypothétique est illustrée sur la figure ci-dessus par la courbe en pointillés (courbe en rouge) dont la pointe droite (+3 écarts-types) passe en avant de la pointe gauche (-3 écarts-types) de la coube de Célestin. Dans une telle situation l'hypothèse H0: P2 = P3 ne pourrait être rejetée avec un niveau de confiance de 99,2%.

Le niveau de confiance à partir duquel il faudrait considérer que les candidats Martelly et Célestin sont ex aequo est une décision qui relèvra du CEP qui est seul habilité à appliquer la loi électorale, tout en respectant l'esprit de la constitution. Peut-être tiendra-t-il compte aussi de l'avis des candidats en lice, des électeurs qui veulent que leur vote compte, et, des amis d'Haïti ?

_________________________________

(1) Remarque.-

La comparison des deux proportions P2 et P3 provenant de la même population peut se faire aussi rigoureusement de la manière suivante. On peut en effet proposer de comparer indépendamment et séparément chacune des proportions P2 et P3 à une même valeur spécifiée P0, fixée une fois pour toutes à 0,2216.

Alors le problème revient à tester séparément les deux séries d'hypothèses:


A)Cas de Célestin.-
Sur la base des résultats du premier tour publiés le 7 décembre 2010, et moyennant un niveau de confiance acceptable (95%, 99%, 99,9%, ou 99.99%), peut-on accepter pour vraie l’hypothèse nulle :
H0' : P2 = P0 (P0 = 0,2216)
Et rejeter l’hypothèse alternative :
H1' : P2 supérieur à P0 ?

B)Cas de Martelly.-
Sur la base des résultats du premier tour publiés le 7 décembre 2010, et moyennant un niveau de confiance acceptable (95%, 99%, 99,9%, ou 99.99%), peut-on accepter pour vraie l’hypothèse nulle :
H0'' : P3 = P0 (P0 = 0,2216)
Et rejeter l’hypothèse alternative :
H1 : P3 inférieur à P0 ?

Dans l'un ou l'autre cas, la statistique du test de l'hypothèse H0' est Z0' et celle du test H0'' est Z0''. On a:

Z0' = (p2-P0)/racine carrée de (p2(1-p2)(1/n))
Z0'' = (p3-P0)/racine carrée de (p3(1-p3)(1/n))

Dans le cas qui nous occupe, on a:

Z0' = 7,95
Z0'' = -7,95
Pour un niveau de confiance 100(1- α)% donné, si Z0' est supérieur à Zα , l'hypothèse H0': P2 = P0 est rejetée; de même si Z0'' est inférieur à -Zα, l’hypothèse H0'': P3 = P0 est rejetée.

A) Dans le cas de Célestin, on trouve:

Statistique Z0 = 7,95
A1) Pour 100α% = 5%, ou 100(1 - α) = 95%, on a Zα = 1,645, et H0' est rejetée;
A2) Pour 100α% = 2,5%, ou 100(1 - α) = 97,5%, on a Zα = 1,96, et H0' est rejetée;
A3) Pour 100α% = 1,0%, ou 100(1 - α) = 99,0%, on a Zα = 2,33, et H0' est rejetée;
A4) Pour 100α% = 0,27%, ou 100(1 - α) = 99.73%, on a Zα = 2,78, et H0' est rejetée;
A5) Pour 100α% = 0,1%, ou 100(1 - α) = 99.90%, on a Zα = 3,10, et H0' est rejetée;
A6) Pour 100α% = 0,01%, ou 100(1 - α) = 99,99%, on a Zα = 3,72, et H0' est rejetée;

B) Dans le cas de Martelly, on trouve:

Statistique Z0 = -7,95
B1) Pour 100α% = 5%, ou 100(1 - α) = 95%, on a -Zα = -1,645, et H0'' est rejetée;
B2) Pour 100α% = 2,5%, ou 100(1 - α) = 97,5%, on a -Zα = -1,96, et H0'' est rejetée;
B3) Pour 100α% = 1,0%, ou 100(1 - α) = 99,0%, on a -Zα = -2,33, et H0'' est rejetée;
B4) Pour 100α% = 0,27%, ou 100(1 - α) = 99.73%, on a -Zα = -2,78, et H0'' est rejetée;
B5) Pour 100α% = 0,1%, ou 100(1 - α) = 99.90%, on a -Zα = -3,10, et H0'' est rejetée;
B6) Pour 100α% = 0,01%, ou 100(1 - α) = 99,99%, on a -Zα = -3,72, et H0'' est rejetée;

On conclut donc que les hypothèses H1' et H1'' sont simultanément et indépendamment vraies: P2 est supérieur à P0= 0,2216 et P3 est inférieur à P0=0,2216 pour chacun des six niveaux de confiance spécifiés ci-dessus. Par conséquent P2 n'est statistiquement pas égal à P3, comme l'a aussi montré le test sur la différence des deux propostions développé dans le corps du texte en estimant la variance de (p2-p3), p2 et p3 n'étant pas indépendantes.
_________________________
Références:
(1) Kish, Leslie (1965), SURVEY SAMPLING, John Wiley and Sons, 643 pages.
(2) Scott, A.J. and Seber, G.A.F. (1983), Difference of Proportions From the Same Survey, The American Statistician, Vol. 37, No. 4, pp 319-320.

______________________________________________
Mises à jour: 30 décembre 2010, 31 décembre 2010, 23 janvier 2011.
LCDP-Mathémathiques appliquées remercie M. Patrick Ambroise pour ses remarques.

jeudi 14 octobre 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.8)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes
  8. Problèmes


    ***********************************************



1.8 - Problèmes

  1. Un ouvrage en quatre volumes est placé dans un ordre aléatoire sur un rayon d’une bibliothèque. Quelle est la probabilité que les quatre volumes soient placés dans le bon ordre de gauche à droite ou de droite à gauche ? D’après Y.A. Rozanov. (Réponse : 1/12).

  2. Un cube en bois dont les faces sont peintes est scié en 1000 petits cubes de même taille. Les 1000 petits cubes sont ensuite placés dans une urne et mélangés. On tire alors un cube au hasard dans l’urne. Quelle est la probabilité que le cube choisi ait juste deux faces peintes ? ? D’après Y.A. Rozanov. (Réponse : 0,096).

  3. Un lot de n articles manufacturés contient k articles défectueux. On choisit au hasard m articles du lot. Quelle est la probabilité que l de ces m articles soient défectueux ? ? D’après Y.A. Rozanov.

  4. Dix livres sont placés dans un ordre aléatoire sur un rayon d’une bibliothèque. Quelle est la probabilité que trois livres donnés soient placés cote à cote ? D’après Y.A. Rozanov. (Réponse : 1/15).

  5. Un franc-tireur a 80% de chance d’atteindre une cible, tandis qu’un autre franc-tireur a 70% de chance d’atteindre la cible. Quelle est la probabilité pour la cible d’être atteinte (au moins une fois) si les deux francs-tireurs tirent sur la cible simultanément ? D’après Y.A. Rozanov. (Réponse : 0,94).

  6. N personnes s’assoient de manière aléatoire et indépendante les unes des autres dans un auditorium ayant N+K sièges. Quelle est la probabilité que M sièges spécifiés à l’avance (M ≤ N) soient occupés ? D’après Y.A. Rozanov.

  7. Trois cartes sont tirées au hasard d’un jeu de 52 cartes. Quelle est la probabilité de tirer à la fois un3, un 7 et un as ? D’après Y.A. Rozanov.

  8. Quelle est la probabilité de pouvoir construire un triangle dont les trois côtés sont choisis au hasard d’un lot de cinq segments de longueurs 1, 3, 5, 7 et 9 ? (Indice : Dans un triangle chaque côté est inférieur à la somme des deux autres côtés). D’après Y.A. Rozanov.

  9. On choisit au hasard un nombre entre 1 et 1000. Quelle est la probabilité que les deux derniers chiffres du cube de ce nombre soient 1 ? D’après Y.A. Rozanov. (Réponse : 0,01).

  10. Déterminer la probabilité qu’un nombre entier non négatif (formé d’un chiffre) aléatoirement choisi donnera un résultat se terminant par un 1 :
    (a) s’il est élevé au carré;
    (b) s’il est élevé à la puissance quatre;
    (c) s’il est multiplié par un entier positif arbitraire.
    D’après Y.A. Rozanov. (Réponse : (a) 0,2; (b) 0,4; (c) 0,04).

  11. On forme une fraction de la façon suivante. Le numérateur est choisi au hasard parmi les huit nombres suivants : 2, 4, 6, 7, 8, 11, 12, 13. Puis le dénominateur est formé en choisissant l’un des sept nombres restants. Quelle est la probabilité pour la fraction ainsi obtenue d’être irréductible ? s’il est multiplié par un entier positif arbitraire. D’après Y.A. Rozanov. (Réponse : 9/14).

  12. Chacune des six lettres du mot « drawer» est écrite sur un carton. Les cartons sont ensuite placés les uns à la suite des autres aléatoirement. Quelle est la probabilité que le mot formé soit «reward» ? D’après Y.A. Rozanov. (Réponse : 1/360).

  13. Un jeu de 52 cartes est divisé au hasard en deux paquets de 26 cartes. Quelle est la probabilité que chaque paquet contienne le même nombre de cartes rouges et de cartes noires ? D’après Y.A. Rozanov. (Réponse : 0,218).

  14. Au sénat américain, estimer la probabilité que tous les 50 états soient représentés dans un comité de 50 sénateurs choisis au hasard. D’après Y.A. Rozanov.

  15. On lance en l’air trois dés équilibrés. On fait la somme des nombres indiqués par la face sur laquelle tombent les trois dés. Quelles sont les probabilités que cette somme soit : 3, 4, 5, …, 18 ? D’après M.G. Bulmer. (Problème considéré par Galilée) (Réponse : (1, 3, 6, 10, 15, 21, 25, 27, 27, 25, 21, 15, 10, 6, 3, 1) x 1/216).

  16. Trois personnes se rencontrent par hasard. Quelles sont les probabilités que (a) aucune d’elles, (b) deux d’entre elles, (c) toues les trois, aient la même date d’anniversaire ? D’après M.G. Bulmer. (Réponse : (a) 364x363/365x365; (b) 3x364/365x365; (c) 1/365x365).

  17. Une classe de 10 étudiants est composée de 6 hommes et 4 femmes. Trouver le nombre de manières :
    (a) de former un comité de 4 membres
    (b) de former un comité de quatre membres composé de 2 hommes et 2 femmes.
    (c) la classe peut élire un président, un vice-président, un trésorier et un secrétaire.
    D’après S. Lipschutz et M. Lipson. (Réponse : (a) 210; (b) 90; (c) 360).

  18. Dans un party, il y a exactement n couples. (a) Trouver le nombre N de pairs de personnes possibles. (b) On suppose que chaque membre d’un couple serre la main à chacun des membres d’un couple autre que le sien. Quel est le nombre M d’échanges de poignée de mains ? D’après S. Lipschutz et M. Lipson. (Réponse : (a) N= n(2n-1); (b) M=2n(n-1)).

  19. Déterminer la probabilité que n personnes (n≤ 365) choisies au hasard ont n dates de naissance différentes. D’après M.R. Siegel et al. (Réponse : (1-1/365)(1-2/365)…(1-(n-1)/365)).

  20. Un transporteur routier doit acheminer des marchandises de la ville W à la ville Z. Aucune route ne relie directement la ville W à la ville Z, mais il y a six routes reliant la ville W à la ville X et cinq routes reliant la ville X à la ville Z. Combien y a-t-il d’itinéraires possibles ? D’après W.W. Hines et al. (Réponse : 30 itinéraires).

  21. Il y a un million de véhicules immatriculés dans pays donné. On désire utiliser des plaques d’immatriculation portant trois lettres suivies de trois chiffres. Un tel projet est-il faisable ? D’après W.W. Hines et al. (Réponse : 17 576 000 plaques possibles; projet faisable).

  22. Soit un lot de 100 unités. On sait que 20 unités sont défectueuses. On tire quatre unités au hasard sans remise. Quelle est la probabilité que cet échantillon ne renferme pas plus de deux unités défectueuses ? D’après W.W. Hines et al. (Réponse : 0,97).

  23. On choisit un point au hasard à l’intérieur d’un cercle. Quelle est la probabilité que ce point soit situé plus près du centre que de la circonférence ? D’après W.W. Hines et al. (Réponse : 0,25).
  24. Tout accident d’avion fait l’objet d’une enquête approfondie. S’il résulte d’une défaillance de structure, la probabilité que les experts le reconnaissent est de 0,90. Si sa cause est autre, la probabilité qu’on l’attribue à tort à une défaillance de structure est de 0,20. Sachant que 25% de tous les accidents d’avion résultent d’une défaillance de structure, déterminer la probabilité qu’il s’agisse bien de la cause d’un accident ayant été attribué à une telle défaillance. Suggestion : un diagramme en arbre facilite le raisonnement. D’après W.W. Hines et al. (Réponse : 0,60).


Références utilisées

  1. Hines, W.W., Montgomery, D.C., Goldsman, D.M., Borror, C. M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C. Wiley 2001.

  2. Rozanov, Y.A. (1969) Probability Theory, A concise course, Dover, 148 p.

  3. Bulmer, M.G. (1979) Principles of Statistics, Dover, 252 p.

  4. Spiegel, M.R., Schiller, J., Srinivasan, R. A. (2000), Probability and Statistics, second edition, Schaum series, 408 p.

  5. Lipschutz, S. and Lipson, M. (2000), Probability, second edition, Schaum series, 311 p.

  6. Moi-même.

jeudi 5 août 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.7)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.7 - Partition de l’espace échantillonnal, probabilités totales, théorème de Bayes

Dans cette septième et dernière leçon du chapitre 1 le lecteur apprendra les notions suivantes:

  1. Partition de l’espace échantillonnal.
  2. Théorème des probabilités totales.
  3. Théorème de Bayes.


1.7.1 Partition de l’espace échantillonnal.

Définition.-
Si B1, B2, …, Bk sont des sous-ensembles disjoints de S (des événements mutuellement exclusifs) et si :
B1 U B2 U … U Bk = S
alors, ces ensembles forment une partition de S.
Lorsqu’on réalise l’expérience, un seul des événements, Bi, se réalise en présence d’une partition de S.

La figure suivante illustre une partition de S.




Étant donné la partition de S ci-dessus, si A désigne un événement arbitraire dans S comme le montre la figure ci-dessus, on peut toujours écrire :
A = (A ∩ B1) U (A ∩ B2) U … U (A ∩ Bk)
Comme les événements (A ∩ Bi) sont mutuellement exclusifs par paire (voir figure précédente où k = 4), on a :
P(A) = P(A ∩ B1) + P(A ∩ B2) + … + P(A ∩ Bk) (éq. 1.7.1)


1.7.2 Théorème des probabilités totales.
Si B1, B2, …, Bk forment une partition de S et si A est un événement quelconque dans S, alors la probabilité totale de A s’écrit:
P(A) = P(B1) . P(A\B1) + P(B2) . P(A\B2) + … + P(Bk) . P(A\Bk)
Ou:
P(A) = ∑ (P(Bi) . P(A\Bi)) , i entier allant de 1 à k (éq. 1.7.2)


Preuve.-

La preuve est évidente. Il suffit de porter (éq. 1.5.2 a) dans (éq. 1.7.1) :
P(A) = P(B1) . P(A\B1) + P(B2) . P(A\B2) + … + P(Bk) . P(A\Bk)
ou, en écriture condensée:
P(A) = ∑ ( P(Bi) . P(A\Bi)), i entier allant de 1 à k
Ce théorème est très utile. Si l’on sait que les Bi sont réalisés, alors on peut évaluer les probabilités conditionnelles P(ABi) et ainsi déterminer P(A), une fois que l’on connaît les probabilités P(Bi).


1.7.3 Théorème de Bayes.

Si B1, B2, …, Bk forment une partition de S et si A est un événement arbitraire dans S, alors, pour r = 1, 2, …, k, on a :
P(Br\A) = P(Br) . P(A\Br) / ∑ (P(Bi) . P(A\Bi)), i entier allant de 1 à k


Preuve.-

Selon la définition reliée à (éq. 1.5.1), on écrit :
P(Br\A) = P(Br ∩ A)/P(A) (a)
Selon la règle de multiplication, (éq. 1.5.2), on a:
P(Br ∩ A) = P(Br) . P(A\Br) (b)
On porte (b) et (éq. 1.7.2) au numérateur et au dénominateur respectivement du second membre de (a).
D’où :
P(Br\A) = P(Br) . P(A\Br) / ∑ (P(Bi) . P(A\Bi), i entier allant de 1 à k
C.Q.F.D.

Remarque.-
Dans la résolution des problèmes dans lesquelles les théorèmes de probabilité totale et de Bayes doivent être appliqués, on aura intérêt à faire un croquis clair montrant le diagramme de Venn de la partition de S et de l’événement étudié; de plus et surtout, un diagramme en arbre permettra d’appliquer aisément la règle de Bayes au problème étudié.
Le diagramme de Venn sera souvent présenté sous une forme ressemblant au croquis suivant:



L'utilisation du diagramme de Venn et du diagramme en arbre sera illustrée dans un exemple.

Fin de la Leçon 1.7


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and Statistics in Engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Moi-même.

______________________

Note.- Avec la leçon 1.7 prend fin le chapitre 1. On proposera sous peu un certain nombre d'exercices sur les 7 leçons du chapitre 1.

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.6)

Chapitre 1.- Quelques notions de base


  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.6 - Expériences statistiquement indépendantes, événements indépendants


Dans cette sixième leçon le lecteur apprendra les notions suivantes:

  1. Expériences statistiquement indépendantes, Événements indépendants.
  2. Événements mutuellement indépendants.



1.6.1 Expériences indépendantes, Événements indépendants

Expériences indépendantes.-

On dit que deux expériences aléatoires sont «statistiquement» indépendantes ou plus simplement indépendantes, quand le résultat de l’une n’a aucune influence sur le résultat de l’autre.

Soit A un événement associé à la première expérience et B un événement associé à la deuxième expérience. L’occurrence de A n’a pas d’influence sur la probabilité de l’occurrence de l’événement B, et réciproquement. On dit alors que les événements A et B sont (statistiquement) indépendants.


Définition.-

Soit deux expériences aléatoires E1 et E2 et deux événements arbitraires A1 et A2 définis dans leurs espaces échantillonnaux respectifs.
Si P(A1 ∩ A2) = P(A1) . P(A2), alors les expériences E1 et E2 sont dites indépendantes.


Événements indépendants.-

Plus formellement, on définit ci-après l’indépendance de deux événements.

Définition.-

Deux événements sont indépendants l’un de l’autre si et seulement si la probabilité de leur intersection est égale au produit de leurs probabilités respectives:
P(A ∩ B) = P(A) . P(B)


Conséquence.-

Dans le cas de deux événements indépendants A et B, la relation générale définissant la probabilité conditionnelle s’écrit :

P(A\B) = P(A ∩ B)/P(B) = P(A) . P(B) / P(B) = P(A)

De même,

P(B\A) = P(B ∩ A)/P(A) = P(B) . P(A) / P(A) = P(B)

Donc, A et B étant indépendants, on a:

P(A\B) = P(A); P(B\A) = P(B)


Théorème.-
Si A et B sont deux événements indépendants, alors (B’ étant le complémentaire de B; A’ le complémentaire de A):


  1. A et B’ sont des événements indépendants.
  2. A’ et B’ sont des événements indépendants.
  3. A’ et B sont des événements indépendants.

Preuve.- (preuve de 1. seulement).


On suppose que A et B sont indépendants. De la règle de multiplication, on tire:
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A) . P(B’\A)
P(A ∩ B’) = P(A)(1 - P(B\A))
P(A ∩ B’) = P(A)(1 - P(B))
P(A ∩ B’) = P(A) . P(B’).

Les événements A et B’ sont donc indépendants.


1.6.2 Événements mutuellement indépendants

Définition.-


K événements A1, A2, …, Ak sont mutuellement indépendants si et seulement si la probabilité de l’intersection de 2, de 3, …, de k de ces ensembles pris au hasard, correspond au produit de leurs probabilités respectives :

P(Ai1 ∩ Ai2 ∩ … ∩ Air) = P(Ai1) . P(Ai2) . … . P(Air), r = 2, 3, … , k.

La définition précédente contient (2^k – k – 1) conditions à satisfaire. Dans le cas de 3 événements indépendants A, B et C, ces conditions sont au nombre de 4 :

P(A ∩ B) = P(A) . P(B);
P(B ∩ C) = P(B) . P(C);
P(C ∩ A) = P(C) . P(A);
P(A ∩ B ∩ C) = P(A) . P(B). P(C).


Fin de la leçon 1.6


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Rozanov, Y.A. (1977) Probability Theory-A Concise Course, Dover, 148 p.
  4. Moi-même.

mercredi 4 août 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.5)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

    LEÇON 1.5 - Les probabilités conditionnelles

    Dans cette cinquième leçon le lecteur apprendra les notions suivantes:
  1. Probabilité conditionnelle d’un événement.
  2. Propriétés de la probabilité conditionnelle.

1.5.1 Probabilité conditionnelle d’un événement.

Si l’on dispose d’une information a priori sur le résultat d’une expérience aléatoire, cette information peut souvent changer la probabilité de ce résultat.
Les probabilités conditionnelles tiennent compte des changements qui résultent d’informations antérieures.

Une probabilité conditionnelle est la probabilité d’un événement, étant donné qu’un autre événement a déjà lieu.

Toutes les probabilités considérées dans la leçon 3 étaient associées à l’espace échantillonnal S dans son ensemble. Au lieu de noter P(A), la probabilité d’un événement A donné, on aurait pu écrire P(A\S) qui se lit : «probabilité de A par rapport à l’espace échantillonnal S».

Dans cette leçon, on va trouver la probabilité d’événements d’un sous ensemble quelconque de l’espace échantillonnal S.


La probabilité conditionnelle de l’événement A, étant donné la réalisation de l’événement B, se note P(A\B).


Espace échantillonnal réduit.-

On définit l’espace échantillonnal réduit comme étant l’espace formé de tous les sous-ensembles de S qui appartiennent à B, un événement dont la réalisation est supposée (a priori).

La figure suivante illustre la situation.




Définition de la probabilité conditionnelle.-

La probabilité conditionnelle de l’événement A étant donné la réalisation de l’événement B se définit comme suit :
P(A\B) = P(A ∩ B)/P(B), si P(B) ≠ 0 (éq. 1.5.1)


1.5.2 Propriétés de la probabilité conditionnelle.

La probabilité conditionnelle a les propriétés requises d’une probabilité, à savoir :
1. 0 ≤ P(A\B) ≤ 1.
2. P(S\B) = 1.
3. P( (A1\B) U (A2\B) U … U (Ak\B) ) = ∑ P(Ai\B), i entier allant de 1 à k, si Ai ∩ Aj = Ø, i ≠ j.
4. Pour une suite A1, A2, A3, … dénombrable d’événements disjoints, on a :
P( (A1\B) U (A2\B) U (A3\B) U … ) = ∑ P(Ai\B), i entier allant de 1 à ∞.



Règle de multiplication.-

On peut écrire:
P(A ∩ B) = P(B) . P(A\B), P(B) > 0 (éq. 1.5.2 a)
P(A ∩ B) = P(A) . P(B\A), P(A) > 0 (éq. 1.5.2 b)


Si A et B sont mutuellement exclusifs (A ∩ B = Ø), alors P(A\B) = P(B\A) = 0. (Voir figure ci-après).




Si B inclus dans A, alors P(A\B) = 1. (Voir figure ci-après).

En effet, si B inclus dans A, alors P(A ∩ B)= P(B).
Or, P(A ∩ B) = P(B) . P(A\B)
Donc P(B) = P(B) . P(A\B)
Par conséquent,
P(A\B) = 1.



Fin de la leçon 1.5


Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and Statistics in Engineering, Fourth Edition, Wiley 2003, des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Moi-même.

mercredi 7 juillet 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.4)

Chapitre 1.- Quelques notions de base


  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et le événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.4 - Espace échantillonnal fini et son dénombrement


Dans cette quatrième leçon le lecteur commencera à se familiariser avec les notions suivantes:


  1. Les diagrammes en arbre.
  2. Le principe de multiplication.
  3. Les pemutations.
  4. Les combinaisons.
  5. Les permutations d’objets semblables.
  6. L'échantillonnage hypergéométrique.


1.4.1 Les diagrammes en arbre.

Le diagramme en arbre peut être utilisé pour faciliter le dénombrement de l’espace échantillonnal.

Par exemple, on lance en l’air à trois reprises une pièce de monnaie équilibrée. Il y a deux résultats possibles à chacun des trois lancers successifs. Le diagramme en arbre suivant montre les différents résultats possibles après trois lancers. Il permet de définir une fois pour toutes l’ensemble des résultats possibles en suivant chacun des trajets du diagramme en arbre.






Il y a un total de 2^3 = 8 résultats possibles.

L’espace échantillonnal s’écrit :
S = {PPP, PPF, PFP, PFF, FPP, FPF, FFP, FFF}


1.4.2 Le principe de multiplication.

On considère les ensembles A1, A2, …, Ak ayant pour nombres d’éléments (cardinaux):
n1, n2, … , nk.

On forme un k-tuplet : (xA1, xA2, …, xAk) dont chacune des coordonnées xAi
provient de chacun des ensembles Ai.

On forme l’ensemble produit cartésien B tel que :
B = A1 x A2 x … x Ak = {( xA1, xA2, …, xAk) : xA1 ε A1, xA2 ε A2, ..., xAk ε Ak }

Le cardinal de B est le nombre de façons différentes de choisir un k-tuplet.

Soit n(B) le cardinal de B. On a:

n(B) = n1 x n2 x … x nk

Si n1 = n2 = … = nk = n, alors : n(B) = n^k, c'est-à-dire n exposant k.


1.4.3 Les permutations.

Une permutation est un arrangement ordonné d’objets distincts.

On considère les permutations de n objets distincts pris r à la fois (r ≤ n). On note le nombre de permutations par Pn;r. On veut calculer Pn;r en fonction de n et de r.

Il y a n façons différentes de choisir sans remise le premier objet parmi les n objets distincts; ce premier objet étant choisi et retiré du lot, il reste alors (n-1) objets.

Il y a (n-1) façons de choisir le 2e objet sans remise; ce deuxième objet étant choisi et retiré du lot, il reste (n-2) objets.

On continue ainsi jusqu’au (r-1) ième objet. Et il reste à choisir le r ième objet.

Il y a (n-r+1) façons de choisir le r ième objet sans remise; il reste alors (n-r) objets.

En vertu du principe de multiplication, le nombre de permutations possibles de n objets pris r à la fois est donc :

Pn;r = n(n-1)(n-2)…(n-r+1) = n!/(n-r)!


1.4.4 Les combinaisons.

Une combinaison est un arrangement d’objets distincts tels que :
• l’ordre n’a pas d’importance
• deux combinaisons sont différentes si leur contenu n’est pas le même.

On considère les combinaisons de n objets distincts pris r à la fois (r ≤ n). On note le nombre de combinaisons par Cn;r.

On veut trouver Cn;r en fonction de n et de r.

Soit A un ensemble de n éléments distincts.
Soit Bi l’un des sous-ensembles de A ayant r éléments distincts, i = 1, 2, …, Cn;r.

Bi ≠ Bj, si i ≠ j.
Cn;r = cardinal de {B1, B2, …, BCn;r }.

Le nombre de permutations des r éléments d’un seul sous-ensemble Bi est :
r(r-1)(r-2) … 2 . 1 = r!

Le nombre total de permutations des r éléments de tous les Cn,r sous-ensembles Bi est :

Pn;r = r! Cn;r

D’où :

Cn;r = n!/((n-r)!r!)


1.4.5 Les permutations d’objets semblables.

Soit A l’ensemble de n objets distincts répartis en k classes d’objets semblables (indiscernables).
On a :

A = A1 U A2 U … U Ak, les Ai sont 2 à 2 disjoints.
N = n1 + n2 + … + nk, ni = nombre d’éléments semblables (indiscernables) de Ai.

Le nombre total de permutations des n éléments de A, s’ils étaient tous discernables, serait :

Pn;n = n!

Si les ni éléments de Ai étaient discernables, le nombre de permutations de ces ni objets serait :

Pni;ni = ni!

Pni;ni est le nombre de fois que l’on trouve dans les Pn,n permutations, les ni objets indiscernables dans le «même» ordre puisqu’on est incapable de discerner les ni objets de Ai les uns des autres.

Donc Pni;ni est un facteur de Pn;n. Et cela est vrai pour chacun des Ai, i = 1, 2, …, k.

On peut alors décomposer Pn;n en facteurs et l’écrire sous la forme :

Pn;n = Pn1;n1 . Pn2;n2 . … . Pnk;nk . Q

où Q représente le nombre de permutations des n objets contenant k classes d’objets indiscernables.

On remplace Q par Pn; n1,n2,…,nk. D’où :

Pn; n1,n2,…nk = n!/(n1! n2! … nk!)


1.4.6 L'échantillonnage hypergéométrique.

On considère une population de taille N (un ensemble de N objets (unités)).

Des N unités, D unités appartiennent à une classe donnée, par exemple, D unités défectueuses.

On veut tire de la population de taille N, un échantillon (un sous-ensemble) de taille n, au hasard et sans remise.

On considère l’événement A : «l’échantillon de taille n choisi renferme exactement r éléments appartenant à la classe donnée (unités défectueuses)».

On veut trouver la probabilité de l’événement A, ce que l’on va faire ci-après.

Le nombre d’échantillons possibles (différents) de taille n que l’on peut tirer de la population de taille N est : Cn;n.

De ces Cn;n échantillons possibles, quel est le nombre de cas favorables à l’événement A ?

La réponse à cette question s’obtient de la façon suivante.

Le nombre de choix différents de (n-r) éléments tirés parmi les (N-D) unités n’appartenant pas à la classe donnée (unités non défectueuses) est : C(N-D); (n-r).

Le nombre de choix de r éléments différents tirés parmi les D unités appartenant à classe donnée (unités défectueuses) est : CD;r.

Par conséquent, le nombre d’échantillons différents de taille n contenant exactement r unités appartenant à la classe donnée (unités défectueuses) et (n-r) unités n’appartenant pas à cette classe (unités non défectueuses) est : (CD;r ) . (C(N-D); (n-r)). C’est le nombre de cas favorables à l’événement A.

On peut donc calculer la probabilité de l’événement A :

P(A) = (CD;r) . (C(N-D; (n-r) ) / CN;n

Dans cette relation, étant donné la valeur de n, alors r peut prendre l'une des valeurs suivantes: max {0, (n+D-N)}, …, min {n, D}.



Fin de la leçon 1.4


Références utilisées



  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.

  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.

  3. Moi-même.



samedi 26 juin 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.3)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.3 - Les Probabilités et leur détermination

Dans cette troisième leçon le lecteur commencera à se familiariser avec la définition rigoureuse de la probabilité d'un événement, les propriétés de cette probabilité et quelques théorèmes utiles. Plus précisément, les points suivants seront étudiés:

  1. Définition de la probabilité d’un événement.
  2. Propriétés de la probabilité d’un événement.
  3. Notion de fréquence relative d’un événement.
  4. Un moyen de calculer la probabilité d’un événement.
  5. Quelques théorèmes utiles.

Dans cette leçon S désignera l'espace échantillonnal associé à l'expérience aléatoire. Voir Leçon 1.2



1.3.1 Définition de la probabilité d’un événement.

On définit une probabilité comme une fonction dont le domaine est un ensemble d’événements et l’image est un ensemble de nombres réels compris entre 0 et 1.
Soit A un événement du domaine de la fonction. L’image que la fonction de probabilité associé à l’événement A que l’on notera P(A) est la probabilité de l’événement A.


Définition.-

Soit A un événement du domaine de la fonction. L’image que la fonction de probabilité associé à l’événement A que l’on notera P(A) est la probabilité de l’événement A.


1.3.2 Propriétés de la probabilité d’un événement.

Propriétés de P(.) :

  1. 0 ≤ P(A) ≤ 1, pour tout A de S.
  2. P(S) = 1.
  3. Pour tout nombre fini A1, A2, …, Ak, d’événements mutuellement exclusifs définis dans S, on a :
    P(A1 U A2 U … U Ak ) = ∑ P(Ai), i allant de 1 à k.
  4. Pour une suite A1, A2, A3, … dénombrable d’événements mutuellement exclusifs définis dans S, on a :
    P(A1 U A2 U A3 U … ) = ∑ P(Ai), i entier allant de 1 à .

1.3.3 La notion de fréquence relative d’un événement.

Pour illustrer la détermination des probabilités, on imagine la répétition d’une expérience et la fréquence relative de l’occurrence d’un événement particulier.
Soit une expérience aléatoire E répétée m fois et deux événements A et B. Soit mA et mB le nombre de répétitions de A et de B à l’intérieur de m répétitions.

Définition.-

Soient fA = mA/m et fB = mB/m les fréquences relatives des événements A et B. On a par exemple :

  1. 0 ≤ fA ≤ 1.
  2. fA = 0, si et seulement si l’événement A ne se produit jamais;
    fA = 1, si et seulement si l’événement A se produit à chaque répétition.
  3. fA U B = fA + fB si les événements A et B sont mutuellement exclusifs.

Lorsque m devient élevé, fA tend à se stabiliser. La notion de fréquence relative et la tendance à la stabilisation de cette fréquence sont à la base d’une méthode permettant d’attribuer une probabilité à un événement.

Par exemple, soit E une expérience aléatoire d’espace échantillonnal S. Si fA, la fréquence relative d’un événement A tend vers une limite pA quand le nombre de répétitions augmente, on peut considérer pA comme la probabilité de A :

lorsque m → ∞, P(A) = lim (mA/m) = lim fA = pA (eq. 3.1)

En pratique, le nombre de répétitions est limité.


1.3.4 Un moyen de calculer la probabilité d’un événement.

On suppose que l’espace échantillonnal comporte un nombre fini n d’éléments ei et que la probabilité attribuée à un résultat est :
pi = P(Ei) avec Ei = {ei} ;
et
pi ≥ 0 , i = 1, 2, …, n;
p1 + p2 + … + pn = 1, ou ∑ pi = 1, i allant de 1 à k.
Alors :
P(A) = ∑ pi , i étant tel que ei ε A (eq. 3.2)

Si l’espace échantillonnal S n’est pas fini, mais comporte une infinité dénombrable d’éléments ei, alors :
pi ≥ 0 , i = 1, 2, … ; ∑ pi = 1, i entier allant de 1 à ∞.
Mais on a encore :
P(A) = ∑ pi, i étant tel que ei ε A (eq. 3.3)


Exemple C1.L3.1
Si l’espace échantillonnal S est fini et contient n résultats équiprobables tels que :
p1 = p2 = … = pn = 1/n
Et si l’événement A renferme n(A) résultats possibles, alors on a :
P(A) = n(A)/n

On établira dans la Leçon 4 des méthodes de dénombrement pouvant servir à déterminer n et n(A).

Exemple C1.L3.2

Soit une pièce de monnaie équilibrée jetée en l’air à trois reprises; on note à chaque fois sur quel côté elle tombe. L’espace échantillonnal de cette expérience noté S s’écrit :
S = {PPP, PPF, PFP, PFF, FPP, FPF, FFP, FFF}
On a :
e1 = PPP; e2 = PPF; etc.
Chaque résultat i a une probabilité pi.
E1 = {e1}; E2 = {e2}; etc. et leurs probabilités sont : pi = 1/8 (résultats équiprobables).
Soit A l’événement «la pièce de monnaie tombe à chaque fois sur le même côté». On a alors :
A = {PPP, FFF} et P(A) = 1/8 + 1/8 = 2/8 = 1/4
( P(A) = n(A)/n = 2/8 = 1/4 )


1.3.5 Quelques théorèmes utiles.

Théorème 1.1 .- Si Ø est l’ensemble vide, alors P(Ø) = 0.

Preuve.-

Soit S l’espace échantillonnal associé à l’expérience en cause. On peut écrire : S = S + Ø. Les ensembles S et Ø étant mutuellement exclusifs, les propriétés 2 et 4 de la définition d'une probabilité permettent d’écrire :
1 = P(S) = P(S U Ø) = P(S) + P(Ø) → P(Ø) = 0.


Théorème 1.2 .- A’ étant le complémentaire de A dans S, alors: P(A’) = 1-P(A).

Preuve.-

Soit S l’espace échantillonnal associé à l’expérience étudiée, soit A un événement de S. A’ étant le complémentaire de A dans S, on peut écrire : S = A U A’. De plus A et A’ étant mutuellement exclusifs, la propriété 4 de la définition d'une probabilité permet d’écrire :
1 = P(S) = P(A U A’) = P(A) + P(A’) → P(A’) = 1 – P(A).

Théorème 1.3 .- A et B étant deux événements quelconques de S, on a :
P(A U B) = P(A) + P(B) – P(A ∩ B).

Preuve.-

On peut vérifier cette relation à l’aide d’un diagramme de Venn. On peut y constater qu’il faut retrancher P(A ∩ B) de la somme P(A) + P(B) pour ne pas compter deux fois la probabilité de l’intersection de A et B. Une démonstration plus rigoureuse du théorème 1.3 sera demandée en exercice.

Théorème 1.4 .- A, B et C étant trois événements quelconques de S, on a :
P(A U B U C) = P(A) + P(B)+ P(C) – P(A ∩ B) – P(B ∩ C) – P(C ∩ A) + P(A ∩ B ∩ C).

Preuve.-

On peut poser X = A U B, écrire A U B U C = (A U B) U C = X U C, puis appliquer le théorème 1.3 aux événements X et C. Un diagramme de Venn peut aider à suivre les étapes de la démonstration ou à vérifier le théorème.


Théorème 1.5 .- Soit A la réunion de N événements A1, A2, …, AN :
A = A1 U A2 U…U AN.
P(A) est la probabilité de réalisation d’au moins un événement parmi les N événements A1, A2, …, AN.
On note :
pi = P(Ai); pij = P(Ai ∩ Aj); pijk = P(Ai ∩ Aj ∩ Ak); …
On définit :
S1 = ∑ pi; S2 = ∑ pij; S3 = ∑ pijk; …

avec i inférieur à j inférieur à k inférieur à ... inférieur ou égal à N.

La probabilité de A est donnée par :
P(A) = P(A1 U A2 U…U AN ) = S1 –S2 + S3 – S4 + ... ± SN = ∑ Si*(-1)^(i-1), i allant de 1 à N; dans la sommation, le symbole "^" signifie que (i-1) est l'exposant de (-1).



Preuve.-
Voir par exemple, Feller, tome I, pages 99-100. À la fin de la leçon 4, le lecteur sera en mesure de comprendre la preuve fournie dans Feller. Par ailleurs, une démonstration par induction est sans doute possible.

Remarque.- Les théorèmes 1.3 et 1.4 sont deux cas particuliers du théorème 1.5. Le théorème 1.3 correpond à N=2 tandis que le théorème 1.4 correspond à N=3.
En effet, pour N=2, on a :
P(A) = P(A1 U A2) = S1S2 = ( P(A1) + P(A2) ) – ( P(A1 ∩ A2) ).
Pour N=3, on a:
P(A) = P(A1 U A2 U A3 ) = S1S2 + S3 =
=(P(A1) + P(A2)+ P(A3)) – ((P(A1 ∩ A2) + P(A2 ∩ A3) + P(A3 ∩ A1) ) + P(A1 ∩ A2 ∩ A3).


Théorème 1.6.- A et B étant deux événements quelconques de S,
si A est inclus dans B, alors, P(A) ≤ P(B).

Preuve.-
Soit A et B deux événements de S tels que A soit inclus dans B. Soit A’ le complémentaire de A dans S. On a alors :
B = A U (A’ ∩ B)
Les événements A et (A’ ∩ B) étant mutuellement exclusifs, on peut écrire :
P(B) = P(A) + P(A’ ∩ B) ≥ P(A) car P(A’ ∩ B) ≥ 0.

Fin de la Leçon 1.3

Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Feller, William (1967) An Introduction to Probability Theory and its Applications, Volume I, Third Edition, Revised Printing (1970), Wiley, 509 p.
  4. Moi-même.

samedi 19 juin 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.2)


Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

    LEÇON 1.2 - Définition de quelques termes reliés aux ensembles et aux probabilités

    Dans cette deuxième leçon le lecteur maîtrisera le sens des termes définis dans les quatre questions suivantes :

  1. Expérience aléatoire, espace échantillonnal, événement.
  2. Espace échantillonnal fini, espace échantillonnal infini dénombrable, espace échantillonnal indénombrable.
  3. Ensemble vide, réunion, intersection, complémentaire.
  4. Diagramme de Venn.


1.2.1 Expérience aléatoire, espace échantillonnal, événement.

Dans la leçon précédente, on a commencé à se faire une idée de ce que sont une expérience aléatoire, un événement. Nous allons ici définir plus systématiquement ces termes et d’autres.

Les probabilités ont leurs propres notations, leurs propres symboles, leurs propres définitions. Ce sont des outils qui permettent de synthétiser les concepts.

Tout problème de probabilité est posé en commençant par définir l’information disponible et les quantités à estimer.

Expérience aléatoire.- La théorie des probabilités est née de situations de la vie courante dans lesquelles une expérience est réalisée et l’expérimentateur en observe le résultat. Ce genre d’expériences s’appelle expérience aléatoire. On peut décrire avant l’expérience, l’ensemble des résultats possibles.

Espace échantillonnal.- L’ensemble des résultats possibles d’une expérience aléatoire constitue l’espace échantillonnal.

Une probabilité est la chance qu’un certain résultat se produise parmi tous les résultats possibles pour un processus aléatoire donné. Le processus est dit aléatoire parce que vous conduisez une expérience, ou vous collectez des données, et vous ne savez pas quels résultats vont se présenter à vous à un moment donné, même si vous connaissez à l’avance l’ensemble des résultats possibles associés à l’expérience en question. Donc avant de faire l’expérience, vous déterminez la liste complète des résultats possibles, c’est-à-dire, l’espace échantillonnal que l’on note S. Il s’agit d’un ensemble.

Exemple C1.L2.1

Si le processus aléatoire (expérience) consiste à lancer un dé en l’air, les six résultats possibles forment l’espace échantillonnal :
S = {1, 2, 3, 4, 5, 6}.

Événement.- Un sous-ensemble d’un espace échantillonnal donné S est appelé un événement et est noté par une lettre majuscule A, B, C, D, etc.

Exemple C1.L2.2

Étant donné l’expérience aléatoire consistant à lancer en l’air un dé une fois et dont l’espace échantillonnal est : S = {1, 2, 3, 4, 5, 6}, l’événement A : «Le résultat du lancer est un nombre impair» se note : A = {1, 3, 5}. L’événement B : «Le résultat est un nombre plus grand que 2 mais différent de 5» se note : B = {3, 4, 6}.


1.2.2 Espace échantillonnal fini, espace échantillonnal infini dénombrable, espace échantillonnal indénombrable.-

Espace échantillonnal fini.-

Si l’on peur écrire et compter tous les éléments d’un espace échantillonnal S, on dit qu’il est un espace échantillonnal fini. L’ensemble S de l’exemple C1.L2.1 est un ensemble fini.

Exemple C1.L2.3

On jette en l’air à trois reprises une même pièce de monnaie équilibrée et l’on note à chaque fois sur quel côté elle tombe. L’espace échantillonnal s’écrit :
S = {PPP, PPF, PFP, PFF, FPF, FPP, FFP, FFF}.

Exemple C1.L2.4

On jette en l’air à trois reprises une même pièce de monnaie équilibrée et l’on note combien de fois elle tombe sur le côté face. L’espace échantillonnal s’écrit :
S = {0, 1, 2, 3}.

Espace échantillonnal infini dénombrable.-

L’espace échantillonnal est infini dénombrable si l’on dispose d’un moyen de montrer la progression des résultats (éléments) à partir des premiers résultats (discrets) mais le nombre total des résultats (éléments) est infini.

Exemple C1.L2.5

À l’aide d’un moniteur, on compte les radiations émises par une source radioactive dans un intervalle d’une minute. On a dans ce cas l’espace échantillonnal :
S = {0, 1, 2, 3,…}.
Il s’agit ici d’un espace échantillonnal infini dénombrable.

Espace échantillonnal indénombrable.-

L’espace échantillonnal est non dénombrable ou indénombrable si l’on a une situation où les résultats possibles sont trop nombreux et l’on ne peut les écrire dans une liste; on a alors recours à un intervalle pour décrire complètement les éléments de cet ensemble.

Exemple C1.L2.6

Par un certain procédé, on fabrique quotidiennement dans une usine un volume d’un certain produit mesuré suivant une certaine unité. La production journalière varie entre un minimum noté a et un maximum noté b. On choisit une journée au hasard et l’on note la quantité x produite cette journée-là. On a alors l’espace échantillonnal indénombrable suivant :
S = {x : x ε R, a ≤ x ≤ b}.

1.2.3 Ensemble vide, réunion, intersection, complémentaire

Ensemble vide

Si un événement ou un sous-ensemble d’un espace échantillonnal S ne contient aucun résultat, cet événement est un ensemble vide et est noté Ø.

Exemple C1.L2.7

On considère deux événements tirés de l’espace échantillonnal de l’exemple C1.L2.1 :
A = {1, 2, 3} et B = {4, 5, 6} sous-ensembles de S;
S = {1, 2, 3, 4, 5, 6}.
Les événements A et B n’ont aucun élément en commun. L’ensemble des éléments communs à A et à B est l’ensemble vide Ø.

Réunion et Intersection

On considère l’expérience du lancer d’un dé. Soit l’événement A : «le dé tombe sur une face supérieure ou égale à 3» et l’événement B : «le dé tombe sur une face impaire». On a :
A = {3, 4, 5, 6} et B = {1, 3, 5}.

La réunion des ensembles A et B se note A U B et s’écrit :
A U B = {1, 3, 4, 5, 6}.

L’intersection des ensembles A et B se note A ∩ B et s’écrit :
A ∩ B = {3, 5}.
Si deux ensembles n’ont aucun élément en commun, leur intersection est l’ensemble vide.


Complémentaire

On considère à nouveau l’expérience du lancer d’un dé et l’événement B = {1, 3, 5}. Le complémentaire de B dans l’espace échantillonnal S (voir l’exemple C1.L2.1) est formé des éléments de S qui n’appartiennent pas à B. Il se note B’ et s’écrit : B = {2, 4, 6}. C’est l’événement : «le dé tombe sur une face paire».


1.2.4 Diagramme de Venn

Une manière de représenter l’information reliée à un problème de probabilité est d’illustrer par un schéma : l’espace échantillonnal, tous les événements impliqués et tous les sous-ensembles qui sont formés quand des événements se recoupent.

L’un des schémas les plus utilisés pour représenter l’espace échantillonnal et les événements est le diagramme de Venn.

Un diagramme de Venn est un schéma dans lequel un grand rectangle représente l’espace échantillonnal S, des cercles (toutes autres surfaces limitées par une ligne fermée) représentent les divers événements impliqués dans le problème étudié.

Les diagrammes de Venn peuvent être utilisés pour organiser et visualiser des relations entre événements, pour déterminer des probabilités au-delà de celles qui sont données au départ.

Si deux événements ont une intersection non vide, leurs cercles se chevauchent.

Diagramme de Venn de deux événements A et B ayant une intersection non vide




Si deux événements sont mutuellement exclusifs, leurs cercles ne se coupent pas : leur intersection est un événement impossible.

Si deux événements sont mutuellement exclusifs, l’occurrence de l’un empêche celle de l’autre : l’occurrence des deux événements simultanément est impossible.


Diagramme de Venn de trois évennements A, B et C mutuellement exclusifs



Si deux événements sont collectivement exhaustifs, leur réunion est l’espace échantillonnal S tout entier.



Diagramme de Venn de quatre événements A, B, C et D mutuellement exclusifs et collectivement exhaustifs.




Fin de la Leçon 1.2


Références utilisées dans la préparation de cette leçon:

1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C. Wiley 2001.

2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.

3. Moi-même.
________________________
Mise à jour 21 juin 2010

jeudi 15 avril 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.1)


Chapitre 1.- Quelques notions de base



  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

***********************************************


LEÇON 1.1 - Introduction
Dans cette première leçon le lecteur saura répondre aux quatre questions suivantes :
1. Comment les probabilités interviennent-elles dans la vie de tous les jours ?
2. Quel est le sens du nombre utilisé pour exprimer une probabilité ?
3. Comment établir le nombre qui exprime une probabilité ?
4. Comment éviter les erreurs conceptuelles en calcul des probabilités ?




1.1.1 Comment les probabilités interviennent-elles dans la vie de tous les jours ?
En réalité, les probabilités interviennent dans tous les gestes que nous posons et dans tout ce qui nous arrive dans la vie quotidienne. Cependant notre intuition ne nous aide pas du tout à trouver réponses aux questions soulevées à leur sujet.
Vous connaissez sans doute quelqu’un qui a été nommé Sénateur par le Premier ministre canadien, ou bien qui a été nommé Gouverneur général du Canada, ou bien qui a gagné deux fois à la loterie et vous vous demandez est-ce que vous pourriez être aussi chanceux qu’eux.

Les leçons que j’écris pour vous, vous permettront, à un moment donné, de comprendre, par exemple, les résultats d’un sondage d’opinion réalisé auprès des électeurs d’un pays donné, où deux partis politiques s’affrontent. Supposons que le sondage soit réalisé un mois avant le jour du scrutin. Supposons que le parti L bénéficie de X pourcents des intentions de votes auprès des électeurs sondés et que le parti Q en bénéficie de Y pourcents. Supposons qu’il n’y ait pas d’indécis, c’est-à-dire que X+Y = 100%. Que signifient les nombres X et Y pour les partis en lice ? Que signifie exactement la phrase qui qualifie les résultats du sondage : « La marge d’erreur du sondage est de 3%, 19 fois sur 20» ?

Quelle est la probabilité (la chance) que chacun des événements suivants ait lieu ?

• Nous sommes en avril 2010, et vous décidez de passer deux semaines de vacances d’été à Port-au-Prince du samedi 17 au samedi 31 juillet 2010. Quelle est la probabilité qu’un séisme de magnitude 7.0 à l’échelle de Richter ait lieu pendant votre séjour en Haïti le long de la faille Enriquillo entre Pétion-Ville et Grand-Goâve ?

• Quelle est la probabilité qu’un bloc de glace de 5 cm de diamètre se détache du parapet enrobé de glace d’un viaduc au-dessus de l’autoroute Décarie à Montréal, et tombe sur le pare-brise de votre véhicule au moment où vous passez sous ce viaduc au volant de votre véhicule un dimanche donné, au cours d’un hiver donné, à la suite d’une forte tempête de neige ?

• Vous êtes au volant de votre voiture sur une route au Québec et vous tenez votre téléphone pour lancer un appel téléphonique à un ami (ce geste est maintenant illégal au volant). Quelle est la probabilité de vous faire intercepter par la police et recevoir de lui un billet d’infraction au code de la route ?

Les situations présentées ci-dessus sont des exemples de manifestations de phénomènes aléatoires, ou des exemples d’événements qui peuvent vous arriver ou dont vous pouvez être témoin dans la vie courante.


L’ensemble des leçons qui vous suivront vous permettront de quantifier, d'interpréter, de comprendre les phénomènes aléatoires que vous pouvez observer dans votre vie de tous les jours où dans votre profession, quelle qu’elle soit.

1.1.2 Quel est le sens du nombre utilisé pour exprimer une probabilité ?
Comme on le verra au cours de ces leçons, la théorie des probabilités a un langage qui lui est propre, comme cela arrive dans chaque discipline. Nous apprendrons ce langage au fur et à mesure.

Voici quelques termes utilisés dans le langage courant pour traduire les probabilités : chance, vraisemblance, pourcentage, proportion, etc.
Une probabilité se définit comme étant la chance (réelle) qu’un certain événement se produise à partir d’un phénomène aléatoire donné.

Une probabilité s’exprime par un nombre compris entre 0 et 1. Ce nombre peut être un nombre décimal ou une fraction (un rapport). On peut aussi exprimer la probabilité par un pourcentage (entre 0 % et 100%).

Exemple C1.L1.1
Par exemple, on considère l’expérience suivante que l’on peut répéter à volonté. On lance en l’air une pièce de monnaie que l’on suppose parfaite (c’est-à-dire, sans défaut). On dira parfois que la pièce est bien équilibrée. La pièce a alors autant de chances de tomber sur le côté face que de chances de tomber sur le côté pile. On suppose ici que la possibilité pour la pièce soit suffisamment mince pour ne pas pouvoir tomber (rester) debout au sol en s’y appuyant selon une ligne de contact correspondant à l’une des positions particulières qu’occuperait la génératrice qui engendre la surface latérale du cylindre. On peut concevoir que la probabilité que la pièce tombe sur le côté face (c’est-à-dire que seule le côté face est visible) est égale à 50% ou ½. On dira que les chances pour que la pièce de monnaie tombe sur le côté face sont de 1 sur 2.

Exemple C1.L1.2
On lance en l’air un dé supposé parfait (le dé est un petit cube ayant donc six faces carrée, huit sommets et 12 arêtes). Les faces sont numérotées de 1 à 6 à l’aide de points noirs (petites surfaces circulaires). La probabilité que le dé tombe sur la face numéro 5 (la face du dessus contient cinq points noirs) est à peu près égale à 16,67%. Plus précisément, la probabilité pour que le dé tombe sur la face 5 est égale à 1/6. Ou encore, les chances pour le dé de tomber sur la face 5 sont de 1 sur 6.
On connaît cette probabilité à l’avance, c’est-à-dire avant de commencer l’expérience du lancer de dé ! Et chacune des faces du dé a la même chance d’occuper la position du dessus à la fin d’un lancer du dé, soir 1 sur 6.

Le terme chance peut avoir plusieurs sens. Il peut correspondre à un individu ou à un groupe d’individus. Quelles sont les chances d’un candidat d’être élu parmi plusieurs candidats en lice ? Quel est le pourcentage d’hommes de race noire susceptibles d’avoir le cancer de la prostate après 45 ans ?

Tous les termes employés pour traduire les probabilités reposent sur l’idée de
chance à long terme.

Exemple C1.L1.3
Reprenons l’expérience du lancer d’une pièce de monnaie. La pièce est lancée en l’air 10 000 fois de suite et l'on note à chaque fois sur quelle face elle tombe. On suppose que la pièce est parfaite et qu'elle le reste tout au long de l’expérience, quel que soit le nombre de lancers (les ingénieurs diraient qu’il n’y a pas de déformations permanentes quel que soit le nombre de chocs). Peut-on estimer, avant l’expérience, le nombre de fois que la pièce tombera sur face après 10 000 lancers ?
Pour une pièce de monnaie parfaite, on peut s’attendre à ce qu’elle tombe environ autant de fois sur face que sur pile : à peu près 5 000 fois.

En réalité, les pièces de monnaies sont imparfaites (biaisées). En simulant l'expérience du lancer sur ordinateur, on peut considérer virtuellement que le dé utilisé est sans sans biais. On a réalisé l’expérience sur ordinateur dans les années 50. Voici en résumé un extrait des résultats obtenus :
Pour les 1 000 premiers lancers : 501 faces.
Pour les 2 000 premiers lancers : 986 faces.
Pour les 3 000 premiers lancers : 1495 faces.
Pour les 4 000 premiers lancers : 2031 faces.
Pour les 5 000 premiers lancers : 2516 faces.
Pour les 6 000 premiers lancers : 3004 faces.
Pour les 7 000 premiers lancers : 3504 faces.
Pour les 8 000 premiers lancers : 4001 faces.
Pour les 9 000 premiers lancers : 4495 faces.
Pour les 10 000 premiers lancers : 4979 faces.

Nous observons ici que, dans les dix étapes considérées, le nombre de faces observé est environ la moitié du nombre de lancers. Cependant, il faudrait recourir à une théorie plus avancée pour vérifier dans quelle mesure ces résultats empiriques sont en accord avec le modèle théorique (idéal) de lancer de dé. Sur ce point particulier, le lecteur intéressé pourra consulter Feller (1968), p. 21-22, 86-88.



Certaines probabilités sont très difficiles à quantifier. Par exemple quelle est la probabilité pour une tempête tropicale de se transformer en un ouragan qui causera finalement des glissements de terrains à un certain endroit à un certain moment ? Il s’agit d’une probabilité qui dépend de plusieurs facteurs, ces derniers étant eux-mêmes presque impossibles à évaluer.
Certaines autres, on l’a vu, sont très faciles à évaluer : la probabilité pour un dé de tomber sur la face 5 est 1/6.
Entre ces deux extrêmes se situent des probabilités pour lesquelles les observations antérieures peuvent être utilisées pour se faire une bonne idée de ce qui peut vraisemblablement arriver.


1.1.3 Comment établir le nombre qui exprime une probabilité ?
Comment quantifier la probabilité d’un événement ?
Selon la complexité de la situation étudiée, on peut recourir à l’une des quatre approches suivantes :
a) une approche subjective;
b) une approche mathématique;
c) un simple calcul de fréquences relatives;
d) le recours à des simulations.

L’approche subjective est plutôt vague, peu rigoureuse, fondée sur des perceptions, des opinions, ou des désirs.
L’approche mathématique est basée sur des formules. Elle est utilisée quand on peut déterminer à l’avance tous les résultats possibles et alors calculer une fois pour toutes, avant l’expérience, la probabilité d’occurrence de chacun des résultats possibles.

L’approche par calcul des fréquences relatives se fait à partir de la cueillette d’informations (de données) à la suite de laquelle on calcule la fréquence de l’occurrence d’un événement donné.

L’approche par simulations consiste à générer des données selon un certain schéma (scénario) en répétant un grand nombre de fois ce scénario. En général, on a recours à un ordinateur pour faire les simulations. Cette technique est très utilisée dans la recherche scientifique. Elle peut coûter cher en temps de calcul, en plus d’être dans certains cas, très sophistiquée, c’est-à-dire requérir l’utilisation de techniques mathématiques et/ou numériques de pointe.


1.1.4 Comment éviter les erreurs conceptuelles en calculs des probabilités ?

• Il faut éviter de se fier à son intuition pour estimer les probabilités car, souvent, elles défient l’intuition.

• Choix d’un nombre entre 1 et 10. Considérons un jeu de société auquel participent 100 personnes. On considère ici seulement la première étape du jeu consistant à choisir dans sa tête une carte dans un lot 10 de cartes différentes numérotées de 1 à 10 et placées dans cet ordre, l’une à la suite de l’autre. On espère qu’environ 10 personnes choisiront la carte no. 1, 10 autres la carte no. 2, et ainsi de suite. Mais ce n’est pas cela qui arrive. On observe que les personnes choisissent plus souvent la carte no. 3 ou la carte no. 7. La raison, c’est que les personnes ont tendance à ne pas choisir la carte no. 1 ou la carte no. 10 car elles sont placées aux extrémités. Elles ne veulent pas prendre non plus la carte no. 5, car elle est au milieu. Alors elles y vont pour un nombre plus aléatoire : la carte situé à mi-chemin entre 1 et 5, soit 3, et celle à mi-chemin entre 5 et 10, soit 7. On doit dans ce cas, rejeter l’hypothèse selon laquelle les 10 choix sont équiprobables. Le choix des gens n’est pas aussi objectif que l’est un générateur de nombres aléatoires ou une table de nombres aléatoires.

• Si l’on inscrit chacun des nombres de 1 à 10 sur un carton individuel et si on les place dans une urne, on les brasse et l’on tire un carton au hasard, on crée alors un processus aléatoire.

• Lancer d’une pièce de monnaie dix fois. On considère l’expérience suivante consistant à lancer en l’air 10 fois de suite une pièce de monnaie. Supposons que le résultat obtenu se présente dans l’ordre suivant (F=face, P=pile) : F P F P P P P P P F. On pourrait penser que les lancers ne soient pas tout à fait aléatoires. Mais cette déduction basée sur l’intuition est fausse. Si on lance une pièce de monnaie 10 fois de suite avec 2 résultats possibles pour chaque lancer (P ou F), on a 2^10 = 1024 résultats possibles pour un ensemble de 10 lancers successifs, chaque résultat étant équiprobable. Le résultat précédent (F P F P P P P P P F) apparaît maintenant comme étant réellement aléatoire. La probabilité associé à chacun des résultats est p = 1/1024 (soit environ 0,000977). On suppose que la pièce est équilibrée (sans défaut).


Fin de la Leçon 1.1


Références utilisées dans la préparation de cette leçon:

1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C. Wiley 2001.

2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.

3. Feller, William (1967) An Introduction to Probability Theory and its Applications, Volume I, Third Edition, Revised Printing (1970), Wiley, 509 p.

4. Moi-même.

mardi 13 avril 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1)


Enfin, je vais pouvoir commencer la publication de la série de leçons.
Je la divise en deux parties:

Première Partie: Les Probabilités
Deuxième partie: La Statistique

Voici le plan proposé pour la première partie:

Chapitre 1.- Quelques notions de base
Chapitre 2.- Les variables aléatoires discrètes, les variables aléatoires continues, les fonctions d'une variable aléatoire
Chapitre 3.- Quelques lois de probabilité discrètes
Chapitre 4.- Quelques lois de probabilité continues
Chapitre 5.- La loi normale
Chapitre 6.- Les vecteurs aléatoires

Le plan de la deuxième partie sera donné plus tard.

Voici le plan du chapitre 1.


Chapitre 1.- Quelques notions de base
  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

Le plan des autres chapitres sera donné au fur et à mesure.

Je posterai chacune des 7 leçons du chapitre 1 au fur et à mesure. La première leçon sera disponible ici dans les 72 prochaines heures.

À très bientôt.

Dr. Pierre Montès

mercredi 24 mars 2010

Génie des maths, il refuse un prix d'un million de dollars

*
***

Par Flore Galaud
Source: Lefigaro.fr, 24/03/2010


Grigori Perelman, un Russe de 44 ans, a décliné la récompense de l'Institut Clay des Mathématiques pour avoir résolu la conjecture de Poincaré. Depuis quatre ans, il vit reclus dans son petit appartement vétuste de Saint-Pétersbourg.

Les chiffres, oui, mais pas sur des billets verts. Le russe Grigori Perelman, rendu célèbre pour avoir résolu l'un des problèmes mathématiques les plus difficiles posés au 20e siècle, a fait savoir lundi qu'il refusait d'aller chercher le «Prix du Millénaire» que lui a décerné la semaine dernière l'Institut Clay des Mathématiques - un prix qui l'aurait pourtant récompensé d'un million de dollars (750.000 euros). C'est la seconde fois que ce brillant mathématicien, réputé pour être un homme discret, ne vient pas chercher un prix qui lui a été décerné.

Pour Grigori Perelman, tout démarre en 2002. Alors chercheur à l'Institut Steklov de Mathématiques de Saint-Pétersbourg, ce Russe de 44 ans décide de publier ses recherches sur la conjecture de Poincaré sur une plateforme gratuite Internet, destinée aux scientifiques. Cet exercice mathématique, de nombreux chercheurs s'y sont cassé les dents auparavant. Formulée pour la première fois par Henri Poincaré en 1904, il s'agit d'arriver à déterminer si une forme quelconque peut constituer une sphère de trois dimensions.

L'air de rien, Grigori Perelman explique avoir résolu le problème, pourtant considéré par l'Institut Clay comme l'un des «sept problèmes les plus recherchés du millénaire». Rapidement, la nouvelle se propage dans le milieu scientifique et la trouvaille est validée par les plus grands chercheurs. Après avoir travaillé des années dans l'anonymat le plus total, le mathématicien devient une référence dans le milieu.


Il a démissionné de son poste de chercheur

Mais Grigori Perelman n'est pas préparé à cette consécration. En 2005, quelque peu dépassé par la situation, il décide de quitter ses fonctions à l'Institut Steklov où il travaille depuis quinze ans. En 2006, l'Union mathématique internationale (IMU) lui décerne, sans surprise, la prestigieuse médaille Fields, sorte de Prix Nobel de mathématiques décerné tous les quatre ans. Une médaille qu'il n'ira jamais chercher, préférant expliquer aux journalistes - sans leur ouvrir la porte de son appartement - qu'il ne souhaite pas «être exposé comme un animal dans un zoo». «Je ne suis pas un héros de mathématiques, leur lance-t-il alors. Je ne suis même pas un génie, c'est pour cela que je ne veux pas que tout le monde me regarde».

Ainsi, depuis quatre ans, Grigori Perelman vit quasiment reclus dans un petit appartement de Saint-Pétersbourg, en compagnie de sa mère âgée. Selon l'une de ses voisines, qui s'est confiée au Daily Mail, l'homme vivrait dans des conditions plus que rudimentaires : «J'ai été une fois dans son appartement et j'ai été abasourdie. Il y a seulement une table, un tabouret et un lit avec un matelas crasseux cédé par les anciens locataires». D'après ses proches, l'homme aurait cessé toute recherche dans le domaine des mathématiques.
________________
Voir aussi : yahoo.com.

Compteur