L’ENSEIGNEMENT DES PROBABILITÉS(*)
- Sabih Yaïci
- 24 oct. 2020
- 14 min de lecture
Dernière mise à jour : 22 janv. 2022

I. INTRODUCTION
Nous sommes conscients que même dans les milieux intellectuels les notions de probabilités ne sont pas bien assimilées et, la fameuse notion du hasard est restée confinée dans sa définition initiale avant l’avènement de la théorie des probabilités. L’enseignement des probabilités est un beau défi pour l’enseignant ou le didacticien, car il va à l’encontre des convictions de toute la société, d'autant que ces convictions erronées se renforcent chaque jour du fait que les phénomènes aléatoires nécessitent de longues observations dans le temps qui dépassent en général l’espérance de vie de l’homme. Toutefois, avec l’avènement des TIC, nous avons de grands espoirs d’y remédier à ce problème, car elles vont nous permettre d’écourter ce temps à travers des simulations d’expériences.
Ce travail se veut une réflexion générale sur l’enseignement des probabilités, nous l’avons abordé pour cela sous différents angles. À cet effet, la première partie est consacrée l’aspect historique du thème : elle se veut une lecture non exhaustive de l’histoire des probabilités. Nous retraçons le développement de la théorie des probabilités depuis ses premiers balbutiements. Nous avons aussi inséré les noms des mathématiciens qui ont contribué à la formation de celle-ci pour lui redonner son aspect humain que l’on néglige souvent dans de telle étude.

La suite logique de la partie précédente est un examen de l’aspect épistémologique des probabilités : nous l’abordons avec des arrières pensés focalisées sur l’enseignement des probabilités. Ces dernières années, un intérêt particulier est consacré à l’enseignement des probabilités dans la littérature spécialisée de la didactique des mathématiques. C’est ce qui constitue la troisième partie de ce travail. Nous exposons rapidement les origines des difficultés des élèves à acquérir un raisonnement probabiliste et les approches didactiques pour y remédier.
II. APERÇU HISTORIQUE SUR LES PROBABILITÉS
De nos jours, on dit que les mathématiques n’ont pas d’âme. C’est vrai si on les aperçoit comme des interrelations de chiffres, de lettres, de symboles… cependant, si les mathématiciens prennent le temps (ou qu’on leur donne le temps) de parler de l’histoire des humains, esprits et âmes, qui sont derrière chaque notion, cette image erronée des mathématiques disparaîtrait. L’enseignant ou le didacticien doit se référer autant que possible à l’histoire des mathématiques, pas seulement à des fins épistémologiques, mais aussi pour rapprocher plus les mathématiques des humaines. C’est dans cet état d’esprit que nous avons cherché, dans cet aperçu historique, à citer tous les mathématiciens qui ont contribué à la formation de la théorie des probabilités. De ce fait, les élèves concevront que les théories mathématiques en général et des probabilités en particulier ont leurs histoires, qui représentent une aventure intellectuelle et conflictuelle, qui peut être répétée dans leurs pensées lorsqu’ils construisent leurs savoirs [1].

Les probabilités sont une branche récente des mathématiques et se sont développées grâce aux jeux du hasard, particulièrement ceux incluant de l’argent. Les balbutiements des probabilités remontent au Moyen Âge qui répondaient aux besoins des personnes qui s’adonnaient aux jeux du hasard, toutefois les premières approches mathématiques n’ont été élaborées qu’à partir du 16e siècle avec le mathématicien Cardano [2]. Mais, le véritable départ du calcul des probabilités fut au 17e siècle lors des correspondances de Pascal et de De Fermat sur les probabilités des évènements intervenant dans les jeux du hasard. Au 18e siècle, l’intérêt pour les probabilités augmenta d’un cran chez les mathématiciens et scientifiques, ce qui leur valut de sortir de leur confinement du cadre des jeux du hasard pour qu’elles soient généralisées aux phénomènes aléatoires ayant lieu dans les sciences comme la physique, la biologie, l’astronomie et les sciences sociales. On retiendra particulièrement les travaux de J. Bernoulli, de De Moivre et de Bayes. Les fondements de la théorie des probabilités furent établis de la deuxième moitié du 18e au début du 19e siècle notamment avec le concours de mathématiciens comme Laplace, Gauss et Poisson. Dans leurs foulées, plusieurs mathématiciens, comme Bienaymé et Tchebychev, poursuivirent le développement de cette théorie jusqu’au début du 20e siècle, qui vit la formulation d’une théorie axiomatique des probabilités de la part du mathématicien Kolmogorov.

Les premiers travaux sur les probabilités furent publiés au XVIIe siècle, cependant, c’est bien avant que le mathématicien, médecin et astrologue, Gerolamo CARDANO (Jérôme CARDAN en français, Italie : 1501-1576, il était d’ailleurs un grand joueur des jeux du hasard) donna les premières ébauches de la probabilité. Il définit la probabilité comme étant le rapport du nombre des essais concluants sur le nombre total d’essai dans une expérience donnée. Malheureusement, ses travaux n’ont été publiés que 87 ans après sa mort, [2].
Le philosophe, mathématicien et physicien Blaise PASCAL (France, 1623-1662) ainsi que le philologue et mathématicien Pierre Simon De FERMAT (France, 1601-1665) sont considérés comme les pionniers dans l'analyse combinatoire et dans le calcul des probabilités qu'ils introduisirent en 1654, indépendamment des travaux de Cardano, en étudiant des problèmes de jeux et d'espérance de gain (les notions d'équiprobabilité et d'espérance mathématique). Quelques années plus tard, dans son Traité du triangle arithmétique (annexe A.1), Pascal développa l'analyse combinatoire qui sert de fondement au calcul des probabilités.

En 1657, exploitant les résultats de Pascal et de De Fermat, l’astronome et physicien Christian HUYGENS (Hollande, 1629-1695) publia Raisonnement sur les jeux de dés qui constitue le premier traité important sur le calcul des probabilités. Il y précisa notamment la notion d'espérance dans le cas d'une variable aléatoire finie.
C’est au mathématicien Jakob BERNOULLI (Jacques en français, Suisse : 1654-1705) que l’on doit la définition de la variable aléatoire qui porte d’ailleurs son nom et l’élaboration de la loi binomiale (la distribution binomiale). Dès 1689, il établit la loi des grands nombres, [3]. À partir de 1718, le mathématicien Abraham De MOIVRE (Angleterre, 1667-1754) publia The Doctrine of Chances (que l’on peut traduire par « La doctrine du hasard ») qui fait suite aux travaux de Jakob Bernoulli. De Moivre découvrit le premier la possibilité d'approcher une loi binomiale B(n,p) par une loi normale lorsque n est grand. Sa grande contribution en probabilité fut le théorème de Moivre-Laplace dont la généralisation a donné le théorème central limite.
Le théologien et mathématicien Thomas BAYES (Angleterre, 1702-1761), qui fut sous la houlette de De Moivre, examina le problème de la probabilité des causes : calcul de la probabilité d'un événement complexe dont on sait qu'un de ses composants s'est produit. Aujourd’hui est encore utilisée la formule de Bayes, dite aussi des probabilités des causes.

Le philosophe, écrivain, géologue et naturaliste Georges Louis Leclerc BUFFON (France, 1707-1788) s'intéressa aux mathématiques et plus particulièrement aux probabilités. Il est le premier à avoir introduit la probabilité géométrique et il est connu pour sa fameuse expérience de l’aiguille, qui est une méthode aléatoire du calcul de Pi, en 1777 (annexe A.2). Elle représente le premier exemple de la méthode dite de Monte-Carlo qui sera introduite au 20e siècle par Von-Neumann.
L’astronome, physicien, mathématicien et politicien Pierre Simon LAPLACE (France, 1749-1827) publia en 1812, Théorie analytique des probabilités. Il partage avec l’astronome mathématicien et physicien Karl Friedrich GAUSS (Allemagne, 1777-1855), la loi de Laplace-Gauss, qui est dite la loi normale, qu’ils ont construite dans le cadre de l'évaluation des erreurs commises sur des mesures d'observations en astronomie. Cette loi intervient dans l'étude de phénomènes quantitatifs aléatoires continus soumis à de multiples causes.

L’astronome, physicien et mathématicien Siméon Denis POISSON (France, 1781- 1840), qui fut l’étudiant de Fourier et de Laplace, publia en 1838, Théorie du calcul des probabilités où il exposa sa célèbre loi des probabilités portant son nom (loi de Poisson) dans le cas d’une variable aléatoire discrète.
On doit au statisticien et financier Irénée Jules BIENAYMÉ (France, 1796-1878) plusieurs mémoires sur les probabilités, en particulier sur la loi des grands nombres (1869), la célèbre inégalité dite de Bienaymé-Tchebychev relative aux probabilités pour une variable aléatoire. En 1889, le mathématicien, astronome et physicien Joseph Louis François BERTRAND (France, 1822-1900) publia un traité sur calcul des probabilités, mais il est beaucoup plus connu en probabilités par le paradoxe de Bertrand (annexe A.3).
Les travaux en calculs des probabilités du mathématicien Pafnouty Lvovitch TCHEBYCHEV (Russie, 1821-1894) sont un prolongement de ceux de Laplace. Cependant, son étudiant Andreï Andreïevitch MARKOV (Russie, 1856-1922) a accompli d’importants travaux en calcul des probabilités. Il est connu pour les chaînes et le processus de Markov. Quant à son autre étudiant Alexandre Mikaïlovitch LIAPOUNOV (Russie, 1857-1918), on lui doit une généralisation du théorème Moivre–Laplace (théorème central limite).

En 1920, le mathématicien George POLYA (Les États-Unis, 1887-1985) donna une formulation complète du théorème Moivre–Laplace qu’il appela théorème central limite. En 1933, le mathématicien Andreï Nicolaiévitch KOLMOGOROV (Russie, 1903-1987) fonda une théorie axiomatique des probabilités à partir d'axiomes simples qui fait usage du concept de tribu et des théories récentes de la mesure et du calcul intégral (au sens de Lebesgue).
III. ÉPISTÉMOLOGIE
D’un point de vue épistémologique, Pascal et De Fermat ont le mérite d’avoir découvert que le hasard (l’aléatoire au sens mathématique) se décrit à l’intérieur d’une géométrie au sens d’Euclide. Autrement dit, par la démonstration, on déduit des propositions sur la base de définitions et à partir de termes primitifs indéfinis. Ce que dit si bien Pascal dans ses mots : « Ainsi, joignant la rigueur des démonstrations de la science à l'incertitude du sort et conciliant ces deux choses en apparence contradictoires, elle peut, tirant son nom des deux, s'arroger à bon droit ce titre stupéfiant de géométrie du hasard. » [5].

Le XVIIe siècle a légué aux mathématiques un outil puissant qu’est l'analyse. Ce dernier est introduit au calcul des probabilités par Bernoulli [3]. Il remet en cause que le calcul d’une probabilité soit fait à partir d’affirmation a priori et il remédie à cette situation par un calcul a posteriori de la probabilité après observation d'un grand nombre d'expériences semblables. Se fut un grand pas dans l’assimilation du sens de la probabilité, qui était une vision restreinte attachée seulement à l’expérience (un sens local à l’expérience produite), pour lui donner un sens général en la rattachant aussi à l’événement (sens universel à toutes les expériences semblables). Bernoulli justifie cette assimilation probabilité-fréquence par la loi des grands nombres à partir de la distribution binomiale [5].
Puis vint De Moivre qui confirma le caractère général de la probabilité en ayant approché une loi binomiale par une loi normale (sans la définir comme nous la connaissons aujourd’hui). Cependant, il révéla l’affirmation selon laquelle le hasard (phénomènes aléatoires) suit une loi mathématique (rigoureuse). Il écrivit d’ailleurs : « I believe it would be useful, not just for gamblers, but for all human beings, to know that chance has it’s own rules which can acknowledge, and by not knowing these rules would make mistakes each day "J’espère que cela sera utile, pas seulement pour les joueurs des jeux du hasard, mais pour tous les humains de savoir que le hasard a ses propres règles qui peuvent être admises comme vraies ; l’ignorance de celles-ci conduit à commettre des erreurs chaque jour" » [2].

C’est aussi De Moivre qui énonça la relation de la probabilité conditionnelle, mais c’est Bayes qui développa cette notion dite aussi probabilité des causes (ou les probabilités composées). Bayes définit la probabilité conditionnelle d’un évènement B par rapport à un évènement A comme étant la probabilité de la réalisation de B sachant que A est réalisé. En d’autres termes, il a relativisé la probabilité, il a donc fait basculer la probabilité absolue, comme décrite dans une géométrie du hasard, vers une probabilité relativisée comme une mesure physique. Laplace a écrit à ce sujet : « Nous devons donc envisager l'état présent de l'univers comme l'effet de son état antérieur et comme la cause de celui qui va suivre… La probabilité est relative en partie à notre ignorance, en partie à nos connaissances. » [5].
Kolmogorov, par sa théorie axiomatique qui représente un modèle probabiliste construit au sens de la théorie d’Euclide [1], a fusionné les deux conceptions des probabilités, géométrie et fréquence, d’un point de vue épistémologique. Il a écrit : « La valeur épistémologique de la théorie des probabilités est basée sur ceci : dans leur action collective les phénomènes aléatoires, à large échelle, créent des régularités strictes et non aléatoires. Le concept même de probabilité serait sans utilité, s'il ne trouvait sa concrétisation dans la fréquence d'arrivée d'évènements, à la suite de nombreuses expériences réalisées dans des conditions uniformes. » [5].

IV. DIDACTIQUE
Un professeur à l’université a écrit au tableau la formule de Bayes et a dit à ses étudiants : « Don’t even try to do inverse probabilities in your head. Always use Bayes formula. As Tversky and Kahneman have shown, it is impossible for humans to get an intuitive fell for inverse probabilities ». [6]. Cette citation est protagoniste d’une pédagogie accommodationniste, mais avant de se lancer dans de telles entreprises, il faut d’abord regarder les particularités des probabilités par rapport aux autres branches des mathématiques, les méthodes d’enseignement utilisées…
En général, les élèves et les étudiants éprouvent de l’anxiété à l’égard de la légitimité des procédures probabilistes et des formules qu’ils étudient. En partie, cette anxiété est due à la culture mathématique (elle concerne donc tout l’enseignement des mathématiques) développée en classe comme l’insistance sur la réponse et le résultat, l’absence d’une texture intellectuelle et l’invalidation de la voie personnelle qui décourage l’apprenant à exprimer son incompréhension partielle.

À ces raisons s’ajoute le caractère particulier de cette branche des mathématiques : la probabilité d’un événement est liée à des données qui souvent ne sont disponibles que sur une grande période de temps, de ce fait les probabilités de certains événements de notre vie sont en phase de développement. C’est très difficile d’avoir du feedback sur notre jugement probabiliste si par exemple on a une probabilité de 30 % qu’il pleuve demain, alors qu’il ne pleuvra pas. Qu'est-ce qu’on apprend ? Il nous faut plus d’observation pour calibrer nos jugements. En plus, comme c’est le cas ici, on ne dispose que de peu d’opportunité de contrôle, car le monde est en perpétuel changement et on ne peut donc répéter les expériences [6].

De nos jours, dans de nombreux cas, les environnements informatiques peuvent apporter aux probabilités ce que la notation hindoue-berbère des chiffres a apporté à l’arithmétique. Ils permettent le traitement de beaucoup de données en peu de temps, ce qui permet de focaliser l’enseignement sur les probabilités. Les probabilités sont très présentes dans les décisions que nous prenons dans notre vie, ce qui développe chez nous un raisonnement intuitif à l’égard de la probabilité. Cependant, vouloir voir sa vie comme une expérience dans les probabilités requière que l’on voie notre situation comme une d’une large collection de situations similaires, ce qui représente un travail fastidieux, car il faut considérer nos situations, celles du passé et celles qui n’ont pas encore vu le jour [6].
L'enseignement des probabilités est longtemps resté confiner dans la conception laplacienne qui prend ses racines dans la géométrie du hasard de Pascal. Cette méthode d’enseignement se justifiait du fait qu’épistémologiquement, elle est basée sur le caractère hypothético-déductif de la théorie et lequel se conforme à l’enseignement des mathématiques en général. Ce fait sous-entend que l’enseignement suit de manière linéaire la structure logique de cette discipline et néglige donc le processus cognitif de l’apprentissage. C’est ce qui justifie la non-assimilation des concepts des probabilités par les élèves [1, 5].

De nos jours, cette méthode traditionnelle d’enseignement se heurte à ses limites, révélées par Bernoulli, dès lors qu'il s'agit de développer des applications dans tous les domaines de l’activité humains (les sciences et le jeu du hasard) [5]. Des approches didactiques, qui tiennent compte du processus d’apprentissage de l’élève, ont été élaborées pour y remédier, elles sont porteuses de plusieurs innovations telles que l’utilisation des environnements informatiques, situation-problème, etc. Cependant, ces méthodes ont besoin de temps pour faire l’unanimité chez les enseignants qui à la moindre complication retournent à l’ancienne méthode avec laquelle ils sont plus à l’aise [1].

Autrefois, l’absence de l’activité de modélisation dans l'apprentissage des probabilités se justifiait par le temps énorme que nécessiteraient les expériences. Aujourd'hui, une approche basée sur la fréquence est devenue nécessaire comme le souligné Kolmogorov, le concept de probabilité trouve sa concrétisation dans la fréquence d'arrivée d'évènements. Cette approche est supposée clarifier le statut de modèle de la théorie, cependant, elle ne doit pas cacher ou éviter par quelque artifice que ce soit, la dualité de la notion de probabilité, fréquence-combinatoire [5].

À travers les expériences menées par César Sàenz Castro (1998), le modèle d’apprentissage basé sur le quasi-empirisme et la conception améliore significativement les habiletés des élèves dans le calcul élémentaire des probabilités comparativement à la méthode traditionnelle. Il permet aussi de changer d’une manière notable le raisonnement intuitif en probabilités des élèves [1].
La structure logique de la théorie des probabilités n’est pas suffisante pour que l’élève puisse y faire son apprentissage, car elle ne tient pas compte des préconceptions de l’élève à l’égard du hasard et de la probabilité. Il est nécessaire donc de donner un caractère empirique à l’enseignement des probabilités : si les jeux du hasard et l’expérience aléatoire ont eu une place importante dans le développement historique des lois et des concepts du hasard, ils doivent continuer à jouer des rôles importants dans l’enseignement des probabilités dans une perspective quasi empirique, qui provoque un conflit cognitif chez l’élève. Ce fait lui permettra la transition de son modèle personnel à un modèle scientifique du hasard [1].

La nécessité de mettre en place des entraînements spécifiques pour le développement du raisonnement probabiliste est de plus en plus grande et il ne peut pas se faire au sein d’un apprentissage concentré seulement sur le calcul combinatoire des probabilités.
L’enseignement de la probabilité peut commencer à l’école primaire : on pourra initier les élèves à la probabilité géométrique (avec des contextes de géométrie comme la roulette), cependant il faut confronter la conception erronée des élèves avec l’expérience (probabilité fréquentielle). Toutefois, souvent c’est au secondaire qu’on commence à enseigner la probabilité. Nous jugeons alors que l’on doit l’enseigner graduellement dès la première année pour donner le temps à l’élève de se familiariser avec les concepts de base et du temps aussi pour modifier sa conception initiale et acquérir ainsi le raisonnement probabiliste.

La théorie des ensembles prépare l’élève à l’apprentissage des probabilités combinatoires sans toutefois qu’il soit question de probabilité. Par exemple, si on veut enseigner les probabilités à travers l’expérience de lancer de la pièce de monnaie (où il aura à déterminer l’espace probabiliste qui contient deux éléments : pile et face), l’élève a beaucoup de difficulté à concevoir qu’il a une chance sur deux d’avoir pile (ou face), ce qui apparaît évident à nos yeux. Cela est dû en grande partie à notre conception de l’ensemble probabiliste, qui est en fort lien avec la théorie des ensembles. Cependant, un élève ne conçoit pas que le hasard puisse être quantifié et être régulier, car il a une conception restreinte du système représenté par son expérience de quelques lancers qui ne lui permet pas d’obtenir une probabilité de 1/2, ce qui d’ailleurs reflète parfaitement sa préconception des probabilités. Pour vaincre cette dernière, il faudrait une expérience de quelques centaines de lancers pour retrouver la valeur de la probabilité réelle (loi des grands nombres). Alors que s’il s’agissait de la théorie des ensembles, un tel conflit n’aurait pas eu lieu et on préparera mieux l’élève aux probabilités combinatoires. Le plus important c’est qu’on lui donnera un outil, une fois acquis, il lui permettra de confronter ses préconceptions des probabilités par lui-même.
* Texte est tiré d’un mémoire réalisé à l’Université de Montréal (faculté de l’Éducation) en 2004 par Fazia Aït Ikène et Sabih Yaïci.
V. BIBLIOGRAPHIE
La majeure partie des photos des mathématiciens à l’exception des photos de Andreï Andreïevitch MARKOV et de George POLYA ont été prises du site Internet : sciences-en-ligne.com [4]. Dans le cas contraire, la source de l’information est mentionnée.
[1] CÉSAR SÀENZ CASTRO, « Teaching probability for conceptual change », Educational Studies in Mathematics 35, pp 233-254, 1998.
[2] STINE HOLSTANGEN and all, « History of probability », 1999. http://home.c2i.net/greaker/comenius/9899/probabilitytheory/probabilitytheory.html
[3] Encyclopédie de Yahoo, http://www.yahoo.fr
[4] http://www.sciences-en-ligne.com
[5] MICHEL HENRY, « Aperçus historiques, épistémologiques, didactiques », IREM de Besançon, France.
[6] URY WILENSKY, « What is normal anyway ? Therapy for epistemological anxiety », Educational Studies in Mathematics 33, pp 171-202, 1997.
[7] GRAHAM A. JONES and all, « A framework for assessing and nurturing young children’s thinking in probability », Educational Studies in Mathematics 32, pp 101-125, 1997.
ANNEXES
A.1. Triangle arithmétique de Pascal [4]:

Notons que le fameux triangle était déjà connu depuis fort longtemps dans les mathématiques chinoises, car on le retrouve dans des travaux d'arithmétique chinoise au début du 14e siècle en tant que compilation de résultats antérieurs, sans doute du 11e siècle, époque à laquelle où Omar El-Khayyam l'utilisa indépendamment dans ses travaux sur l'arithmétique. Sans oublier Al-Kashi qui le décrit dans sa Clé de l'arithmétique, en 1427.
A.2. Aiguille de Buffon et calcul de p [4] :
Considérons une série de lignes également espacées (bandes d'un parquet bien lisse, d'un carrelage ou d'un damier) et une aiguille ou une fine baguette bien équilibrée dont la longueur égale l'espacement entre les lignes. Lançons l'aiguille au hasard sur le parquet en notant 1 si l'aiguille rencontre une ligne et 0 sinon.
Si vous jouez à ce jeu sur un damier et que l'aiguille sort du damier, le coup est annulé ; si l'aiguille tombe perpendiculaire aux lignes et juste entre deux lignes, vous déciderez de compter 1 ou 0, ce cas est marginal.

A.3 Paradoxe de Bertrand [4]:

Considérons un cercle et une corde de ce cercle tracée au hasard. On cherche la probabilité que cette corde soit plus longue que le côté du triangle équilatéral inscrit au cercle. Sur la figure ci-contre, la corde est tracée en rouge.
Comments