Greedno, encyclopédie gratuite en ligne
Economie/Finance/Mathématique financière

 

          Actualité          

          Suivez ici l'actualité de Greedno.fr sur facebook                  

Art   Economie   Environnement   Justice   Personnalité   Politique   Science   Société   Sport   Technologie

                  
                                                               

Economie >> Finance >> Mathématique financière                                                             << Jeux gratuits en ligne >>

 Mathématiques financières _________________________________________________________

Branche des mathématiques appliquées ayant pour but la modélisation, la quantification et la compréhension des phénomènes régissant les marchés financiers. Elles utilisent principalement des outils issus de l'actualisation, de la théorie des probabilités, des statistiques et du calcul différentiel. L'actualisation et les probabilités remontent à plusieurs siècles.

Louis Bachelier, par sa thèse intitulée Théorie de la spéculation en 1900, est considéré comme le fondateur des mathématiques financières. La théorie moderne du portefeuille remonte au MEDAF et à l'étude du problème d'évaluation des options dans les années 1950-1970. L'observation du cours des actifs financiers montre que ceux-ci ne sont pas déterminés de façon certaine par leur histoire. En effet, les opérations d'achat ou de vente ne sont pas prévisibles, elles font souvent intervenir des éléments nouveaux. Benoit Mandelbrot a établi par des considérations statistiques qu'un modèle aléatoire ordinaire, par exemple gaussien, ne convient pas. L'aléa reste cependant souvent modélisé par un mouvement brownien (processus de Lévy), bien que des modèles plus élaborés tiennent compte de la non-continuité des cours (présence de sauts (gaps) dus à des chocs boursiers), ou de la non-symétrie des mouvements à la baisse et à la hausse. L'une des hypothèses fondamentales est qu'il n'existe aucune stratégie financière permettant d'acquérir une richesse certaine dans une date future. Cette hypothèse est appelée absence d'opportunités d'arbitrage. Elle est justifiée par l'unicité des prix caractérisant un marché en concurrence pure et parfaite. Pratiquement, il existe des arbitrages qui disparaissent rapidement du fait de l'existence d'arbitragistes, acteurs sur les marchés dont le rôle est de détecter ce type d'opportunités et d'en profiter. Ces acteurs créent alors une force qui tend à faire évoluer le prix de l'actif vers son prix de non-arbitrage. Une autre hypothèse, beaucoup plus remise en question, est que tout flux à venir peut être répliqué exactement, et quel que soit l'état du monde, par un portefeuille d'autres actifs bien choisis. Les modèles ne comprenant pas les hypothèses de non arbitrage et de complétude des marchés sont dits modèles de marchés imparfaits.

______________________________________________________________________________________________________

 Théorie financière

  • Théorie moderne du portefeuille
  • Risque spécifique, intrinsèque ou idiosyncrasique
  • Risque de marché ou systématique
  • MEDAF (modèle d’évaluation des actifs financiers) ou CAPM (Capital Asset Pricing Model)
  • Hypothèse de l’efficience du marché financier (HEM)

Actualisation

Probabilités

  • Axiomes des probabilités ou axiomes de Kolmogorov
  • Indépendance
  • Problème de Monty Hall
  • Loi de probabilité
  • Variable aléatoire
  • Probabilité conditionnelle
  • Théorème de Bayes
  • Inférence bayésienne
  • Théorème de Cox-Jaynes
  • Induction logique
  • Loi de probabilité binominale
  • Loi de probabilité de poisson
  • Loi uniforme continue
  • Loi exponentielle
  • Loi normale ou loi gaussienne ou loi de Laplace
  • Processus stochastique
  • Processus de Markov
  • Mouvement brownien ou processus de Wiener

Statistique

Dérivée ou calcul différentiel

______________________________________________________________________________________________________

Théorie financière

Théorie moderne du portefeuille

Théorie financière développée en 1952 par Harry Markowitz. Elle expose comment des investisseurs rationnels utilisent la diversification afin d'optimiser leur portefeuille, et quel devrait être le prix d'un actif étant donné son risque par rapport au risque moyen du marché. Sa formalisation la plus accomplie est le MEDAF. L'idée de Markowitz est de panacher son portefeuille d'une façon telle qu'on n'y fait pas de choix incohérents, conduisant par exemple à panacher des actions A et des actions B pour obtenir un couple revenu/risque moins bon à coût égal que ce qu'auraient procuré par exemple des actions C. Le modèle fait la double hypothèse que :

  • les marchés sont efficients. C'est l'hypothèse d'efficience du marché selon laquelle les prix et rendements des actifs sont censés refléter, de façon objective, toutes les informations disponibles concernant ces actifs.
  • les investisseurs sont averses au risque (montré par Daniel Bernoulli) : ils ne seront prêts à prendre plus de risques qu'en échange d'un rendement plus élevé. L'équilibre risque/rendement jugé optimal dépend de la tolérance au risque de chaque investisseur.

Un investisseur peut réduire le risque de son portefeuille en diversifiant ses placements. Cela permet d'obtenir la même espérance de rendement en diminuant la volatilité du portefeuille. Chaque couple possible d'actifs peut être représenté dans un graphique risque/rendement. Pour chaque rendement, il existe un portefeuille qui minimise le risque. Et pour chaque niveau de risque, on peut trouver un portefeuille maximisant le rendement attendu. L'ensemble de ces portefeuilles est appelé frontière efficiente ou frontière de Markowitz.

 

 

Risque spécifique, intrinsèque ou idiosyncrasique

Risque indépendant des phénomènes qui affectent l'ensemble des titres. Il résulte uniquement d'éléments particuliers : c'est la mauvaise gestion de l'entreprise, l'incendie qui détruit son usine ou l'invention technologique qui rend obsolète sa principale gamme de produits...

 

 

Risque de marché ou systématique

Risque de perte qui peut résulter des fluctuations des prix des instruments financiers qui composent un portefeuille. Par extension, c'est le risque des activités économiques directement ou indirectement liées à un tel marché (par exemple un exportateur est soumis aux taux de change, un constructeur automobile au prix de l'acier...) Il est dû à l'évolution de l'ensemble de l'économie, de la fiscalité, des taux d'intérêt, de l'inflation, et aussi du sentiment des investisseurs vis-à-vis des évolutions futures... Pour un actif donné, le risque de cet actif se compose d'un risque intrinsèque et du risque du marché.

 

 

MEDAF (modèle d’évaluation des actifs financiers) ou CAPM (Capital Asset Pricing Model)

On suppose que les marchés financiers sont parfaits au sens des hypothèses de la concurrence. Il n'y a pas d'impôt, pas de barrières à l'entrée et une absence de coût de transaction. L'information est disponible gratuitement pour tous les agents. Le modèle fournit une estimation du taux de rendement attendu par le marché pour un actif financier en fonction de son risque systématique. Le modèle a été introduit par Jack Treynor (1961, 1962), William Sharpe (1964), John Lintner (1965) et Jan Mossin (1966) indépendamment, en poursuivant les travaux initiaux de Harry Markowitz sur la diversification et la théorie moderne du portefeuille. L'hypothèse d'efficience du marché financier, due à Eugène Fama, a notamment servi aux travaux ayant abouti au MEDAF.

 

 

Hypothèse de l’efficience du marché financier (HEM)

L’HEM, due à Eugène Fama, a notamment servi aux travaux ayant abouti au modèle MEDAF ; elle considère que dans un marché suffisamment large où l'information se répand instantanément, comme c'est le cas pour le marché boursier, les opérateurs réagissent correctement et quasi immédiatement aux informations s'ils ont la capacité cognitive de les interpréter avec justesse. En conséquence, les cours équivaudraient toujours au juste prix et évolueraient selon une marche aléatoire au gré des surprises qu'apportent les nouvelles informations. Selon R. Brealey, M. Myers et F.Allen, l'hypothèse d'efficience implique sur la gestion financière que :

  • Il ne faut pas compter sur la mémoire des marchés.
  • Il faut se fier au prix de marché.
  • Il faut toujours chercher à décoder le cours d'un titre au niveau économique.
  • Il faut ignorer l'illusion financière et ne s'intéresser qu'aux flux de trésorerie.
  • Il est préférable d'arbitrer soi-même son portefeuille.
  • Les titres sont substituables pour un même niveau de risque.

Cette théorie est écornée par les recherches en finance comportementale qui ont montré que des erreurs cognitives et émotionnelles collectives faussent la formation des prix. Il est ainsi de plus en plus admis qu'on doit plutôt parler d'un certain degré d'efficience pour les marchés. Ainsi, la constatation de l'occurrence à certains moments de krachs et de bulles découle de cette analyse par la finance comportementale. Selon E. Peters, plus il y a de bruits sur le marché, moins il est efficient. Le marché peut donc être dirigé par des sous-systèmes complexes qui réagissent en interdépendance. Le hasard peut n'être qu'apparent et le marché peut avoir une mémoire. Les personnes informées peuvent battre le marché pendant les périodes de chaos. Selon J. Senanedsch, l'hypothèse d'efficience des marchés est contraire à l'utilisation profitable de l'analyse technique. Celle-ci constitue à ce titre un test d'efficience de forme faible très performant.

Le mathématicien Benoît Mandelbrot à travers ses travaux sur le sujet (notamment son étude historique sur le cours du marché du coton sur plus d'un siècle) remet en question la validité de la théorie de Harry Markowitz et de son corollaire le MEDAF, développé par William F. Sharpe. Il considère que ces théories issue de l’École de Chicago, comme totalement déconnectées de la réalité des marchés financiers. Elles ont été maintes fois remises en cause lors, notamment, des différents krachs boursiers qu'elles ont été incapables de prévoir. Elles ont conduit à des politiques de gestion des risques pouvant être qualifiées d'irresponsables de la part des institutions financières. Le problème fondamental provient du fait que ces théories sont fondées sur la distribution normale (loi de Gauss), qui sous-estiment très fortement les événements improbables comme les crises ou les krachs alors qu'ils sont beaucoup moins rares que cette loi ne le prévoit. Selon Nassim Nicholas Taleb, philosophe du hasard et de l'incertitude et ancien trader, cette théorie et son corollaire sont mathématiquement cohérents, très faciles à utiliser mais reposent sur des hypothèses qui simplifient à outrance la réalité au point de s'en éloigner complètement, un peu comme "le fou selon Locke", "qui raisonne correctement à partir de suppositions erronées" (le Cygne Noir de Nassim Nicholas Taleb). Taleb considère l'utilisation de la loi normale en finance à travers la théorie du portefeuille comme une "Grande Escroquerie Intellectuelle", qui continue à être enseignée chaque année à des centaines de milliers d'élèves dans les écoles de management et les universités du monde entier et à être utilisée par les praticiens de la finance. Selon Taleb, les prévisions fondées sur cette théorie n'ont aucune validité et peuvent souvent se révéler néfastes : les exemples sont légions (crise des subprimes, faillite de LTCM, Lehman Brothers, etc.). Taleb considère qu'il est préférable d'utiliser la loi de puissance ou la loi de Pareto pour appréhender le hasard.

 

______________________________________________________________________________________________________

Actualisation

La valeur temps de l'argent est un des principes fondamentaux de la finance : « un euro aujourd'hui ne vaut pas un euro demain ». Un euro aujourd'hui peut être placé à un certain taux d'intérêt, et il deviendra donc plus qu'un euro demain.

  • Si cet euro est placé à intérêt simple, il accumulera le même intérêt à chaque période. Par exemple, 1 euro placé à un intérêt simple de 5% annuel générera 5 centimes d'intérêt dans un an, 5 centimes dans 2 ans, etc.
  • Si cet euro est placé à intérêt composé, les intérêts vont eux-mêmes générer des intérêts futurs. C'est le principe de la capitalisation. Dans notre exemple, 1 euro placé à un intérêt composé de 5% annuel générera 5 centimes d'intérêt dans un an, puis ce total (1,05 euro) générera un intérêt de 5,25 centimes l'année suivante, et ce total (1 + 0,05 + 0,0525) générera un intérêt de 5,51 centimes l'année suivante, etc.

L'actualisation (exprimer des euros futurs en euros actuels) est l'inverse de la capitalisation (exprimer des euros actuels en euros futurs). Actualiser, c’est rapporter au présent des dépenses qui s’étalent dans le temps et capitaliser, c’est placer ou prêter de l’argent en vue de récupérer, de produire des intérêts. En pratique, l'actualisation est fondée sur deux principes fondamentaux :

  • La préférence pour la jouissance immédiate (taux sans risque) ;
  • L'aversion au risque (prime de risque).

Le premier principe est souvent confondu dans ce que l'on nomme le « coût du temps » par opposition au deuxième principe correspondant au « coût du risque ». En finance, le coût du temps est matérialisé par la courbe des taux dits "sans risque" qui couvre le coût du temps (en général on prend comme référence les taux d’intérêts du marché des emprunts d‘états solvables). En effet un euro aujourd'hui peut être investi et rapporter, sans risque, plus d'un euro demain. Le coût du risque, quant à lui, reflète le fait qu'un euro certain vaut plus qu'un euro espéré mais incertain. En finance, le coût du risque est matérialisé par la prime de risque qui couvre les incertitudes liées aux anticipations de revenus futurs, ou plus précisément le prix de l'aversion à ces incertitudes (aversion au risque). En pratique, l'actualisation est utilisée pour mesurer la pertinence du choix d'un investissement : mesurer la valeur d'un actif quel qu'il soit : combien vaut-il aujourd'hui compte tenu de ce que j'estime qu'il va me rapporter et me coûter dans le futur ? On peut ensuite en déduire la rentabilité, réinvestir (et avec quelle formule : achat ? Crédit-bail ? ...), se désendetter, conserver ses liquidités, etc. Un investissement est rentable si sa valeur actualisée est supérieure à sa valeur d'achat, le ratio entre les deux mesurant la rentabilité de l'investissement. Il existe des situations où les flux futurs sont parfaitement connus d'avance : obligations à taux fixe, intérêts d'emprunt à taux fixe. Dans les autres cas, les flux futurs sont par définition hypothétiques. Les techniques d'évaluation des flux futurs sont complexes et dépendent de la nature de l'investissement. Par exemple,

  • pour une machine industrielle, on évaluera sa capacité de production que l'on transformera en valeur marchande ;
  • pour estimer la valeur d'une entreprise ou de son action, on anticipera les résultats futurs, en fonction de ses compétences commerciales, technologiques et de critères financiers (structure du bilan, contrats en cours, endettement, trésorerie disponible, etc.)

Le choix du taux d'actualisation est une variable clé de la valorisation par actualisation et peut changer fortement le résultat. Le taux généralement choisi reflète le coût du capital, il prendra donc le taux d'intérêt du marché pour une durée comparable, ou éventuellement du taux d'inflation anticipé, éventuellement augmenté d'une prime de risque. Dans le cas d'actualisation de valeurs financières, on prend pour référence le taux du marché

  • celui du marché monétaire pour les durées courtes,
  • et celui des bons ou obligations du Trésor public pour les durées plus longues.

 

______________________________________________________________________________________________________

Probabilités

Les probabilités sont nées du désir de prévoir l'imprévisible ou de quantifier l'incertain. Mais elles ne permettent pas de prédire le résultat d'une unique expérience. Les probabilités n'ont de sens qu'avec l'observation de la loi des grands nombres : si on renouvelle une expérience un grand nombre de fois, la fréquence d'apparition d'un évènement est proche de sa probabilité d'apparition. Si on lance un dé 10 000 fois, la fréquence d'apparition du n°6 sera très voisine de 1/6. L'étude des probabilités s'est alors révélée un outil très puissant pour les organisateurs de jeux, depuis le chevalier de Méré, en passant par le philosophe Blaise Pascal et pour finir chez les mathématiciens de la Française des jeux. Qu'importe pour eux que ce soit M. Dupont ou M. Dupuis qui gagne le gros lot, leur étude porte sur le grand nombre de joueurs, quelles sont les sommes misées, quelles sont les sommes gagnées. Le calcul des probabilités s'est aussi révélé un outil indispensable dans l'étude et la couverture des risques et est à la base de tous nos systèmes d'assurance. Enfin, le siècle dernier a vu l'apparition d'une approche probabiliste dans le domaine de l'atome. Il a été difficile de donner une définition de la théorie des probabilités. Dans son cours vers 1893, Henri Poincaré s'exprime ainsi : « On ne peut guère donner de définition satisfaisante de la Probabilité. Cependant, il est toujours fait mention de l'étude de notions comme le hasard, l'aléa, la chance ou encore le caractère probable d'un évènement. Une définition peut être donnée : la théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques. Bien que le calcul de probabilités sur des questions liées au hasard existent depuis longtemps, la formalisation mathématique n'est que récente. Elle date du début du XXe siècle avec l'axiomatique de Kolmogorov. Les géomètres ont été parmi les premiers scientifiques à utiliser le calcul des probabilités. La théorie des probabilités est dite discrète lorsque l'ensemble W de l'espace probabilisé est fini ou dénombrable. Le plus simple exemple est le jeu de pile ou face, dans ce cas l'univers W ne contient que deux éléments : pile et face. Les études d'un lancer de dé, d'un tirage d'une carte dans un jeu de cartes ou par exemple du loto font également parties de la théorie des probabilités discrète. La théorie des probabilités est dite continue lorsque l'univers W n'est plus dénombrable mais quelconque, possiblement non topologique. C'est-à-dire lorsque la théorie des probabilité n'est plus discrète.

Lors d'une expérience aléatoire, c'est-à-dire soumise au hasard, on commence par faire l'inventaire de tous les résultats possibles. L'ensemble de tous les résultats possibles sera appelé l' univers O des possibles. Chaque résultat possible sera appelé une éventualité ?. Exemple 1 : On lance une pièce. L'univers des possibles est O={P ou F}.(P pour Pile, F pour face). Un ensemble de résultats possibles définit un évènement. C'est un sous-ensemble de l'univers O. Il peut être décrit en extension (dans le cas d'un ensemble fini) ou par une description. Exemple 1: On lance un dé. L'univers est O = {1 ; 2 ; 3 ; 4 ; 5 ; 6}. La partie A = {1 ; 2 ; 3} est un évènement décrit en extension. Cet évènement se décrit par la phrase « on obtient au plus 3 en lançant le dé ». Tout lancer de dé donnant comme résultat 1, 2 ou 3 réalise l'évènement A. L'univers O est appelé évènement certain. Dans un lancer de dé, l'évènement « obtenir un numéro compris entre 1 et 6 » correspond à l'évènement {1 ; 2 ; 3 ; 4 ; 5 ; 6}, c'est-à-dire à l'évènement certain. L''évènement « obtenir plus de 7 » correspond à l'évènement impossible. Un évènement qui ne comporte qu'un seul élément ou éventualité est appelé événement élémentaire.

  • L'union : l'évènement A È B est réalisé dès que A ou B est réalisé.
  • L'intersection: l'évènement A Ç B est réalisé dès que A et B sont réalisés dans la même expérience.
  • Le contraire: l'évènement contraire de A, noté A- contient tous les éléments de O qui ne sont pas dans A.

 

 

Axiomes des probabilités ou axiomes de Kolmogorov

Pour pleinement appartenir aux mathématiques, la théorie des probabilités a eu besoin d'une axiomatique. Plusieurs constructions sont proposées au début du XXe siècle comme la théorie des collectifs de Richard von Mises ou l'axiomatique de Andreï Kolmogorov. Cette dernière étant la plus pratique a été adoptée définitivement par les scientifiques à partir de 1950. Elle a permis de pouvoir étudier le calcul des probabilités au-delà des probabilités finies, dites théorie discrète des probabilités. Dans cette axiomatique, la théorie des probabilités est basée sur un espace probabilisé. Un événement étant une proposition, nous devons pouvoir dire, pour tout résultat de l'univers, si l'événement se réalise ou non. Une mesure de probabilité P est toujours définie sur un espace probabilisable (W , A) c'est-à-dire sur un couple constitué d'un ensemble d'éventualités, l'univers W , et d'une tribu A de parties de l'univers W . Une mesure de probabilité doit satisfaire les axiomes de Kolmogorov.

  • Premier axiome, pour tout évènement A, 0 £ P(A) £ 1. C'est-à-dire que la probabilité d'un évènement est représentée par un nombre réel compris entre 0 et 1.
  • Deuxième axiome, W désignant l'univers associé à l'expérience aléatoire considérée, P(W )=1. C'est-à-dire que la probabilité de l'évènement certain, ou d'obtenir un quelconque résultat de l'univers, est égale à 1. Autrement dit, la probabilité de réaliser l'un ou l'autre des évènements élémentaires est égale à 1.
  • Troisième axiome, toute suite d'évènements deux à deux disjoints (ou deux à deux incompatibles), A1, A2, …satisfait : C'est-à-dire que la probabilité d'un évènement qui est la réunion (dénombrable) disjointe d'évènements est égale à la somme des probabilités de ces évènements. Ceci s'appelle l’additivité dénombrable (si les évènements ne sont pas deux à deux disjoints, cette relation n'est plus vraie).

 

 

Indépendance

Notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. La notion d'indépendance est une hypothèse utilisée depuis longtemps en théorie des probabilités. Plusieurs lancers de dés successifs sont considérés indépendants. Dans ce cas l'hypothèse est raisonnable, cependant d'autres situations d'indépendance peuvent paraître indépendantes alors qu'elles ne le sont pas. C'est le cas par exemple du problème de Monty Hall. L'indépendance n'est pas toujours intuitive et demande alors d'être étudiée. L'indépendance peut se définir sur les ensembles, deux évènements A et B sont dits indépendants si la probabilité que A apparaissent ne dépend pas de la connaissance de l'obtention de B. Mathématiquement, les évènements sont indépendants si et seulement si la probabilité de leur intersection est égale au produit de leur probabilité : A et B sont indépendants soit P(A)P(B)=P(AÇ B)

 

 

Problème de Monty Hall

Casse-tête probabiliste inspiré du jeu télévisé américain Let's Make a Deal. Il est simple dans son énoncé mais non intuitif dans sa résolution et c'est pourquoi on parle parfois de paradoxe de Monty Hall. Il porte le nom de celui qui a présenté ce jeu aux États-Unis pendant treize ans, Monty Hall. Le jeu oppose un présentateur à un candidat (le joueur) placé devant trois portes fermées. Derrière l'une d'elles se trouve une voiture (ou tout autre prix magnifique) et derrière chacune des deux autres se trouve une chèvre (ou tout autre prix sans importance). Il doit tout d'abord désigner une porte. Puis le présentateur ouvre une porte qui n'est ni celle choisie par le candidat, ni celle cachant la voiture (le présentateur sait quelle est la bonne porte dès le début). Le candidat a alors le droit ou bien d'ouvrir la porte qu'il a choisie initialement, ou bien d'ouvrir la troisième porte. Les questions qui se posent au candidat sont :

  • Que doit-il faire ?
  • Quelles sont ses chances de gagner la voiture en agissant au mieux ?

Lorsque le candidat choisi une porte, il y a 1 chance sur 3 que ce soit celle de la voiture, et 2 chances sur 3 qu'il y ait une chèvre derrière. Ces probabilités ne changeront jamais pendant toute la durée du jeu. Lorsque le présentateur fait sortir une chèvre, la probabilité d'avoir une chèvre derrière la porte choisie est toujours de 2/3, et donc la probabilité que la voiture soit derrière la porte restante est également de 2/3. D'où l'intérêt pour le candidat de choisir la porte restante et de changer son choix. Les valeurs théoriques données par les lois des probabilités sont donc :

  • 1/3 de chances de gagner la voiture sans changer son choix initial, soit environ 33,3 %.
  • 2/3 de chances de gagner la voiture en changeant son choix initial, soit environ 66,7 %.

 

 

Loi de probabilité

Une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard qui ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou dénombrable. Et certaines sont des phénomènes continus qui fait apparaître des lois à support infini non dénombrable ; par exemple, lorsque le nombre de tirages de pile ou face effectués tend vers l'infini. Une loi de probabilité décrit de manière théorique le caractère aléatoire d'une expérience considérée comme aléatoire. La notion d'« expérience aléatoire » désigne un processus réel de nature expérimentale, où le hasard intervient, avec des issues possibles bien identifiées. Par exemple, lors d'un lancer de dé (c'est l'évènement aléatoire), le résultat est un chiffre de 1 à 6 et il est généralement admis que chaque résultat a la même chance d'apparaître, la loi de probabilité est donc : chacun des 6 chiffres est équiprobable avec probabilité 1/6. Donner la loi de probabilité revient à donner la liste des valeurs possibles avec leurs probabilités associées. Elle est alors donnée sous forme de formule, de tableau de valeurs, d'arbre de probabilité ou de fonctions. Une loi de probabilité est dite multidimensionnelle, ou n-dimensionnelle, lorsque la loi décrit plusieurs valeurs (aléatoires) d'un phénomène aléatoire. Par exemple lors du jet de deux dés, la loi de probabilité des deux résultats obtenus est une loi bidimensionnelle. Le caractère multidimensionnel apparaît ainsi lors du transfert, par une variable aléatoire, de l'espace probabilisé (W , A) vers un espace numérique E de dimension n.

Diagramme représentant les résultats du lancer de deux dés et les probabilités des sommes possibles.

 

 

Variable aléatoire

L'espace probabilisé (W , A, P) est un espace abstrait. Lorsque les résultats possibles de l'expérience aléatoire ne sont pas des nombres, c'est le cas des résultats pile et face dans un lancer de pièce, il est utile de pouvoir associé une valeur numérique à chaque résultat. Une variable aléatoire remplit ce rôle.

 

 

Probabilité conditionnelle

Notion qui permet de tenir compte dans une prévision d'une information complémentaire. Par exemple, si je tire au hasard une carte d'un jeu, j'estime naturellement à une chance sur quatre la probabilité d'obtenir un cœur ; mais si j'aperçois un reflet rouge sur la table, je corrige mon estimation à une chance sur deux. Cette seconde estimation correspond à la probabilité d'obtenir un cœur sachant que la carte est rouge. Elle est conditionnée par la couleur de la carte donc, conditionnelle.

 

 

Théorème de Bayes

Résultat de base en théorie des probabilités, issu des travaux du révérend Thomas Bayes. Dans son unique article, Bayes cherchait à déterminer ce que l’on appelle actuellement la distribution a posteriori de la probabilité P d’une loi binomiale. Ses travaux ont été publiés à titre posthume (1763) par son ami Richard Price dans Un essai pour résoudre un problème dans la théorie des risques (An Essay towards solving a Problem in the Doctrine of Chances). Les résultats de Bayes ont été redécouverts et étendus par le mathématicien français Laplace dans un essai de 1774. Le théorème de Bayes est utilisé dans l’inférence statistique pour actualiser les estimations d’une probabilité ou d’un paramètre quelconque, à partir des observations et des lois de probabilité de ces observations. Il y a une version discrète et une version continue du théorème.

  • L’école bayésienne utilise les probabilités comme moyen de traduire numériquement un degré de connaissance (la théorie des probabilités n’oblige en effet nullement à associer celles-ci à des fréquences, qui n’en représentent qu’une application particulière résultant de la loi des grands nombres). Dans cette optique, le théorème de Bayes peut s’appliquer à toute proposition, quelle que soit la nature des variables et indépendamment de toute considération ontologique.
  • L’école fréquentiste utilise les propriétés de long terme de la loi des observations et ne considère pas de loi sur les paramètres, inconnus mais fixés.

 

 

Inférence bayésienne

Démarche logique permettant de calculer ou réviser la probabilité d'un événement. Cette démarche est régie par le théorème de Bayes où une probabilité est interprétée comme la simple traduction numérique d'un état de connaissance (le degré de confiance accordé à une hypothèse, par exemple ; voir théorème de Cox-Jaynes). L'inférence bayésienne est fondée sur la manipulation d'énoncés probabilistes clairs et concis afin d'éviter toute confusion. L'inférence bayésienne est particulièrement utile dans les problèmes d'induction. Les méthodes bayésiennes se distinguent des méthodes dites standards. Exemple, imaginons deux boîtes de biscuits.

  • L'une, A, comporte 30 biscuits au chocolat et 10 ordinaires.
  • L'autre, B, en comporte 20 de chaque sorte.

On choisit les yeux fermés une boîte au hasard, puis dans cette boîte un biscuit au hasard. Il se trouve être au chocolat. De quelle boîte a-t-il le plus de chances d'être issu, et avec quelle probabilité ? Intuitivement, on se doute que la boîte A a plus de chances d'être la bonne, mais de combien ?

 

 

Théorème de Cox-Jaynes

Il induit une interprétation logique des probabilités de l’école bayésienne et fournit une base rationnelle au mécanisme d'induction logique, et donc de l'apprentissage par des machines. Il s'agit donc d'un résultat fort. Les résultats de Cox n'avaient touché qu'une audience réduite avant qu'Edwin Thompson Jaynes ne redécouvre ce théorème et n'en défriche une série d'implications pour les méthodes bayésiennes, et Irving John Good pour l'intelligence artificielle. Dans le chapitre « La science est-elle superstitieuse ? » de son ouvrage Science et religion, Bertrand Russell énonce le problème :

  • Au nom de quoi affirmer, même de façon temporaire, que ce qui a été vérifié dans un nombre limité de cas se vérifiera aussi dans les cas qui n'ont pas été testés ?
  • Au nom de quoi supposer, même sur ce qui a été mesuré, que ce qui a été vrai hier le sera demain ?

Les règles de plausibilité sont représentées par des nombres réels. Ce qui nous paraît évident ne doit pas être contredit. Exemple : si A est préférable à B, et B préférable à C alors, A doit être préféré à C. Les divergences entre approches fréquentistes et bayésiennes ont suscité beaucoup de passions dans les années 70, où elles prenaient alors presque l'aspect d'une "guerre de religion". Leur coexistence "pacifique" est aujourd'hui admise et les deux approches convergeant lorsqu'on passe aux grands nombres d'observations (les méthodes fréquentistes (statistiques) ne concernant pas ce domaine des petits nombres.

 

 

Induction logique

Raisonnement qui cherche des lois générales à partir de l'observation de faits particuliers, sur une base probabiliste. En raisonnement automatisé, l'abduction est un mode de raisonnement qui vise à émettre une hypothèse pour expliquer un fait et elle ne doit pas être confondue avec l'induction. L'idée de départ était que la répétition d'un phénomène augmente la probabilité de le voir se reproduire. C'est par exemple la façon dont réagit le cerveau chez le chien de Pavlov. L'accumulation de faits concordants et l'absence de contre-exemples permet, ensuite, d'augmenter le niveau de plausibilité de la loi jusqu'au moment où on choisit par souci de simplification de la considérer comme une quasi-certitude. Cependant, on n'atteint jamais la certitude ; tout contre-exemple approprié peut remettre cette loi en cause. Ensuite, des théorèmes comme celui de Cox ont donné à cette démarche inductive d'abord empirique une base mathématique ferme ; ils ont permis de calculer les probabilités concernées. L'induction, contrairement à la déduction, est un raisonnement logiquement "inexact", qui est appuyé par sa "vérification" répétée, mais qui peut toujours être démenti par un contre-exemple. Il est cependant universellement utilisé pour deux raisons :

  • À l'exclusion de la logique et des mathématiques qui consistent explicitement à poser des axiomes sur la base desquels elles raisonnent par la déduction, toutes les autres sciences tentent de décrire la réalité et ne peuvent le faire, semble t-il, qu'exclusivement sur la base de la "vérification" par l'observation, ce qui les oblige à faire appel à l'induction et leur interdit souvent toute possibilité d'utiliser la déduction pure.
  • Tous les systèmes vivants semblent fonctionner sur la base de l'induction. L'apprentissage par le cerveau, se basant sur sa confrontation avec la réalité, est essentiellement inductif, et, par extension, en intelligence artificielle, les systèmes d'apprentissage à réseau de neurones se différencient des systèmes algorithmiques déductifs. La sélection naturelle, elle-même, en éliminant les "moins adaptés" par la confrontation de l'espèce avec les difficultés de l'existence dans un milieu donné, est aussi un phénomène inductif.

Il faut remarquer que l'induction est une probabilité conditionnelle et elle restera toujours soumise aux choix des conditions de son évaluation, sachant qu'il peut y avoir des conditions auxquelles on n'a pas pensé et qui changeraient, s'ils étaient pris en compte, complètement les données du problème. De plus, le niveau de certitude de ma loi dépendra du coefficient avec lequel j'accepte qu'elle ne soit pas tout à fait universelle et admette des exceptions. Le processus d'induction a été formalisé par le Théorème de Cox-Jaynes qui confirme la rationalité de la méthode pour la mise à jour des connaissances, la quantifie, et "unifie" l'univers de la logique booléenne avec celui des probabilités (vues comme une traduction numérique d'un état de connaissance dans ce paradigme).

Le concept de chat ne désigne pas tel ou tel chat précis mais bien l'ensemble des propriétés qui font qu'un chat est un chat et non une souris.

 

 

Loi de probabilité binominale

Loi de probabilité discrète qui correspond à l'expérience suivante : On renouvelle n fois de manière indépendante une épreuve de Bernoulli (expérience aléatoire à deux issues possibles dénommées respectivement « succès » et « échec »). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire indiquant ce nombre de succès. L'univers X (W ) désigne l'ensemble des entiers naturels de 0 à n. Une épreuve de Bernoulli conduit à la création de l'univers O = {S ; E}, (S pour Succès et E pour Echec). Du fait de son interprétation comme loi du nombre de succès lors d'une série de n épreuves de Bernoulli indépendantes et identiques, la loi binomiale est en particulier la loi de la somme de n variables aléatoires indépendantes suivant toutes la même loi de Bernoulli de paramètre p, prenant la valeur 1 en cas de succès (probabilité p) et 0 en cas d'échec (probabilité q = 1- p). Exemples :

  • l'étude des sondages
  • la fonction de répartition empirique

 

 

Loi de probabilité de poisson

Loi de probabilité discrète qui décrit le comportement du nombre d'évènements se produisant dans un laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l'évènement précédent. La loi de Poisson est également pertinente pour décrire le nombre d'évènements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes. La loi de Poisson a été introduite en 1838 par Siméon Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile. Par exemple, si un certain type d'évènements se produit en moyenne 4 fois par minute, pour étudier le nombre d'évènements se produisant dans un laps de temps de 10 minutes, on choisit comme modèle une loi de Poisson de paramètre ? = 10× 4 = 40.

 

 

Loi uniforme continue

La loi uniforme sur un intervalle indique, intuitivement, que toutes les valeurs de l'intervalle ont les mêmes chances d'apparaître.

 

 

Loi exponentielle

Loi utilisée pour modéliser le temps de vie d'un phénomène puisque c'est l'unique loi absolument continue possédant la propriété de perte de mémoire. Cette loi permet entre autres de modéliser la durée de vie de la radioactivité ou d'un composant électronique. Elle peut aussi être utilisée pour décrire par exemple le temps écoulé entre deux coups de téléphone reçus au bureau, ou le temps écoulé entre deux accidents de voiture dans lequel un individu donné est impliqué.

 

 

Loi normale ou loi gaussienne ou loi de Laplace

Loi centrale en théorie des probabilités et en statistique. Elle décrit le comportement des séries d'expériences aléatoires lorsque le nombres d'essais est très grand. La loi normale est caractérisée par sa moyenne (qui est également sa médiane) et par son écart-type, son support est la droite réelle. Sa densité est symétrique et sa forme est communément appelée courbe de Gauss ou courbe en cloche.

Lancement de dé n=nombre de dés

 

 

Processus stochastique

Étude des phénomènes aléatoires dépendant du temps. À ce titre, c'est une extension de la théorie des probabilités. Le calcul classique des probabilités concerne des épreuves où chaque résultat possible (ou réalisation) est mesuré par un nombre, ce qui conduit à la notion de variable aléatoire. Un processus stochastique ou processus aléatoire ou fonction aléatoire représente une évolution d'une variable aléatoire. On distingue les processus en temps discret et en temps continu, à valeurs discrètes et à valeurs continues. Si l'ensemble T est dénombrable on parle de processus discret ou de série temporelle, si l'ensemble est indénombrable on parle de processus continu. Il existe une différence entre les processus à valeurs continues et les processus de comptage à valeurs discrètes. Les seconds remplacent par des sommes algébriques les intégrales utilisées par les premiers.

 

 

Processus de Markov

Processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus. Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une probabilité stationnaire. Les processus de Markov portent le nom de leur découvreur, Andreï Markov.

 

 

Mouvement brownien ou processus de Wiener

Description mathématique du mouvement aléatoire d'une grosse particule immergée dans un fluide et qui n'est soumise à aucune autre interaction que des chocs avec les petites molécules du fluide environnant. Il en résulte un mouvement très irrégulier, qui a été décrit pour la première fois en 1827 par le botaniste Robert Brown en observant des mouvements de particules à l'intérieur de grains de pollen de Clarkia pulchella, puis de diverses autres plantes. La description physique la plus élémentaire du phénomène est la suivante :

  • entre deux chocs, la grosse particule se déplace en ligne droite avec une vitesse constante ;
  • la grosse particule est accélérée lorsqu'elle rencontre un fluide ou une paroi.

Ce mouvement permet de décrire avec succès le comportement thermodynamique des gaz (théorie cinétique des gaz), ainsi que le phénomène de diffusion. Il est aussi très utilisé dans des modèles de mathématiques financières. Le philosophe et poète latin Lucrèce (60 av. JC) donne une remarquable description du mouvement des particules selon les principes d'Epicure dans son œuvre De la nature : « Puisque les atomes errent dans le vide, il faut qu'ils soient tous emportés, soit par leur pesanteur propre, soit par le choc d'un autre corps. Car s'il leur arrive dans leur agitation de se rencontrer avec choc, aussitôt ils rebondissent en sens opposés: ce qui n'a rien d'étonnant puisqu'ils sont corps très durs, pesants, denses, et que rien derrière eux ne les arrête. Et pour mieux comprendre comment s'agitent sans fin tous les éléments de la matière, souviens-toi qu'il n'y a dans l'univers entier aucun fond ni aucun lieu où puissent s'arrêter les atomes, puisque l'espace sans limite ni mesure est infini en tous sens. » En 1827, le naturaliste écossais Robert Brown aperçut dans le fluide situé à l’intérieur des grains de pollen de la Clarkia pulchella, de très petites particules agitées de mouvements apparemment chaotiques et non pas les grains de pollen eux-mêmes comme souvent mentionné. Brown n'est pas le premier à avoir fait cette observation. Il signale lui-même que plusieurs auteurs avaient suggéré l’existence d’un tel mouvement (en lien avec les théories vitalistes de l'époque). Parmi ceux-ci, l’abbé John Turberville Needham (1713-1781), célèbre à son époque pour sa grande maîtrise du microscope, qui attribua ce mouvement à une activité vitale. La réalité des observations de Brown a été discutée tout au long du XXe siècle. Compte tenu de la médiocre qualité de l'optique dont il disposait, certains ont contesté qu'il ait pu voir le mouvement brownien, qui intéresse des particules de quelques micromètres. Les expériences ont été refaites par l’Anglais Brian Ford au début des années 1990, avec le matériel employé par Brown et dans les conditions les plus semblables possibles. Le mouvement a bien été observé dans ces conditions, ce qui valide les observations de Brown. En 1901, Louis Bachelier propose un premier modèle mathématique du mouvement brownien et l'applique à la finance. En 1905, Albert Einstein donne une description quantitative du mouvement brownien et indique que des mesures permettent d'en déduire leur dimension moléculaire. Jean Perrin réalise ce programme et publie en 1909 une valeur du nombre d'Avogadro, ce qui lui vaut un prix Nobel en 1926. Dans cette même période, le physicien français Paul Langevin développe une théorie du mouvement brownien suivant sa propre approche (1908).

 

______________________________________________________________________________________________________

Statistique

La statistique est d'un point de vue théorique une science, une méthode et une technique. Elle comprend : la collecte des données, le traitement de ces données, l'interprétation des données, la présentation afin de rendre les données compréhensibles par tous. Ainsi la statistique est un domaine des mathématiques qui possède une composante théorique ainsi qu'une composante appliquée. La composante théorique est proche de la théorie des probabilités et forme avec cette dernière, les sciences de l'aléatoire. La statistique appliquée est utilisée dans presque tous les domaines de l'activité humaine. La statistique possède des règles et des méthodes sur la collecte des données, pour que celles-ci puissent être correctement interprétées. John Tukey prétend qu'il y a deux approches en statistiques, entre lesquelles on jongle constamment : les statistiques exploratoires et les statistiques confirmatoires (exploratory and confirmatory statistics) :

  • on explore d'abord les données pour avoir une idée qualitative de leurs propriétés ;
  • puis on fait des hypothèses de comportement que l'on confirme ou infirme en recourant à d'autres techniques statistiques

L'objectif de la statistique est de décrire, c'est-à-dire de résumer ou représenter (histogramme ou diagramme circulaire), les données disponibles quand elles sont nombreuses. La moyenne arithmétique est la somme des valeurs de la variable divisée par le nombre d'individus. La médiane est la valeur centrale qui partage l'échantillon en 2 groupes de même effectif : 50 % au-dessus et 50 % en dessous. La médiane peut avoir une valeur différente de la moyenne. En France, le salaire médian est inférieur au salaire moyen : il y a beaucoup de smicards et peu de gros salaires. Cependant, les gros salaires tirent la moyenne vers le haut. exemple : 1 3 5 6 7 9 la médiane est (5+6)/2=5,5. Le mode correspond à la réalisation la plus fréquente. Le mode d'une série, ou dominante d'une distribution, est la valeur de la variable (ou de l’unité statistique) qui revient le plus fréquemment dans la série. C'est la valeur centrale de la classe qui a le plus grand effectif. L’étendue est l'intervalle entre la plus petite et la plus grande valeur. On dit d'un phénomène qu'il présente une forte dynamique lorsque l'étendue (ou la dispersion) est grande. La variance S2 permet de combiner toutes les valeurs à l’intérieur d’un ensemble de données afin d’obtenir la mesure de la dispersion. L’écart-type, racine carré de S, est la mesure de dispersion la plus couramment utilisée.

 

______________________________________________________________________________________________________

Dérivée ou calcul différentiel

Notion fondamentale en analyse technique. Elle permet d'étudier les variations d'une fonction, de construire des tangentes à une courbe et de résoudre des problèmes d'optimisation. En sciences, lorsqu'une grandeur est fonction du temps, la dérivée de cette grandeur donne la vitesse instantanée de variation de cette grandeur, et la dérivée de la dérivée donne l'accélération. Par exemple, la vitesse instantanée d'un mobile est la valeur à cet instant de la dérivée de sa position par rapport au temps, et son accélération est la valeur à cet instant de la dérivée par rapport au temps, de sa vitesse. Pour approcher cette notion de manière intuitive, commençons par nous donner une courbe représentative d'une fonction continue dans un repère cartésien, c'est-à-dire tracée d'un seul trait de crayon, et bien lisse ; on dira là que la fonction associée est dérivable.

Quel que soit le point que l'on choisit sur la courbe, on pourra alors tracer ce qu'on appelle une tangente. Ainsi, si le nombre dérivé d'une fonction est positif sur un intervalle, cette fonction sera croissante sur ce même intervalle. Inversement, s'il est négatif, elle sera décroissante. Lorsque le nombre dérivé est nul en un point, la courbe admet une tangente horizontale en ce point.

 

______________________________________________________________________________________________________

 

© 2013 - 2011 Greedno
UA-36419709-1