L'estimateur Maximum de vraisemblance
A l’occasion, il peut être utile de revenir sur des notions que l’on finit par utiliser sans réellement faire attention aux mécaniques impliqués. C’est le cas, notamment des estimateurs. Que ce soit les moindres carrés, des moindres carrés généralisés, ou encore le maximum de vraisemblance, nous les mobilisons parce que l’on sait qu’ils sont adéquates sans bien ce souvenir pourquoi. En tout cas, cela m’arrive. Aussi, je pense qu’il n’est jamais utile de réviser un petit peu les fondamentaux.
Les graphes à doubles ordonnées GT14
Une fois n’est pas coutume, nous aborderons dans ce post un type de graphe qui, à mon avis, ne devrait quasiment jamais être utilisé. En effet, il peut être trompeur en donnant l’illusion que deux séries données sont liées alors qu’elles ne le sont pas. Il s’agit des graphes comprenant deux axes des ordonnées établis dans des unités différentes (les dual axis plots). Nous allons présenter des séries temporelles établies pour la même période mais pour des mesure différentes au sein d’un même graphe.
Les courbes représentant des séries temporelles GT13
Après une pause relativement longue, il est temps de reprendre la série GT (graph type) et à cette occasion de considérer une nouvelle catégorie de graphe. Il s’agira, dans un groupe de post, de traiter des représentations des séries temporelles toujours en nous basant sur les vidéos proposées par Josh Schwabish dans sa playlist One Chart at a time. Ces différents posts auront ainsi comme point commun de présenter différentes manière d’illustrer l’évolution des valeurs d’une ou de plusieurs variables au travers le temps.
Techniques Quantitatives de Gestion : exploitation des données (7)
Pour ce dernier poste de la série, l’idée est d’abordé rapidement les traitements de variables continuent qui s’éloignent d’une loi normale. Nous traiterons rapidement de la transformation logarithmique et la winsorisation. L’exemple pris n’est pas le plus pertinent (deux des trois variables suivent vraisemblablement des lois normales), mais les étudiants ont déjà utilisé ces données. J’en profites pour montrer comment on crée des fonctions permettant d’aller plus vite dans les traitements avec la création d’histogrammes et de tableaux de présentation des résultats de régression.
Travaux dirigés de Mathématiques Financières
Vous trouverez ici à la fois les énoncés des exercices traités lors des séances de travaux dirigés et leurs corrigés. Cliquez sur les différents liens. La liste peut évoluer en fonction de ce qui sera traité au fils du temps.
Énoncés:
Intérêts simples
Intérêts composés
Annuités
Amortissements
Corrigés :
Intérêts simples
Intérêts composés
Annuités
Amortissements
Techniques Quantitatives de Gestion : exploitation des données (6)
Dans ce dernier post de la série, nous allons aborder la question des problèmes d’hétérosdasticité qui peuvent affecter les régressions estimées via les moindres carrés ordinaires (MCO). Il s’agit des cas où le nuages de points représentant les erreurs d’estimation en fonction des valeurs de la variable explicative présente une forme d’hétérosgénéité. Cette forme indique que la variance de l’erreur en fonction de ces valeurs n’est pas homogène. Dans ce cas, les MCO ne sont plus BLUE (Best Linear Unbiased Estimator).
Techniques Quantitatives de Gestion : exploitation des données (5)
Pour ce dernier post de la série consacrée au td de TQG, nous allons nous intéresser à ce qu’on appel l’effet lundi. Il s’agit de la propension qu’ont (qu’avaient?) les marchés actions à présenter des rendements moyens plus faibles les lundi que les autres jours de la semaine (Cross, 19731; French, 19802; Gibbons-Hess, 1981 3; et bien d’autres à la suite…). Le données utilisées sont issues de CRPS, une base qui a la particularité de conserver les titres éteins et donc de permettre d’éviter le biais du survivant (conclusion à tord parce que l’on observe qu’une partie de la réalité d’un phénomène, celle des seuls survivants).
Techniques Quantitatives de Gestion : exploitation des données (4)
Dans ce nouveau post, nous allons continuer à travailler sur la régression. L’objectif est de considérer des tests alternatifs sur les coefficient et d’étendre les modèles de manière à intégrer plusieurs facteurs explicatifs. Cela nous permettra de comprendre les biais créés par l’omission de variables dans les analyses de régression.
Tâche n°1 Reprenez les données sur les actions, estimez le modèle de marché pour chacun d’eux, réalisez un interval de confiance à 95% sur le beta, testez sa valeur par rapport à 1.
Techniques Quantitatives de Gestion : exploitation des données (3)
Après le test de différence de moyennes, nous attaquons dans cette session à la régression linéaire simple. Celle-ci permet d’établir le degré d’association entre une variable expliquée (\(y_i\)) et une variable explicative (\(x_i\)). La relation mesurée est matérialisée par une équation linéaire à un facteur (celle d’une droite). On a ainsi : \(y_i=\alpha+\beta.x_i\). Cette approche se distingue du simple coefficient de corrélation dans la mesure où elle implique notamment un sens à la relation.
Techniques Quantitatives de Gestion: exploitation des données (2)
Dans cette seconde session, l’objectif est de faire réaliser aux étudiants un test statistique classique, interpréter le résultat et de mettre en forme l’ensemble. On prolonge ici ce qui a été fait sur les écoles en Californie et sur la performance des portefeuilles composés par taille précédemment. La procédure utilisée est le test de Student de différence de moyennes. Ce rapide post reprenant sous R le travail à accomplir avec Stata est l’occasion de passer en revue notamment les différents éléments générés par les fonctions de test et de voir comment les mobiliser pour réaliser un tableau de résultat sur mesure