Dans cet article, nous explorerons en profondeur le sujet de Théorie de l'estimation, en analysant ses différentes facettes, son impact sur la société et sa pertinence dans le monde d'aujourd'hui. Théorie de l'estimation est un sujet qui a suscité un grand intérêt ces dernières années, et il est essentiel de le comprendre dans son intégralité pour comprendre son importance dans différents contextes. Tout au long de cet article, nous examinerons différentes perspectives sur Théorie de l'estimation, de son histoire à son influence aujourd'hui. De plus, nous explorerons la manière dont Théorie de l'estimation se rapporte à d'autres thèmes et comment il a évolué au fil du temps. Grâce à une analyse détaillée et complète, nous chercherons à faire la lumière sur ce sujet et à fournir une vision globale de sa signification et de ses effets sur la société moderne.
En statistique, la théorie de l'estimation s'intéresse à l'estimation de paramètres à partir de données empiriques mesurées ayant une composante aléatoire. Les paramètres décrivent un phénomène physique sous-jacent tel que sa valeur affecte la distribution des données mesurées. Un estimateur essaie d'approcher les paramètres inconnus à partir des mesures. En théorie de l'estimation, deux approches sont généralement considérées[1]:
On souhaite estimer la proportion d'une population d'électeurs qui va voter pour un candidat donné dans une élection. Cette proportion est le paramètre recherché ; l'estimation est basé sur un petit échantillon aléatoire de votants. De façon alternative, on veut évaluer la probabilité d'un électeur de voter pour un candidat particulier, en se basant sur des données démographiques, comme son âge.
Avec un radar, on veut trouver la taille des objets (avions, bateaux, etc.) en analysant le temps aller-retour des échos reçus d'ondes pulsées. Comme les ondes réfléchies sont toutes perturbées par un bruit électrique, leurs valeurs mesurées sont aléatoires, et le temps de transit doit être estimé.
De façon générale, les mesures de signaux électriques sont souvent associés à un bruit.
Pour un modèle donné, plusieurs "ingrédients" statistiques sont requis pour implémenter l'estimateur. Le premier est un échantillon statistique – un ensemble de données discrètes dans un vecteur aléatoire de taille N :
on associe un vecteur de M paramètres :
dont on veut estimer les valeurs. Enfin, il faut la densité de probabilité, discrète ou continue, de la loi sous-jacente de probabilité qui ont généré les données, et donc conditionnelle aux valeurs des paramètres :
Il est aussi possible pour les paramètres d'avoir une loi de probabilité (voir statistiques bayésiennes). Il est alors nécessaire de définir la probabilité bayésienne
Après que le modèle est formé, l'objectif est d'estimer les paramètres, dont on note les estimateurs .
Un estimateur classique est l'estimateur des moindres carrés, qui est celui qui minimise l'erreur entre les paramètres estimés et leurs valeurs réelles
Cette erreur est ensuite élevée au carré et la valeur attendue est minimale pour l'estimateur des moindres carrés.
Les estimateurs les plus communément utilisés et étudiés sont :
Dans un signal discret mesuré avec N échantillons indépendants constitués d'une constante A avec un bruit blanc gaussien additif (AWGN) de moyenne nulle et de variance connue (i.e., ). Le vecteur de paramètres à estimer se réduit uniquement à A. Le signal modèle s'écrit :
On a alors deux estimateurs possibles pour A :
Les deux estimateurs ont une espérance de A :
Cependant, en étudiant leurs variances, la différence de qualité entre les deux estimateur apparait :
La moyenne de l'échantillon semble alors un bien meilleur estimateur car sa variance est plus petite dès que N > 1.
Sur le même exemple, on utilise l'estimateur du maximum de vraisemblance, la fonction densité de probabilité du bruit pour un échantillon w est
et la probabilité de x devient (x peut être vu comme suivant une loi normale )
Par indépendance, la probabilité de x devient
On prend le logarithme naturel de l'expression :
dont on tire l'estimateur du maximum de vraisemblance :
En prenant la dérivée de la log-vraisemblance :
qu'on cherche à annuler
La résolution de cette équation donne l'estimateur du maximum de vraisemblance :
qui est ici la moyenne empirique.
Pour trouver la borne inférieure de Cramér–Rao (CRLB) de l'estimateur de la moyenne de l'échantillon, on doit d'abord établir l'information de Fisher :
et en reprenant le même processus que précédemment :
La dérivée seconde donne :
et trouver la valeur attendue négative est trivial car la dérivée est une constante déterministe :
On réinjecte l'information de Fisher dans le calcul :
ce qui donne
En comparant ce résultat à la variance de la moyenne empirique (déterminé auparavant) montre que la moyenne empirique atteint la borne de Cramér–Rao pour toutes valeurs de N et A. Ainsi, la moyenne de l'échantillon est un (et même forcément le seul) estimateur efficace, et est donc l'estimateur sans biais de variance minimale (MVUE), en plus d'être l'estimateur de maximum de vraisemblance.
Un des exemples non triviaux les plus simples d'estimation est celui de l'estimation du maximum d'une distribution uniforme. Il est utilisé classiquement pour illustrer les principes de bases de la théorie de l'estimation, en mettant en lumière des questions d'a priori et des erreurs dans l'utilisation de l'estimation par maximum de vraisemblance et des fonctions de vraisemblance.
Soit une distribution uniforme discrète 1, 2, ..., N de maximum inconnu, alors l'estimateur sans biais à variance minimale du maximum est
où m est le maximum de l'échantillon et k la taille de l'échantillon, sans remplacement[2],[3]. Ce cas est connu sous le nom du problème du char d'assaut allemand, car il fut appliqué à l'estimation du nombre maximal de chars allemands produits pendant la Seconde Guerre Mondiale.
La formule peut être comprise de façon intuitive comme :
la différence étant ajouté pour compenser le biais négatif du maximum de l'échantillon comme estimateur du maximum de la population[N 1]
Il a une variance de[2]
donc un écart-type proche de N/k, la taille moyenne (de la population) de la différence entre échantillons ; on pourra comparer avec mk. On peut voir ce résultat comme un cas simple d'estimation de l'espacement maximum.
Le maximum de l'échantillon est l'estimateur du maximum de vraisemblance du maximum de la population, mais comme vu au-dessus, il est biaisé.
De nombreux domaines utilisent la théorie de l'estimation :
Des mesures sont susceptibles d'être perturbées par un bruit ou une incertitude et c'est grâce à la théorie des probabilités que des solutions optimales sont étudiées afin d'en tirer autant d'information que possible.