Estimateur sans biais - Aide aux devoirs - Emploi & Etudes
Marsh Posté le 06-11-2010 à 21:21:06
Pour moi c'est bon. Si tu as un écart, la distance à o (la moyenne par exemple), est la valeur du biais.
Marsh Posté le 06-11-2010 à 21:23:29
un estimateur est toujours sans biais de son espérance. Si l'espérance vaut ton paramètre, c'est bon.
Marsh Posté le 07-11-2010 à 08:59:32
Salut ,
peux-tu détailler ? (en particulier comment tu arrives à E(ô)=ô ?)
Marsh Posté le 07-11-2010 à 09:10:14
C'est une erreur. Il a surement voulu écrire E(ô)=o
Marsh Posté le 07-11-2010 à 09:47:10
oui mais sa dernière phrase n'a pas de sens
Marsh Posté le 07-11-2010 à 10:46:06
J'ai la fonction
f(x)=(1/(θc^(1/θ))x^((1/θ)-1) pour 0<x<c
f(x)=0 pour x<0 et x>c
Où c>0 est un paramètre connu
Je recherche ensuite la fonction de vraisemblance, dérivée partielle par rapport à θ, j'égalise à 0 et je test ce point critique par la dérivée partielle seconde, ce point donne une dérivée partielle seconde négative.
Je pose Q =l'estimateur car je peut pas faire téta chapeau sur l'ordi
Je trouve Q=ln c -(1/n)Somme(ln xi)
(Maintenant que je me repenche dessus après une nuit de sommeil le résultat me parait "bizarre" )
Je cherche maintenant si cette estimation est sans biais, je fais donc E(Q) et je trouve Q et non pas θ.
En clair est-ce que E(Q)=Q à du sens?
Merci pour vos réponses
Marsh Posté le 07-11-2010 à 11:11:30
dreamer18 a écrit : C'est une erreur. Il a surement voulu écrire E(ô)=o |
Je pensais comme toi aussi
Marsh Posté le 07-11-2010 à 11:25:24
Mais dans ce cas il aurait voulu écrire :
Je trouve que E(ô)=o ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?
(voir sa dernière question !)
Marsh Posté le 07-11-2010 à 11:28:07
Dans mes souvenirs (maintenant on fait tout avec des logiciels ) pour qu'un estimateur soit sans bien tu dois trouver E(A)=A ou bien E(A-estimateur)=0
Marsh Posté le 07-11-2010 à 11:29:13
paulnr a écrit : En clair est-ce que E(Q)=Q à du sens? |
non. Une espérance est un nombre, pas une VA. (mes cours de maths sont loins, je peux dire des bêtises aussi)
Marsh Posté le 07-11-2010 à 11:29:50
Je ne comprends pas ta densité, tu peux la sortir en latex stp
j'ai compris, je regarde
Marsh Posté le 07-11-2010 à 11:34:31
Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ?
Marsh Posté le 07-11-2010 à 11:37:37
dj_shadow89 a écrit : Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ? |
Viens pas foutre ta merde ici, je gère
Spoiler : Ou pas |
Marsh Posté le 07-11-2010 à 11:37:51
non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais).
Un maximum de vraisemblance (max x_i) d'une loi uniforme sur [0; theta] estime theta mais lui est toujours inférieur, et il y a des estimateurs qui ont de meilleurs risques quadratiques que celui du maximum de vraisemblance
Marsh Posté le 07-11-2010 à 11:42:48
djidee a écrit :
|
Apprends d'abord à faire un IC
dreamer18 a écrit : non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais). |
My bad
Marsh Posté le 07-11-2010 à 11:47:03
Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens
Log[L(theta)] = -n * log(theta) - (n/theta) * log(c) + (n * [(1/theta)-1] * [somme (i=1...n) log (x_i)])
Marsh Posté le 07-11-2010 à 11:49:54
dreamer18 a écrit : Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens |
Je viens de refaire le calcul en passant par une log vraisemblance aussi, sauf erreur de calcul et de mauvaise lecture de la densité, je trouve un estimateur de la forme
A = somme (i...n)/n
donc une espérance... Right ?
Marsh Posté le 07-11-2010 à 11:56:48
Tu trouves quoi en log vraisemblance ?
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
Je me retrouve avec la dérivée :
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)
Marsh Posté le 07-11-2010 à 12:06:56
dreamer18 a écrit : Tu trouves quoi en log vraisemblance ? |
Oké, j'avais mal lu la densité ( assez loin les stats finalement )
En reprenant et en simplifiant, j'ai cette dérivée
n/théta ( -1 + (ln(c)-n*somme)/theta )
arrivé là, en cours on avait l'habitude d'étudier les limites
Marsh Posté le 07-11-2010 à 12:46:49
dreamer18 a écrit : Tu trouves quoi en log vraisemblance ? |
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
Or Somme(i=1...n)ln c/xi = nθ
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
On est d'accord jusqu'à là?
Marsh Posté le 07-11-2010 à 13:09:35
paulnr a écrit : |
Marsh Posté le 07-11-2010 à 18:03:21
paulnr a écrit : |
pauln je vois de quel exo tu parles et je pense aussi que je sais aussi dans quelle fac tu es^^.
maintenant si tu veux démontrer que l'emv est san biais il faut déjà résoudre la question 5 de ton exo qui est de trouver la loi Y. sachant que Y=log(c/X), tu constatera que log(c/X) apparait dans ton estimateur. donc tu as E(Q)=(1/n)somme(i=1.....n)Yi ====> E(Q)=(1/n).n.E(Y). si tu avais pu déterminer la loi de Y comme je viens de dire tu aurrais surement vu que Y suis une loi exponentielle de paramètre téta donc E(Y)=téta, en simplifiant l'expréssion que je t'ai donner plus haut tu verras aussi que E(Q)=E(Y)=téta donc ton estimateur est sans biais. je te laisses faire de même pour la variance afin de prouver que ton estimateur est convergent et éfficace.
j'espère t'avoir aider
traderX
Marsh Posté le 07-11-2010 à 21:36:51
bien vu, mes cours de maths sont très loins, j'ai fait la faute de calcul sinon ton estimateur de vraisemblance est le bon. Tu n'as plus qu'à calculer son espérance en calculant la Loi décrite plus haut par ton camarade de promo
Marsh Posté le 06-11-2010 à 21:19:23
Salut tout le monde,
Je me pose une petite question concernant les estimateurs.
Je cherche à prouver que mon estimateur est sans biais,
Pour cela je calcul E(ô) où ô est mon estimateur de o
Je trouve que E(ô)=ô ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?
Merci