Estimateur sans biais

Estimateur sans biais - Aide aux devoirs - Emploi & Etudes

Marsh Posté le 06-11-2010 à 21:19:23    

Salut tout le monde,
Je me pose une petite question concernant les estimateurs.
Je cherche à prouver que mon estimateur est sans biais,
Pour cela je calcul E(ô)             où ô est mon estimateur de o
 
Je trouve que E(ô)=ô ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?
 
Merci

Reply

Marsh Posté le 06-11-2010 à 21:19:23   

Reply

Marsh Posté le 06-11-2010 à 21:21:06    

Pour moi c'est bon. Si tu as un écart, la distance à o (la moyenne par exemple), est la valeur du biais.


Message édité par djidee le 06-11-2010 à 21:21:52

---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
Reply

Marsh Posté le 06-11-2010 à 21:23:29    

un estimateur est toujours sans biais de son espérance. Si l'espérance vaut ton paramètre, c'est bon.


Message édité par dreamer18 le 06-11-2010 à 21:37:02

---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 08:59:32    

Salut ,
 
peux-tu détailler ? (en particulier comment tu arrives à E(ô)=ô ?)

Reply

Marsh Posté le 07-11-2010 à 09:10:14    

C'est une erreur. Il a surement voulu écrire E(ô)=o


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 09:45:35    

Vu sa dernière phrase on peut penser que non.

Reply

Marsh Posté le 07-11-2010 à 09:47:10    

oui mais sa dernière phrase n'a pas de sens :D


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 10:46:06    

J'ai la fonction
f(x)=(1/(θc^(1/θ))x^((1/θ)-1) pour 0<x<c
f(x)=0 pour x<0 et x>c
 
Où c>0 est un paramètre connu
 
 
Je recherche ensuite la fonction de vraisemblance, dérivée partielle par rapport à θ, j'égalise à 0 et je test ce point critique par la dérivée partielle seconde, ce point donne une dérivée partielle seconde négative.  
Je pose Q =l'estimateur car je peut pas faire téta chapeau sur l'ordi :)
 
Je trouve Q=ln c -(1/n)Somme(ln xi)
 
(Maintenant que je me repenche dessus après une nuit de sommeil le résultat me parait "bizarre" )
 
Je cherche maintenant si cette estimation est sans biais, je fais donc E(Q) et je trouve Q et non pas θ.
En clair est-ce que E(Q)=Q à du sens?
 
Merci pour vos réponses

Reply

Marsh Posté le 07-11-2010 à 11:11:30    

dreamer18 a écrit :

C'est une erreur. Il a surement voulu écrire E(ô)=o


 
Je pensais comme toi aussi  [:djidee:5]


---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
Reply

Marsh Posté le 07-11-2010 à 11:25:24    

Mais dans ce cas il aurait voulu écrire :

 

Je trouve que E(ô)=o ça prouve quelque chose ou faut t'il que je trouve E(ô)=o?

 

(voir sa dernière question !)


Message édité par Gato66 le 07-11-2010 à 11:27:08
Reply

Marsh Posté le 07-11-2010 à 11:25:24   

Reply

Marsh Posté le 07-11-2010 à 11:28:07    

Dans mes souvenirs (maintenant on fait tout avec des logiciels :o) pour qu'un estimateur soit sans bien tu dois trouver E(A)=A ou bien E(A-estimateur)=0

Reply

Marsh Posté le 07-11-2010 à 11:29:13    

paulnr a écrit :

En clair est-ce que E(Q)=Q à du sens?

non. Une espérance est un nombre, pas une VA. (mes cours de maths sont loins, je peux dire des bêtises aussi)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 11:29:50    

Je ne comprends pas ta densité, tu peux la sortir en latex stp :D
 
j'ai compris, je regarde :)


Message édité par dreamer18 le 07-11-2010 à 11:33:03

---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 11:34:31    

Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ? :o

Reply

Marsh Posté le 07-11-2010 à 11:37:37    

dj_shadow89 a écrit :

Mais y'a pas une règle qui dit que l'estimateur du minimum de vraisemblance est toujours sans biais et à variance minimale ? :o


 
Viens pas foutre ta merde ici, je gère  [:djidee:2]  
 

Spoiler :

Ou pas :o


---------------
"ty [djidee] en tout cas pour toutes tes réponses, je pensais que tu ne faisais que troller" (MP reçu le 17/06/2011)
Reply

Marsh Posté le 07-11-2010 à 11:37:51    

non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais).
 
Un maximum de vraisemblance (max x_i) d'une loi uniforme sur [0; theta] estime theta mais lui est toujours inférieur, et il y a des estimateurs qui ont de meilleurs risques quadratiques que celui du maximum de vraisemblance :D


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 11:42:48    

djidee a écrit :


 
Viens pas foutre ta merde ici, je gère  [:djidee:2]  
 

Spoiler :

Ou pas :o



 
Apprends d'abord à faire un IC [:monsieur spock]
 
 

dreamer18 a écrit :

non, des estimateurs de maximum de vraisemblance peuvent être biaisés (même s'ils sont souvent au moins asymptotiquement sans biais).
 
Un maximum de vraisemblance (max x_i) d'une loi uniforme sur [0; theta] estime theta mais lui est toujours inférieur, et il y a des estimateurs qui ont de meilleurs risques quadratiques que celui du maximum de vraisemblance :D


 
 
 
My bad :)

Reply

Marsh Posté le 07-11-2010 à 11:47:03    

Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens  
 
Log[L(theta)] = -n * log(theta) -  (n/theta) * log(c) + (n * [(1/theta)-1] * [somme (i=1...n) log (x_i)])


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 11:49:54    

dreamer18 a écrit :

Tu trouves quoi comme fonction de vraisemblance ? En prenant une log vraisemblance pour simplifier (theta étant en puissance) après simplification j'obtiens  
 
Log[L(theta)] = -n * log(theta) -  (n/theta) * log(c) + (n * [(1/theta)-1] * [somme (i=1...n) log (x_i)])


 
 
 
Je viens de refaire le calcul en passant par une log vraisemblance aussi, sauf erreur de calcul et de mauvaise lecture de la densité, je trouve un estimateur de la forme  
 
 
A = somme (i...n)/n
 
donc une espérance... Right  ?

Reply

Marsh Posté le 07-11-2010 à 11:56:48    

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 07-11-2010 à 12:06:56    

dreamer18 a écrit :

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


 
 
 
Oké, j'avais mal lu la densité ( assez loin les stats finalement :cry:)  
 
En reprenant et en simplifiant, j'ai cette dérivée  
 
n/théta ( -1 + (ln(c)-n*somme)/theta )
 
 
arrivé là, en cours on avait l'habitude d'étudier les limites

Reply

Marsh Posté le 07-11-2010 à 12:46:49    

dreamer18 a écrit :

Tu trouves quoi en log vraisemblance ?
 
Ma fonction de log vraisemblance est (en sortant n fois le 1/theta -1 de la somme des x_i):
 
Log(L(theta)) = -n * log(theta) - (n/theta)*log(c) + [(n/theta)-n]*(somme [i=1...n] log(x_i) )
 
sachant qu'en développant j'ai la partie constante (avec n) de ma somme de log(x_i) qui dégage.
 
Je me retrouve avec la dérivée :
 
Log(L(theta))' = - n/theta + ((n log(c)) / theta²) - (n/theta²) * somme (i=1...n) log (x_i)


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 

Reply

Marsh Posté le 07-11-2010 à 13:09:35    

paulnr a écrit :


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 


 
 
 
 
 
 :jap:

Reply

Marsh Posté le 07-11-2010 à 18:03:21    

paulnr a écrit :


 
mon log vraisemblance est:
-n ln θ- (n/θ) ln c + ((1/θ)-1)Somme (i=1...n) ln xi
 
et ma dérivée:
-n/θ+(n/θ²)ln c + (1/θ²)Somme (i=1...n)ln xi
 
En égalisant à 0 j'obtient:
(1/n)Somme(i=1...n) ln (c/xi)=θ
 
Ma dérivée seconde est alors:
(n/θ²)-(2n/θ^3)ln c +(2/θ^3)Somme (i=1...n) ln xi
en bidouillant je me retrouve avec
(n/θ²)+(2/θ^3)(Somme(i=1...n)ln c/xi)
 
Or Somme(i=1...n)ln c/xi = nθ
 
J'obtiens donc (n/θ²)+(2/θ^3)(nθ)
Ce qui donne -n/θ²
Ce qui est strictement négatif, donc concave et donc maximum de vraisemblance
 
On peut donc dire que Q=(1/n)Somme(i=1...n)ln c/xi
 
On est d'accord jusqu'à là?
 


pauln je vois de quel exo tu parles et je pense aussi que je sais aussi dans quelle fac tu es^^.
 
maintenant si tu veux démontrer que l'emv est san biais il faut déjà résoudre la question 5 de ton exo qui est de trouver la loi Y. sachant que Y=log(c/X), tu constatera que log(c/X) apparait dans ton estimateur. donc tu as E(Q)=(1/n)somme(i=1.....n)Yi ====> E(Q)=(1/n).n.E(Y). si tu avais pu déterminer la loi de Y comme je viens de dire tu aurrais surement vu que Y suis une loi exponentielle de paramètre téta donc E(Y)=téta, en simplifiant l'expréssion que je t'ai donner plus haut tu verras aussi que E(Q)=E(Y)=téta donc ton estimateur est sans biais. je te laisses faire de même pour la variance afin de prouver que ton estimateur est convergent et éfficace.  
j'espère t'avoir aider  
 
traderX

Reply

Marsh Posté le 07-11-2010 à 21:36:51    

bien vu, mes cours de maths sont très loins, j'ai fait la faute de calcul :D sinon ton estimateur de vraisemblance est le bon. Tu n'as plus qu'à calculer son espérance en calculant la Loi décrite plus haut par ton camarade de promo :)


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed