Analyse spectrale - Aide aux devoirs - Emploi & Etudes
Marsh Posté le 31-10-2006 à 06:31:12
Salut, voilà de quoi t'éclairer...
http://fr.wikipedia.org/wiki/Corr% [...] ois%C3%A9e
http://fr.wikipedia.org/wiki/Autocorr%C3%A9lation
Marsh Posté le 31-10-2006 à 16:06:35
Je vais essayer de répondre point par point mais d'abord je vais faire quelques mises au point (les definitions ou ce qui s'y rapporte seront en bleu) car je pense que tu parles de la fonction d'autocorellation. En tout cas à ma connaissance c'est elle que l'on nomme "petit gamma".
A la base de tout ca il y a les fonctions de covariance et d'intercovariance et les proprietes de stationnarité.
Je vais noter g "petit gamma" et G "grand gamma".
Soient un processus X, E l'esperence mathematique et n1, n2 deux instant differents, la fonction de covariance se definit par:
Gx(n1,n2) = cov(Xn1, Xn2) = E[X(n1,w)X(n2,w)*] - E[X(n1,w)]E[X(n2,w)]*
La fonction de covariance est un indicateur de la ressemblance entre des valeurs du processus X a deux instants differents (n1 et n2 ici).
Soient deux processus X et Y, E l'esperence mathematique et n1, n2 deux instant differents, la fonction de d'intercovariance se definit par:
Gx,y(n1,n2) = cov(Xn1,Yn2) = E[X(n1,w)Y(n2,w)*] - E[X(n1,w)]E[Y(n2,w)]*
La fonction de covariance est un indicateur de la ressemblance entre des valeurs des processus X et Y a deux instants differents (n1 et n2 ici).
En particulier on a pour des processus reels que l'on compare aux memes instants:
cov(X,Y) = E[(X - mx)(Y - my)] = E[XY] - mxmy = E[XY] - E[X]E[Y]
Concernant la stationnarité, il y a plusieurs definitions dependant de de l'ordre, ici c'est la stationnarité du second ordre qui nous interesse et qui se definit par:
Gx(n1,n2) = Gx(n1+k,n2+k) quelquesoit k
On comprend donc que le processus est stationnaire à l'ordre 2 si sa fonction de covariance ne depend pas des instants n1 et n2 mais uniquement du decalage entre n1 et n2 (il suffit de prendre k = -n1 pour s'en convaincre). Pour mettre en evidence la stationnarite à l'ordre 2 on va donc chercher à écrire la covariance en fonction de ce decalage entre les instant, en notant p ce décalage on a donc une nouvelle expression pour la covariance:
Gx(n,n-p)
X sera donc un processus stationnaire d'ordre 2 si Gx(n,n-p) = f(p), ie Gx(n,n-p) depend uniquement de p (donc depend uniquement du decalage).
On en arrive enfin à la définition de la fonction d'autocorrelation "petit gamma":
Si X est stationnaire à l'ordre 2 alors Gx(n,n-p) ne depend que de p et on note gx(p) la fonction d'autocorrelation du processus X telle que:
gx(p) = Gx(n,n-p)
De meme on dit que X et Y sont mutuellement stationnaires si Gx,y(n,n-p) ne depend que de p et si c'est le cas on note alors leur fonction d'intercorrelation:
gx,y(p) = Gx,y(n,n-p)
Voila donc pour les bases. Passons a tes questions. Mais je pense qu'une bonne partie de ta confusion viens du fait que tu melanges les fonctions G (grand gamma) et g (petit gamma)
Que vaut g[X+Y] ? Est-ce g[X]+g[Y]+2*g[X,Y] ?
Deja, il faut partir des formules de covariance de d'intercovariance G avant de parler d'autocorrelation g.
Je rappelle que l'esperance mathematique verifie des proprietes de linearite:
E[aX + bY] = aE[X] + bE[Y]
On commence donc par
Gx+y(n1,n2) = E[(Xn1+Yn1)(Xn2+Yn2)*] - E[Xn1+Yn1]E[Xn2+Yn2]*
Gx+y(n1,n2) = E[Xn1Xn2* + Yn1Yn2* + Xn1Yn2* + Yn1Xn2*] - (E[Xn1] + E[Yn1])(E[Xn2]* + E[Yn2]*)
Gx+y(n1,n2) = E[Xn1Xn2*] - E[Xn1]E[Xn2]* + E[Xn1Yn2*] - E[Xn1]E[Yn2]* + E[Yn1Xn2*] - E[Yn1]E[Xn2]* + E[Yn1Yn2*] - E[Yn1]E[Yn2]*
Gx+y(n1,n2) = Gx(n1,n2) + Gx,y(n1,n2) + Gy,x(n1,n2) + Gy(n1,n2)
Ou autrement
Gx+y(n,n-p) = Gx(n,n-p) + Gx,y(n,n-p) + Gy,x(n,n-p) + Gy(n,n-p)
Donc si X et Y sont stationnaires ET mutuellement stationnaires on peut ecrire
gx+y(p) = gx(p) + gx,y(p) + gy,x(p) + gy(p)
et en particulier si X et Y sont decorreles et que donc gx,y(p) = gy,x(p) = 0 on a gx+y(p) = gx(p) + gy(p)
Donc pour moi ta formule g[X+Y] = g[X]+g[Y]+2*g[X,Y] est fausse. Je pense que tu confonds avec une formule de la variance, je vais detailler.
En notant E l'esperance on peut definir la variance de variable aleatoire var(X) telle que:
var(X) = E[(X - mx)²] = E[X²] - mx² = E[X²] - E[X]²
On definit aussi la covariance entre deux variables aleatoires (v. plus haut) telle que:
cov(X,Y) = E[(X - mx)(Y - my)] = E[XY] - mxmy = E[XY] - E[X]E[Y]
On a donc:
var(X+Y) = E[(Y+X)²] - E[Y+X]²
var(X+Y) = E[Y² + X² + 2XY] - (E[X]² + E[Y]² + 2 E[X]E[Y])
var(X+Y) = E[X²] - E[X]² + E[Y²] - E[Y]² + 2(E[XY] - E[X]E[Y])
var(X+Y) = var(X) + var(Y) + 2cov(X,Y)
Pourquoi écrit on parfois g(t) et parfois g(t1,t2) ?
Comme je l'ai dit precedemment je pense que tu confonds les fonctions G (grand gamma) et g (petit gamma)
Que se passe-t-il quand soit n, X(n,w) est constant quelquesoit w?
Gx(n1,n2) = Gx(n1,n2) = cov(Xn1, Xn2) = E[X(n1,w)X(n2,w)*] - E[X(n1,w)]E[X(n2,w)]* = E[X(n1,w0)X(n2,w0)*] - E[X(n1,w0)]E[X(n2,w0)]*
Or pour n1 et n2 fixes X(n1,w0) et X(n2,w0) sont des variables aleatoires constantes, soit a et c leur valeur respectives on a alors:
E[X(n1,w0)X(n2,w0)*] = E[ac*] = ac* et E[X(n1,w0)] = E[a] = a et E[X(n2,w0)]* = E[c]* = c*
D'ou Gx = ac* - ac* = 0
Pour la question de cosinus je comprends pas tres bien ce que tu veux dire.
Voila, j'espere que j'ai pas dit de betises et que ca pourra t'aider.
Marsh Posté le 31-10-2006 à 20:43:43
Merci énormément pour ta réponse !
1. Pour expliquer la confusion entre fonction de covariance Gx et fonction d'autocorrélation gx, dans mon polycopié, ils sont désignés par la même lettre g (petit gamma).
Le G (grand gamma) est attribué à la Densité Spectrale de Puissance, qui est la transformée de Fourier de la fonction d'autocorrélation g.
En fait, nous n'utilisons pratiquement jamais la fonction de covariance, vu qu'on n'utilise presque que des signaux stationnaires au sens large (ordre 2). La définition qu'on a de la fonction de covariance g est :
gX(tau) = E[X(t)X(t-tau)*].
2. Pour cette question, je me demandais s'il n'y avait pas une relation entre gx,y et gy,x. Lorsque X et Y sont des signaux réels, gx,y et gy,x ne sont-ils pas conjugués ?
5. Pour la question du "cosinus", j'avais en fait un énoncé comme cela :
soit le signal aléatoire X(t) = M*cos(w*t) + N*sin(w*t) où M et N sont des v.a.r. Calculer la fonction de covariance gX(t1,t2) en fonction de gM, gN et gMN.
---------------------------------------------------------
Autres questions, un peu différentes sur les Transformées de Fourier :
6. Quelle est la TF de h(-t) ? la TF de h(t)* ? la TF de h(-t)* ?
(c'est à propos de la formule des intéférences pour ceux qui la connaissent)
7. pas de question 7. pour l'instant ; merci beaucoup et a+
Marsh Posté le 01-11-2006 à 11:12:11
2. Ca me parait pas evident. Pour l'instant je vois que deux cas qui pourraient nous faire ecrire gx,y(p) = gy,x(p) . C'est si x = y ou alors si p = 0 (donc n1 = n2 donc quand on compare aux memes instants)
5. je vois pas ce que tu entends par gM, gN et gMN.
6. Pour moi je vois pas comment trouver la TF de h(-t ) si j'ai pas un minimum d'info sur h comme sa parité etc.
Concernant h(t)*
on va dire que | represente le signe integrale.
F(u) = |f(t).exp(-2.i.pi.u.t) dt
donc
F(u)* = |f(t)*.exp(2.i.pi.u.t) dt
d'ou
F(-u)* = |f(t)*.exp(-2.i.pi.u.t) dt = la transformee de Fourier de f*
Donc soit F(u) la T.F. de f(t) on a que F(-u)* est la T.F. de f*(t) et si f est reelle on a meme F(u) = F(-u)*.
Les proprietes utilisees pour demontrer cette relation sont:
(z1.z2)* = z1*.z2* (simple calcul pour le demontrer)
|f(t)*dt = (|f(t)dt)* (utiliser la linearite de l'integrale et decomposer en partie reelle et partie imaginaire pour le demontrer).
Marsh Posté le 18-11-2006 à 21:39:56
Bonsoir !
J'ai à nouveau un petit problème en faisant une annale (examen lundi ) :
- comment lier la variance d'une variable aléatoire et sa DSP ?
il s'agit de minimiser la variance de l'erreur, et on me dit que c'est équivalent à minimiser une fonctionnelle de la DSP de l'erreur...
merci !
Marsh Posté le 30-10-2006 à 20:22:38
Bonjour,
Je suis en cours danalyse spectrale des signaux, et il y a quelques notions qui méchappent : par exemple, comment fonctionnent les opérations avec la fonction de corrélation "petit gamma" (notée g par la suite)
- Que vaut g[X+Y] ? Est-ce g[X]+g[Y]+2*g[X,Y] ?
- Pourquoi écrit on parfois g(t) et parfois g(t1,t2) ?
- Que vaut g[X] pour X étant une constante ?
- Comment relier g[cos(X)] et g[X] par exemple ?
etc
si vous avez un site à me conseiller pour trouver des réponses pratiques pour le calcul de signaux, je vous en serez très reconnaissant.
Merci davance !