Independência
Transcrição
Independência
Independência FCT/UNL, Processos Estocásticos MLE 1 Introdução A noção de independência torna a teoria das probabilidades uma disciplina distinta da teoria da medida. Trata-se de um conceito com raı́zes intuitivas muito profundas. Por outro lado, a formalização matemática deste conceito dá origem a resultados surpreendentes talvez, porque a independência é uma hipótese com grande poder de simplificação. A hipótese de independência das observações é essencial nos procedimentos estatı́sticos pois permite a utilização de resultados potentes e com hipóteses muito gerais: leis dos grandes números e teoremas do limite central. As alternativas à hipótese de independência não são muitas. A estacionaridade permite, em certos casos, a utilização dos teoremas ergódicos. A propriedade de Markov, em que o futuro e o passado são independentes dado o presente é talvez o substituto mais útil da independência. Convêm sublinhar exemplos e contra-exemplos de observações independentes. De um modo grosseiro as condições metereológicas diárias no inverno português podem ser caracterizadas, nos dois casos extremos mais interessantes em, bom tempo (sol, temperatura amena, vento fraco ou moderado) ou mau tempo (chuva ou neve, temperaturas baixas, vento forte). Temos a ideia de que a probabilidade de que amanhã esteja bom tempo sabendo que hoje está bom tempo é maior que a probabilidade de que amanhã esteja mau tempo sabendo que hoje está bom tempo. Do mesmo modo, pensamos que a probabilidade de que amanhã esteja mau tempo sabendo que hoje está mau tempo é maior que a probabilidade de que amanhã esteja bom tempo sabendo que hoje está mau tempo. Assim sendo, as condições metereológicas num dia não são independentes das condições metereológicas do dia anterior. Um outro exemplo de observação de variáveis aleatórias que tendemos a não considerar como independentes é a do par em que a primeira coordenada nos dá o cociente de inteligência do pai e a segunda coordenada o cociente de inteligência do filho. Uns instantes de reflexão mostram que tanto os factores heriditários como os resultantes da educação contribuem para esta não independência. Os exemplos de observações independentes são geralmente tirados dos jogos de azar, moeda ao ar, dados, cartas, etc uma vez que a independência é assimilada a um dos factores que contribui para o equilı́brio do jogo. A exposição que apresentamos neste capı́tulo é baseada em [3] embora possamos completá-la com outras referências, por exemplo, [2] e [1]. 1 Capı́tulo I Independência Secção: 2 2 A noção de independência Seja (Ω, A, P) um espaço de probabilidade. Definição 1 (Álgebras - σ independentes). Diremos que as álgebras - σ G1 , G2 , . . . , Gn , . . . sobre Ω são independentes se e só se: ∀n ∈ N ∀i1 , . . . in distintos P[Gi1 ∩ Gi2 ∩ · · · ∩ Gin ] = n Y P[Gik ] , k=1 em que convencionamos que, para qualquer i ∈ N se tem Gi ∈ Gi . Observação 1. A definição de uma sucessão de famı́lias independentes de subconjuntos num espaço de probabilidade, não necessariamente álgebras - σ, pode fazer-se exactamente do mesmo modo. Exercı́cio 1. Sejam G e H duas sub-álgebras - σ de A independentes. Mostre que se A ∈ G ∩ H então P[A] ∈ {0, 1}. Definição 2 (Variáveis aleatórias independentes). Diremos que as variáveis aleatórias X1 , X2 , . . . , Xn , . . . são independentes se e só se as álgebras - σ geradas por essas variáveis aleatórias σ(X1 ), σ(X2 ), . . . , σ(Xn ), . . . o forem. Observação 2. Dado que para cada i ∈ N se tem que: σ(Xi ) = Xi−1 (B) : B ∈ B(R) de acordo com a definição 1. as variáveis aleatórias X1 , X2 , . . . , Xn , . . . são independentes se e só se: " n # n \ Y −1 ∀n ∈ N ∀i1 , . . . in distintos P Xik (Bik ) = P[Xi−1 (Bik )] , k k=1 k=1 em que Bik ∈ B(R). Definição 3 (Acontecimentos independentes). Diremos que os acontecimentos E1 , E2 , . . . , En , . . . pertencentes à álgebra - σ A são independentes se e só se as álgebras - σ geradas por esses acontecimentos σ({E1 }), σ({E2 }), . . . , σ({En }), . . . o forem. PE0910 2 8 de Março de 2010 Capı́tulo I Independência Secção: 2 Observação 3. Dado que para cada i ∈ N se tem que: σ({Ei }) = {Ei , Eic , ∅, Ω} de acordo com a definição 3, os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se: " n # n \ Y ∀n ∈ N ∀i1 , . . . in distintos P Fik = P[Fik ] , k=1 em que Fik = Eik ou Fik = k=1 Eick . Exercı́cio 2. Mostre que os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se as variáveis aleatórias 1IE1 , 1IE2 , . . . , 1IEn , . . . o forem. Uma questão natural que se pode colocar é a de verificar a independência. A proposiçãao seguinte é importante para esse efeito. Proposição 1. Sejam G, H duas sub-ágebras - σ da álgebra A. Sejam I, J sistemas - π tais que σ(I) = G e σ(J) = H. Então G e H são independentes se e só se I e J o forem a , isto é, se e só se: ∀I ∈ I, ∀J ∈ J P[I ∩ J] = P[I] · P[J] a Aqui usamos a observação 1 para definir sistemas - π independentes. Uma consequência imediata desta proposição é que é possı́vel recuperar a definição usual de independência de acontecimentos. Observação 4. Dado que {Ei } é um sistemas - π que gera σ({Ei }) tem-se que os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se: " n # n \ Y ∀n ∈ N ∀i1 , . . . in distintos P Eik = P[Eik ] , k=1 k=1 coincidindo com a definição usual de acontecimentos independentes. Demonstração. Suponha-se que I e J são independentes. Fixe-se I ∈ I e considere-se para i = 1, 2 a função de conjuntos µiI definida em H que a H ∈ H associa µ1I (H) = P[I ∩ H] (respectivamente µ2I (H) = P[I] · P[H]). Verifica-se que µ1I e µ2I são medidas sobre (Ω, H) com a mesma massa total que coincidem sobre J devido a termos suposto que I e J são independentes, logo coincidem sobre σ(J) = H. i definida em G Fixe-se H ∈ H e considere-se para i = 1, 2 a função de conjuntos νH 1 (G) = P[G ∩ H] (respectivamente ν 2 (G) = P[G] · P[H]). Verificaque a G ∈ H associa νH H 1 2 se que νG e νG são medidas sobre (Ω, G) com a mesma massa total que coincidem sobre J, porque como µ1I e µ2I coincidem sobre H tem-se que: ∀I ∈ I ∀H ∈ HP[I ∩ H] = P[I] · P[H] . PE0910 3 8 de Março de 2010 Capı́tulo I Independência Secção: 2 1 e ν 2 coincidem sobre σ(I) = G para cada H ∈ H, isto é, Em consequência, νH H ∀G ∈ G ∀H ∈ HP[G ∩ H] = P[G] · P[H] , ou seja, G e H são independentes. Se G e H forem independentes é óbvio que I e J são independentes, uma vez que I ⊆ G e J ⊆ H. Exercı́cio 3. Verifique que para i = 1, 2, se tem que µiI são medidas sobre (Ω, H) tais que µ1I (Ω) = µ2I (Ω). i 1 2 Verifique que para i = 1, 2, se tem que νH são medidas sobre (Ω, G) tais que νH (Ω) = νH (Ω). Uma aplicação inesperada da noção de independência é a que decorre do resultado seguinte. Proposição 2 (Lemas de Borel-Cantelli). Seja E1 , E2 , . . . , En , . . . uma sucessão de acontecimentos em (Ω, A). 1. Em geral vale: +∞ X P[En ] < +∞ ⇒ P[lim sup En ] = 0 n→+∞ n=1 2. Se os acontecimentos forem independentes, então: +∞ X P[En ] = +∞ ⇒ P[lim sup En ] = 1 n→+∞ n=1 Demonstração. A demonstração do primeiro lema de Borel-Cantelli é simples. Com efeito tem-se: +∞ \ [ [ X P[lim sup En ] =(a) P Em ≤(b) P Em ≤(c) P [Em ] −−−−−→ 0 n→+∞ n=1 m≥n m≥n n→+∞ (d) m≥n com as seguintes justificações: (a) Pela definição de limite superior de uma sucessão de conjuntos. (b) Pela monotonia da medida P e dado que para cada n ∈ N se tem que: +∞ \ [ Em ⊆ n=1 m≥n [ Em . m≥n (c) Pela subaditividade da medida P PE0910 4 8 de Março de 2010 Capı́tulo I Independência (d) Como por hipótese a série zero. P+∞ n=1 P[En ] Secção: 3 converge o resto P m≥n P [Em ] tende para Para demonstrarmos a segunda proposição do lema de Borel-Cantelli vamos verificar que, sob a condição enunciada, se tem que c =0. P lim sup En n→+∞ Observe-se que pela independência se tem que para n ≤ m ≤ r Y \ Y c c (1 − P [Em ]) P Em P [Em ]= = n≤m≤r n≤m≤r n≤m≤r Pela continuidade superior da medida, pode passar-se ao limite quando r tende para +∞ obtendo-se: \ Y c P Em = (1 − P [Em ]) n≤m n≤m mas dado que para x ≥ 0 se tem 1 − x ≤ e−x1 , vem \ X c P Em ≤ exp − P [Em ] −−−−−→ 0 n≤m n≤m n→+∞ uma vez que a série é divergente. 3 A lei do 0-1 de Kolmogorov A lei do 0-1 de Kolmogorov é um dos resultados que por si só justificam o estudo matemático da noção de independência. Mostra que a independência de uma sucessão de variáveis aleatórias conjugada com uma condição técnica relativa à posibilidade de descartar o que se passa num qualquer número finito de termos da sucessão, reduz o comportamento assimptótico da sucessão ao caso não aleatório. Para precisarmos a condição técnica evocada, vamos definir a álgebra - σ de cauda de uma sucessão de variáveis aleatórias. Definição 4. Seja X1 , X2 , . . . Xn . . . uma sucessão de variáveis aleatórias. Seja por definição, para cada n ≥ 1: Tn = σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . ) A álgebra - σ de cauda da sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . é por definição: ∞ \ T= Tn . n=1 1 O que se pode ver considerando a série alternada que dá e−x . PE0910 5 8 de Março de 2010 Capı́tulo I Independência Secção: 3 Exercı́cio 4. Mostre que para uma sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . se tem, para cada n ≥ 1: σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . ) Observação 5. Veja o exercı́cio 7 para exemplos de acontecimentos mensuráveis relativamente à álgebra - σ de cauda. Teorema 1 (Lei do 0-1 de Kolmogorov). Seja (Xn )n∈N uma sucessão de variáveis aleatórias independentes. Então a álgebra - σ de cauda T é trivial relativamente a P, isto é: 1. ∀T ∈ T P[T ] = 0 ∨ P[T ] = 1 2. X ∈ mT ⇒ ∃c ∈ R P[X = c] = 1 Demonstração. A demonstração estrutura-se em seis passos conducentes a mostrar que a álgebra - σ de cauda é independente dela própria o que permitirá concluir como no enunciado. Para cada n ≥ 1 Kn := {{Xi ≤ xi } : 1 ≤ i ≤ n , xi ∈ R ∪ {+∞}} é um sistema - π e verifica-se que σ(Kn ) =: χn = σ(X1 , . . . Xn ). Tem-se também que para cada n ≥ 1 Ln := {{Xj ≤ xj } : n + 1 ≤ i ≤ n + r , r ∈ N∗ , xi ∈ R ∪ {+∞}} é um sistema - π e verifica-se que σ(Ln ) =: Tn = σ(Xn+1 , . . . Xn+r . . . ). Sendo (Xn )n∈N uma sucessão de variáveis aleatórias independentes, tem-se para cada n ≥ 1 que Kn e Ln são sistemas - π independentes e logo, pela proposição 2, χn e Tn são álgebras - σ independentes. Logo, uma vez que T ⊆ Tn , tem-se que χn e T são álgebras - σ independentes. Mostremos que χ∞ := σ(X1 , . . . Xn , . . . ) e T são independentes. Teêm-se os factos seguintes • χn ⊆ χn+1 • K∞ := ∪+∞ n=1 χn é um sistema - π e σ(K∞ ) = χ∞ . • K∞ e T são independentes, logo mais uma vez pela proposição 2, σ(K∞ ) = χ∞ e T são independentes. PE0910 6 8 de Março de 2010 Capı́tulo I Independência Secção: 4 Como T ⊆ χ∞ , tem-se que T é independente de T pelo que: T ∈ T ⇒ P[T ] = P[T ∩ T ] = P[T ] · P[T ] e necessariamente, P[T ] ∈ {0, 1}. Seja agora X mensurável relativamente á álgebra - σ de cauda. Tem-se então que para cada x, P[X ≤ x] ∈ {0, 1}. Seja por definição: c = sup{x : P[X ≤ x] = 0} É óbvio que se c = −∞ então P[X = −∞] = 1 e que se c = +∞ então P[X = +∞] = 1. Suponhamos então c ∈ R. Tem-se que: " +∞ # X +∞ [ 1 1 ≤ =0 P X ≤c− P[X < c] = P X ≤c− n n n=1 n=1 e ainda P[X ≤ c] = P " +∞ \ n=1 1 X ≤c+ n # =1, e logo, P[X = c] = 1 tal como querı́amos. Observação 6. No capı́tulo sobre o teorema de Fubini veremos como construir sucessões de variáveis aleatórias indeendentes com leis dadas. 4 Exercı́cios complementares Exercı́cio 5. Mostre que se as famı́lias E e F forem independentes e se G ⊆ E, então as famı́lias G e F são independentes. Exercı́cio 6 (Independência e independência dois a dois). Considere dois lançamentos independentes de uma moeda equilibrada ao ar. Como modelo dessa observação seja o espaço de probabilidade ({0, 1}2 , P({0, 1}2 ), P) em que P é a probabilidade uniforme sobre {0, 1}2 . Convencionamos que 1 representa cara e 0 coroa. Considere os acontecimentos: A1 = {Cara ocorre no primeiro lançamento} A2 = {Cara ocorre no segundo lançamento} A3 = {Apenas uma cara ocorre nos lançamentos}. Mostre que para i = 1, 2, 3 se tem P[Ai ] = 1/2, que para i 6= j P[Ai ∩ Aj ] = 1/4 = P[Ai ] · P[Aj ] e que, finalmente, P[A1 ∩ A2 ∩ A3 ] = 0. Conclua que os acontecimentos são dois a dois independentes mas que {A1 , A2 , A3 } não é uma famı́lia de acontecimentos independentes. Exercı́cio 7. Seja (Xn )n∈N uma sucessão de variáveis aleatórias. Mostre que seguintes conjuntos são mensuráveis relativamente à álgebra - σ de cauda. 1. {ω ∈ Ω : (Xn (ω))n∈N converge } P 2. {ω ∈ Ω : n≥1 Xn (ω) converge } P 3. {ω ∈ Ω : (1/k) kn=1 Xn (ω) converge } PE0910 7 8 de Março de 2010 Capı́tulo I Independência Secção: 4 Exercı́cio 8. Seja o espaço de Lebesgue. (]0, 1], L(]0, 1]), λ) e para cada x ∈]0, 1], (αn (x))n∈N o desenvolvimento binário não degenerado de x, isto é, uma sucessão de números de {0, 1} tal que: 1. ∀n ≥ 1∃m ≥ n αn (x) 6= 0 P+∞ n+1 = x. 2. n=1 αn (x)/2 Mostre que (αn (x))n∈N é uma sucessão de variáveis aleatórias independentes definidas no espaço de probabilidade (]0, 1], L(]0, 1]), λ). Exercı́cio 9. Com as notações do exercı́cio anterior mostre que para qualquer sucessão (cn )n≥1 ∈ RN 2 3 X P4 (−1)αn cn converge 5 ∈ {0, 1} ∗ n≥1 Referências [1] Karl R. Stromberg. Probability for analysts. Chapman & Hall Probability Series. Chapman & Hall, New York, 1994. Lecture notes prepared by Kuppusamy Ravindran. [2] Daniel W. Stroock. Probability theory, an analytic view. Cambridge University Press, Cambridge, 1993. [3] David Williams. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge University Press, Cambridge, 1991. PE0910 8 8 de Março de 2010
Documentos relacionados
Independência
A noção de independência torna a teoria das probabilidades uma disciplina distinta da teoria da medida. Trata-se de um conceito com raı́zes intuitivas muito profundas. Por outro lado, a formaliz...
Leia mais