0% acharam este documento útil (0 voto)
18 visualizações13 páginas

VII - Teorema Central Do Limite

O Teorema Central do Limite (TCL) permite a aproximação de variáveis aleatórias pela distribuição normal, sendo fundamental na Teoria Estatística. A qualidade dessa aproximação depende do número de fatores independentes e das características da variável original, como assimetria e curtose. O teorema é amplamente aplicável, especialmente em situações onde as variáveis são independentes e identicamente distribuídas.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
18 visualizações13 páginas

VII - Teorema Central Do Limite

O Teorema Central do Limite (TCL) permite a aproximação de variáveis aleatórias pela distribuição normal, sendo fundamental na Teoria Estatística. A qualidade dessa aproximação depende do número de fatores independentes e das características da variável original, como assimetria e curtose. O teorema é amplamente aplicável, especialmente em situações onde as variáveis são independentes e identicamente distribuídas.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 13

VII - TEOREMA CENTRAL DOLIMITE

A existência do Teorema Central do Limite (TCL) permite a aproximação pela


v.a. Normal de inúmeras variáveis que podem ser descritas como um fenômeno
aleatório formado pela ação de uma grande quantidade de fatores independentes
entre si.

Trata-se do mais importante (e impactante) teorema da Teoria Estatística.

As restrições à sua aplicação são relativamente fracas, o que permite a sua


aplicação em ampla escala.

A qualidade da aproximação normal depende em grande medida do número


n de fatores independentes, uma vez que a convergência para a distribuição
Normal se dá supondo n  .

Ceteris Paribus, quanto maior for este tamanho n, melhor será a aproximação.
A velocidade da convergência também depende naturalmente dos graus de
assimetria e curtose da variável aleatória original.

Quanto menor o grau de assimetria e quanto mais próximo de 3 estiver o grau


de curtose da distribuição da variável original, mais rápida será a convergência
para a distribuição normal.

Vamos primeiro enunciar o teorema, comentar alguns passos da sua


demonstração e, em seguida, dar alguns exemplos da sua aplicação.

Teorema Central do Limite (Lindeberg,1922 ; Feller,1935)

Seja uma sequência infinita de v.a.’s independentes X 1 , X 2 , . . . , X n , . . . com fda’s


F 1 , F 2 , . . . , F n , . . . , médias  1 ,  2 , . . . , ̸ n , . . . e variâncias  21 ,  22 , . . . ,  2n , . . . .

Considere as somas parciais de ordem n :


S n  X 1  X 2 . . .  X n
 n   1   2 . . .   n
 2n   21   22 . . .   2n
Dado   0, considere também as variâncias restritas:
 i  n 
 ∗2
i   x −  i  2 dF i x e sua soma parcial:
 i − n 
∗2 ∗2
 ∗2 ∗2
n   1   2 . . .   n .

Por fim, construa a sequência das v.a.’s padronizadas:


2
Sn − n
Zn ≡ n 1

As condições necessárias e suficientes para que


z
lim PZ n ≤ z  1  e − 12 t 2 dt 2
n 2 −

são: (C1) lim  2n  


n

 ∗2
(C2) lim n
1 ∀  0
n  2n

Uma demonstração didática deste teorema para o caso i. i. d. envolve a função


característica da v.a.  X t ≡ Ee itX , a qual não será vista neste curso. Por isso
sua prova será omitida.

Observações:

1. Lindeberg estabeleceu a suficiência das condições C1 e C2. Anos depois,


Feller estabeleceu sua necessidade;

2. O teorema garante a convergência das funções de distribuição das somas


padronizadas Z n para a função de distribuição de uma v.a. Normal-padrão ou seja
lim F Z n z  F Z z onde Z  N0, 1 . Isto é uma convegência em distribuição,
n
d
notada : Z n  N0, 1.
n

3. O atendimento da condição C2 requer que as funções de distribuição sejam


razoávelmente "suaves", no sentido que não possuam fortes descontinuidades
locais, na vizinhança da média;

4. Nas situações mais usuais em que a sequência dos X i é i. i. d. como


amostras simples de uma população, as condições C1 e C2 são facilmente
atendidas.

Com efeito, neste caso F i  F X ∀i ,  i   e  2i   2 . Deste modo,


 2n  n 2 e a condição C1 é atendida. Por outro lado,
 i  n 
 ∗2
n  n  x −  2 dF X x.
 i − n 
3
 i  n 
 x −  2 dF X x
 ∗2  i − n 
Assim, a condição C2 fica: n
 .
 2n 2

Exceção feita de casos patológicos, o denominador deste quociente converge



∀  0 para  x −  2 dF X x quando n  .
−

 x −  2 dF X x
 ∗2
  2  1, e a condição C2 também é
− 2
Então, n2 
 n n  2

atendida;

5. O resultado anterior assegura a convergência para a v.a. normal-padrão das


médias amostrais padronizadas das populações estatísticas mais usuais. E não
apenas das médias de ordem 1, mas também das médias de ordem k, tipo
1 ∑ n X k , k  1, 2, 3, . . . desde que os momentos populacionais correspondentes
n i1 i
EX k  e VX k  também existam;

6. Resumidamente, sempre que temos um fenômeno aleatório que é resultado


da ação de inúmeros fatores independentes, a padronização deste fenômeno pode
ser aproximada por uma variável normal-padrão.

Em sequência aos comentários 4 e 5 acima, no caso de uma amostra


simples de uma população com média  e variância  2 , como S n  nX n a
expressão Z n em 1 fica:

nX n − n nX n −  n X n − 
Zn ≡    1 ′ 
n 2  n 

Deste modo, pelo TCL em 2 teremos:

n X n −  d
  N0, 1 2 ′ 
n

A expressão 2 ′  estabelece a convergência em distribuição da média


padronizada para a v.a. normal padronizada. Trata-se da convergência em
distribuição não da média, mas da média padronizada, ainda que, na prática, o
teorema autoriza considerar a distribuição limite da média como sendo a
distribuição normal.

Na sequência, usaremos o TCL para a aproximação normal das médias de


algumas populações não normais notáveis.
4
Em todos os exemplos, suporemos uma sequência infinita de v.a.’s i.i.d., de
uma distribuição previamente especificada, de modo a atender as condições (C1)
e (C2) de Lindeberg e Feller.

1) Aproximação Normal da soma de v.a.’s Exponenciais

Vimos no capítulo VI anterior que a soma de uma sequência i. i. d. de uma


v.a. Exponencial de média 1/, é uma v.a. Gama com parâmetros n,  ou seja:

Se X i  Exp i  1, 2, . . . , n, . .  então S n ≡ X 1  X 2 . . . X n  Γn, 

Vimos também que, para  conhecido, a v.a. 2S n tem a distribuição de uma
v.a. qui-quadrado com 2n graus de liberdade ou seja:

2S n   2 2n 3

Deste modo, podemos comparar as probabilidades da média de n exponenciais


independentes, calculadas pela  2 2n, com as probabilidades da média
calculadas pela aproximação Normal (TCL).

Assim, vamos calcular PX n  k, para um dado número k, usando a


distribuição exata da média e esta mesma probabilidade usando a aproximação
normal:

 Para a distribuição exata temos X n ≤ k  S n ≤ nk  2S n ≤ 2nk, de


modo que, usando 3:

2nk y n−1 −y/2


PX n  k  P 2 2n ≤ 2nk   e dy 4
0 2 Γn
n

 Para a aproximação normal, vimos no capítulo anterior que:

E 2 2n  2n e V 2  2n  4n.

Então, a padronização da v.a.  2 2n leva à v.a.

2nS n /n − 1
U n ≡ 2S n − 2n   n X n − 1 5
4n 2 n

Assim, pelo TCL:


5
d
n X n − 1  N0, 1  Z 6
n

Note que X n ≤ k   n X n − 1 ≤ n k − 1 de modo que, por

6 teremos:
PX n ≤ k ≃ PZ ≤ n k − 1
n k−1
 e −z /2 dz 7
1 2

− 2

Observe-se que a probabilidade em 5 é calculada como uma igualdade  ao


passo que esta mesma probabilidade em 7 é calculada como uma aproximação
≃.

Para se ter uma idéia visual desta aproximação, vamos plotar as densidades
da qui-quadrado padrão U n dada em 5, para n  10 e n  30 junto com a da
normal-padrão Z, cuja densidade é:

f Z z  1 e −z 2 /2 ; z ∈ R 8
2

Para obtermos a densidade de U n , sabemos do capítulo VI que se


Y   2  2n, sua densidade é:

y n−1 −y/2
f Y y  e ; y0 9
2 n Γn

Então, sendo o Jacobiano da transformação U n ≡ Y − 2n , dY/dU n  2 n , a


4n
densidade de U n será:

n n  n u n−1 −n 
f U n u  e n u
; u∈R 10
Γn

A figura abaixo apresenta a densidade de U n para n  10 e n  30 junto com a


densidade de Z, dada em 8 :
6
Fig.1 Densidades  10 −(vermelho) e  30 −(preto), padronizadas,
2 2

e da Normal-padrão Z − −(verde)

0.6
Densidades
0.5

0.4

0.3

0.2

0.1

-3 -2 -1 0 1 2 3 4
U,Z

Pela Figura 1 vemos que as densidades qui-quadrado padronizadas


apresentam leve assimetria à direita, a qual se atenua com o aumento de n.

Em consequência, como as probabilidades são valores de área abaixo destas


curvas, na vizinhança da média (acima ou abaixo dela) , a aproximação Normal
superestima as probabilidades exatas. O inverso ocorre longe da média, em
valores mais afastados da média (mas não extremos), a aproximação Normal
subestima as probabilidades exatas.

Exercício 1:
Calculemos as probabilidade exatas de PX n  14. 205 para uma população
exponencial com média 10, ou seja, x  Exp1/10, para n  10, 30 na expressão
4 fazendo a interpolação (sempre que necessário) dos valores constantes nas
tabelas da  2 . Compare em seguida a probabilidade acima usando a aproximação
Normal, de acôrdo com a expressão 7.

Solução:

a) Probabilidades exatas

Pela expressão 4 temos, para n  10. usando a densidade de  2 20 :

PX n  14. 205  P 2 20 ≤ 2 101 1014. 205  P 2 20 ≤ 28. 41
7
9
28.41 y
PX n  14. 205   e −y/2 dy  0. 899 96
0 2 Γ10
10

Para n  30 usamos a densidade de  2 60 :

PX n  14. 205  P 2 20 ≤ 2 101 3014. 205  P 2 20 ≤ 85. 23

85.23 y 29
 e −y/2 dy  0. 982 18
0 2 30 Γ30

b) Aproximação Normal

Pela expressão 7 temos, para n  10 :

PX n  14. 205 ≃ PZ ≤ 10  10


1
14. 205 − 1  PZ ≤ 1. 33

1.33
 e −z /2 dz  0. 908 24
1 2
4. 205/ 10/3 : 2. 303 2
− 2

Para n  30 obtemos:

PX n  14. 205 ≃ PZ ≤ 30  10


1
14. 205 − 1  PZ ≤ 2. 3032

2.3032
 e −z /2 dz  : 0. 989 37
1 2

− 2

Observe que, para n  10, a probabilidade aproximada representa


1000. 90824/0. 89996  100, 92% da probabilidade exata, em excesso de 0, 92%.

Para n  30, a probabilidade aproximada representa


1000. 98937/0. 98218  100, 73% da probabilidade exata, em excesso de 0, 73%.

Como esperado, à medida que n aumenta, a aproximação Normal torna-se


melhor.

Na sequência faremos aproximação Normal de duas variáveis aleeatórias


discretas, a Poisson e a Binomial.

Esta aproximação requer um ajuste: A área de um retângulo de altura x e


largura 1 será aproximada pela integral sob a curva Normal no intervalo
x − 1/2, x  1/2. Ou seja:
8
x1/2−/
PX  x ≃  1 e −z 2 /2 dz
x−1/2−/ 2

onde   EX e  2  VX. Este é o ajuste de cálculo para a aproximação


contínua.

A Fig.2 abaixo ilustra a aproximação de X  B8, 1


2
 pela v.a. N4, 2.

Fig.2 : Densidade e Probabilidades pontuais de N4, 2 −(vermelho) e


Probabilidadesde B8, 12  −(retângulos em preto)

f(x) 0.2734
0.25

0.2187
0.20

0.15

0.1093
0.10

0.05 0.0312

-1 0 1 2 3 4 5 6 7 8 9
x

Por exemplo,

41/2−4/ 2
PX  4   84 1/2 8  0. 2734 ≃  1 e −z 2 /2 dz  0. 276 3
4−1/2−4/ 2 2

2) Aproximação Normal da soma de v.a.’s Poisson

Seja uma sequência X 1 , X 2 , . . . , X n i. i. d. com distribuição Poisson de média


 : X i  P e a soma S n  X 1  X 2 . . . X n .

Pela propriedade reprodutiva da Poisson sabemos que:

S n  Pn 11

Deste modo, ES n   n  VS n . Para a média amostral X n ≡ S n /n teremos :

EX n    e VX n   /n. Então, pelo TCL vem que:

 X n −    N0, 1
d
12
/n n
9
Como anteriormente, vamos comparar a probabilidade PX n  k, para um
dado número k positivo, usando a distribuição exata da média com a mesma
probabilidade usando a aproximação normal.

Observe que, apesar de S n ser v.a. discreta (número de ocorrências por


intervalo de tempo) a média X n não o é necessáriamente.

Usando a distribuição exata temos, de acôrdo com 11:

⌈kn⌉ n j
PX n  k  PS n  nk  ∑ j0 e −n 13
j!

onde ⌈kn⌉ é o primeiro inteiro maior ou igual à kn.

Usando a distribuição Normal aproximada temos, de acôrdo com 12:

k 12 −
k 1
−
PX n  k ≃ PZ   /n
e −z /2 dz 14
2 1 2

−
/n 2

Exercício 2:
O número de veículos que diariamente ficam na estrada em um trecho de uma
rodovia movimentada é uma v.a. Poisson com média   1. Calcula-se a
probabilidade que no máximo 12 paradas ocorram em n  10 dias e que, no
máximo 120 paradas ocorram em n  100 dias, usando a distribuição exata e a
aproximação Normal.

Solução:

a) Probabilidades exatas

Pela expressão 13 temos, para n  10 dias:

10 j
PX n  1. 2  PS 10  12  ∑ j0 e −10
12
 0. 791 56
j!

Para n  100 dias:

100 j
PX n  1. 2  PS 100  120  ∑ j0 e −100
120
 0. 977 33
j!
10
b) Aproximação Normal

Pela expressão 14 temos, para n  10 dias:

12.5−10
PX n  1. 2  PS 10  12 ≃ PZ  12. 5 − 10    e −z /2 dz  0. 785 4
1 2
10
10 − 2

Para n  100 dias:

120.5−100
PX n  1. 2 ≃ PS 100  120 ≃ PZ  120. 5 − 100    e −z /2 dz 
1 2
100
100 − 2

0. 979 82

Comparando estas probabilidades, para n  10, a probabilidade aproximada


representa 1000. 785 4/0. 791 56  99. 222% da probabilidade exata, a menor em
0. 77%.

Para n  100, a probabilidade aproximada representa 1000. 979 82/0. 977 3 


100. 26  % da probabilidade exata, a maior em 0. 26%, uma diferença menor que a
diferença modular anterior, quando n  10.

Confirma-se assim que, à medida que n aumenta, a aproximação Normal fica


mais precisa.

3) Aproximação Normal para a soma de v.a.s Bernoulli

Seja X 1 , X 2 , . . . , X n , uma amostra de X  Bernp, com EX  p e


VX  p1 − p.

Por outro lado, sabemos que o número de sucessos nas n provas,

S n ≡ X 1  X 2 . . .  X n tem distribuição Binomial, com média np e variância


np1 − p :

S n  Bn, p 15

p1 − p
Por outro lado, a média X n  1
n S n , tem valor esperado p e variância n .

Então, pelo TCL temos:


11
Xn − p d
n   N0, 1 16
p1 − p n

A Figura 3 abaixo função de probabilidade da Binomial com média 6 e


variância 2. 4 cruzinhas vermelhas) e a densidade de uma v.a. Normal
correspondente (linha contínua preta)

Fig.3 Probabilidades de B10, 0. 6 (∙ pontos vermelhos) e Densidade de


N6, 2. 4 (- linha contínua preta)

0.3
P(X = x)

0.2

0.1

0.0
0 1 2 3 4 5 6 7 8 9 10 11
x

∙ : B10, 0. 6 ; —: N6 , 2. 4

Vamos agora comparar a probabilidade PX n  k, para um dado número


k positivo, usando a distribuição exata da média com a mesma probabilidade
usando a aproximação normal.

 Usando a distribuição Binomial exata temos, de acôrdo com 15:

⌈kn⌉
PX n  k  PS n  nk  ∑ j0 n
j
p j 1 − p n−j 17

onde ⌈kn⌉ é o primeiro inteiro maior ou igual à kn.

Usando a aproximação Normal com correção para continuidade temos, de


acôrdo com 16:
12
nk 12 −np
PX n  k  PS n  nk ≃ PZ  
np1−p

nk 12 −np

≃  −np1−p 1
2
e −z /2 dz
2
18

Exercício 3:

Estima-se que aproximadamente 60% dos visitantes de um shopping center


adquirem algum produto de loja. Calculamos a probabilidade que, em um grupo
de n  10 visitantes, no máximo 6 deles sejam compradores de alguma loja.
Calculamos também a probabilidade que em um grupo de 100 visitantes, não mais
que 60 deles sejam compradores. Idem para a probabilidade que não se tenha
mais de 600 compradores em um grupo de n  1000 visitantes.

Solução:

a) Probabilidades exatas

Usando o resultado 17, obtemos, para n  10 :

PX n ≤ 0. 6  PS 10  6  ∑ j0


6 10
j
0. 6 j 0. 4 10−j  0. 617 72

Para n  100 :

PX n ≤ 0. 6  PS 100  60  ∑ j0


60 100
j
0. 6 j 0. 4 100−j  0. 537 92

Para n  1000 :

PX n ≤ 0. 6  PS 1000  600  ∑ j0


600 1000
j
0. 6 j 0. 4 1000−j  0. 512 01

b) Aproximação Normal

Pela expressão 18 temos, para n  10:

PX n ≤ 0. 6  PS 10  6 ≃ PZ ≤ 6. 5 − 6 


2. 4
6.5−6
 
≃ e −z /2 dz  0. 626 56
1 2
2.4
− 2
13
Para n  100:

PX n  0. 6  PS 100  60 ≃ PZ  60. 5 − 60 


24

60.5−60
 
≃ e −z /2 dz  0. 540 65
1 2
24
− 2

Para n  1000

PX n  0. 6  PS 1000  600 ≃ PZ  600. 5 − 600 


240

600.5−600
 
≃ e −z /2 dz  0. 512 87
1 2
240
− 2

Comparando estas probabilidades, para n  10, a probabilidade aproximada


representa 1000. 626 56/0. 617 72  101. 43% da probabilidade exata, a maior em
1. 43%.

Para n  100, a probabilidade aproximada representa 1000. 540 65/


0. 537 92  100. 51% da probabilidade exata, a maior em 0. 51%.

Para n  1000, a probabilidade aproximada representa 1000. 512 87/0. 512 01 
100. 17% da probabilidade exata, a maior em 0, 17% .

Vemos assim que, à medida que n aumenta, a aproximação Normal fica mais
precisa.



Você também pode gostar