Probabilidades e Estatística
Licenciatura Engenharia Eletrotécnica
FORMULÁRIO (2022/23)
Estatística Descritiva
Dados não agrupados:
xi – i-ésimo valor observado na amostra, i=1,…,n;
x(i) - i-ésimo valor observado na amostra depois desta estar ordenada por ordem crescente; , i=1,…,n.
Média Variância
𝒏 𝒏 𝒏
𝟏 𝟏 𝟏
𝒙 = ∑ 𝒙𝒊
𝟐
𝒔 = ∑(𝒙𝒊 − 𝒙)𝟐 = [∑ 𝒙𝟐𝒊 − 𝒏(𝒙)𝟐 ]
𝒏 𝒏−𝟏 𝒏−𝟏
𝒊=𝟏 𝒊=𝟏 𝒊=𝟏
Dados agrupados:
Xi - k-ésimo valor da variável i=1,…,k
Ou
Xi – ponto médio do k-ésimo intervalo i=1,…,k
Média Variância
𝒌 𝒌 𝒌 𝒌
𝟏 𝟏 𝟏
𝒙 = ∑ 𝑭𝒊 𝑿𝒊 = ∑ 𝒇𝒊 𝑿𝒊 𝒔 = 𝟐
∑ 𝑭𝒊 (𝑿𝒊 − 𝒙)𝟐 = [∑ 𝑭𝒊 𝑿𝟐𝒊 − 𝒏(𝒙)𝟐 ]
𝒏 𝒏−𝟏 𝒏−𝟏
𝒊=𝟏 𝒊=𝟏 𝒊=𝟏 𝒊=𝟏
Dados agrupados ou não agrupados:
Mediana Quantis
Se n ímpar: 𝒎𝒆 = 𝒙(𝒏+𝟏) 𝟏
(𝒙 + 𝒙(𝒏𝒑+𝟏) ) 𝒔𝒆 𝒏𝒑 𝒊𝒏𝒕𝒆𝒊𝒓𝒐
𝟐
𝑸𝒑 = {𝟐 (𝒏𝒑) 𝟎≤𝒑 ≤𝟏
𝒙 𝒏 +𝒙 𝒏 𝒙(⌊𝒏𝒑⌋+𝟏) 𝒔𝒆 𝒏𝒑 𝒏ã𝒐 é 𝒊𝒏𝒕𝒆𝒊𝒓𝒐
( ) ( +𝟏)
𝟐 𝟐
Se n par: 𝒎𝒆 = 𝟐
⌊𝒏𝒑⌋ − 𝒑𝒂𝒓𝒕𝒆 𝒊𝒏𝒕𝒆𝒊𝒓𝒂 𝒅𝒆 (np)
1
Desvio Padrão Coeficiente de variação
𝑠
𝑠𝑥 = √𝑠𝑥2 𝑐𝑣 = |𝑥̅ | × 100%
Amplitude Amostral Amplitude Inter-Quartis
𝑥(𝑛) − 𝑥(1) 𝐼𝑄 = 𝑄3/4 − 𝑄1/4
Outliers moderados Outliers Extremos
𝑄1/4 − 3 𝐼𝑄 ≤ 𝑥𝑖 < 𝑄1/4 − 1,5 𝐼𝑄 𝑥𝑖 < 𝑄1/4 − 3. 𝐼𝑄
ou
𝑄3/4 + 1,5 𝐼𝑄 < 𝑥𝑖 ≤ 𝑄3/4 + 3 𝐼𝑄 𝑥𝑖 > 𝑄3/4 + 3. 𝐼𝑄
Calculo Combinatório
𝑛 𝑛! 𝑛!
𝐴′𝑘 = 𝑛𝑘 𝑛
𝐴𝑘 = (𝑛−𝑘)! 𝑛
𝐶𝑘 =
𝑘!(𝑛−𝑘)!
Probabilidades
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴 ∩ 𝐵) − 𝑃(𝐴 ∩ 𝐶) − 𝑃(𝐵 ∩ 𝐶) + 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶)
𝑃(𝐴∩𝐵) 𝑃(𝐵|𝐴𝑘 )𝑃(𝐴𝑘 )
𝑃(𝐴|𝐵) = 𝑃(𝐵) = ∑𝑛𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) 𝑃(𝐴𝑘 |𝐵) = ∑𝑛
𝑃(𝐵) 𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
Variáveis Aleatórias
X Discreta:
𝝁 = 𝑬(𝑿) = ∑ 𝒙𝒊 𝒇(𝒙𝒊 ) 𝜎 2 = 𝑉𝑎𝑟(𝑋) = ∑(𝑥𝑖 − 𝜇)2 𝑓(𝑥𝑖 ) 𝐸(𝑋 2 ) = ∑ 𝑥𝑖2 𝑓(𝑥𝑖 )
𝒊 𝑖 𝑖
X Contínua:
+∞ +∞ +∞
2 2 2)
𝝁 = 𝑬(𝑿) = ∫ 𝒙𝒇(𝒙) 𝒅𝒙 𝜎 = 𝑉𝑎𝑟(𝑋) = ∫ (𝑥 − 𝜇) 𝑓(𝑥) 𝑑𝑥 𝐸(𝑋 = ∫ 𝑥 2 𝑓(𝑥) 𝑑𝑥
−∞ −∞ −∞
2
X Discreta ou Contínua:
𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙)
𝑬(𝒌) = 𝒌 (𝒌 ∈ 𝑰𝑹) 𝑉𝑎𝑟(𝑘) = 0 (𝑘 ∈ 𝐼𝑅)
𝑬(𝒌𝑿) = 𝒌𝑬(𝑿) (𝒌 ∈ 𝑰𝑹) 𝑉𝑎𝑟(𝑘𝑋) = 𝑘 2 𝑉𝑎𝑟(𝑋) (𝑘 ∈ 𝐼𝑅)
𝑬(𝑿 + 𝒀) = 𝑬(𝑿) + 𝑬(𝒀)
𝑬(𝒂𝑿 ± 𝒃) = 𝒂𝑬(𝑿) ± 𝒃 (𝒂, 𝒃 ∈ 𝑉𝑎𝑟(𝑎𝑋 ± 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋) (𝑎, 𝑏 ∈ 𝐼𝑅)
𝑰𝑹)
𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 − 𝜇)2 = 𝐸(𝑋 2 ) − 𝜇2
Se X e Y são independentes então, 𝑬(𝑿𝒀) = 𝑬(𝑿)𝑬(𝒀)
𝑽𝒂𝒓(𝑿 ± 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀)
Distribuições
Distribuição Binomial: 𝐗 ∩ 𝐁(𝐧, p)
𝒏
𝑪𝒙 𝑝𝒙 (𝟏 − 𝑝)𝒏−𝒙 , 𝒙 = 𝟎, 𝟏, … , 𝒏
𝒇(𝒙) = { 𝑬(𝑿) = 𝒏𝑝 𝑽𝒂𝒓(𝑿) = 𝒏𝑝(𝟏 − 𝑝)
𝟎 , 𝒙 ≠ 𝟎, 𝟏, … , 𝒏
Distribuição Hipergeométrica: 𝐗 ∩ 𝐇(𝐍, 𝐧, 𝐊)
𝑲
𝑪𝒙 𝑵−𝑲𝑪𝒏−𝒙
𝑵𝑪 , 𝒙 = 𝐦𝐚𝐱 {𝟎, 𝒏 − (𝑵 − 𝑲)}, … , 𝒎𝒊𝒏(𝑲, 𝒏) 𝑲 𝑲
𝒇(𝒙) = { 𝒏 𝑬(𝑿) = 𝒏 = 𝒏𝒑 com 𝒑 =
𝑵 𝑵
𝟎 , 𝒙 ≠ 𝟎, 𝟏, … , 𝒎𝒊𝒏(𝑴, 𝒏)
𝑲 𝑲 𝑵−𝒏
𝑽𝒂𝒓(𝑿) = 𝒏 𝑵 (𝟏 − 𝑵) 𝑵−𝟏 = 𝒏𝒑(𝟏 −
𝑵−𝒏
𝒑)
𝑵−𝟏
Distribuição Poisson: 𝐗 ∩ 𝐏(𝛌), 𝛌 > 𝟎
𝝀𝒙
𝒆−𝝀 , 𝒙 = 𝟎, 𝟏, 𝟐, …
𝒇(𝒙) = { 𝒙! 𝑬(𝑿) = 𝝀 𝑽𝒂𝒓(𝑿) = 𝝀
𝟎 , 𝐨𝐮𝐭𝐫𝐨𝐬 𝐯𝐚𝐥𝐨𝐫𝐞𝐬 𝐝𝐞 𝒙
Distribuição Uniforme: 𝐗 ∩ 𝐔(𝐚, 𝐛)
𝟏 𝟎 ,𝒙 < 𝒂
,𝒂 ≤ 𝒙 ≤ 𝒃 𝒙−𝒂 𝒂+𝒃 (𝒃−𝒂)𝟐
𝒇(𝒙) = {𝒃−𝒂 𝑭(𝒙) = {𝒃−𝒂 ,𝒂 ≤ 𝒙 ≤ 𝒃 𝑬(𝑿) = 𝑽𝒂𝒓(𝑿) =
𝟐 𝟏𝟐
𝟎 ,𝒙 < 𝒂 ⋁ 𝒙 > 𝒃 𝟏 ,𝒙 > 𝒃
Distribuição Exponencial: 𝐗 ∩ 𝐄(𝛌), 𝛌 > 𝟎
𝟎 ,𝒙 < 𝟎 𝟎 ,𝒙 < 𝟎 𝟏 𝟏
𝒇(𝒙) = { 𝑭(𝒙) = { 𝑬(𝑿) = 𝝀 𝑽𝒂𝒓(𝑿) = 𝝀𝟐
𝝀𝒆−𝝀𝒙 ,𝒙 ≥ 𝟎 𝟏 − 𝒆−𝝀𝒙 ,𝒙 ≥ 𝟎
𝑹(𝒕) = 𝒆−𝝀𝒕 , 𝒕 > 𝟎 𝝀(𝒕) = 𝝀
3
X ~ Weibull (k , c) , k>0; c>0
𝐱 𝒌 𝒙 𝒌
−( )
𝒇(𝒙) = { 𝒌 𝒄−𝒌 𝒙𝒌−𝟏 𝒆 𝐜 , 𝒙>𝟎 𝑭(𝒙) = 𝟏 − 𝒆
−( )
𝒄
𝟎 , 𝒙≤𝟎
𝟏 𝟐 𝟏 𝟐
𝑬(𝒙)=c 𝜞 (𝟏 + ) 𝑽𝒂𝒓(𝒙)=𝒄𝟐 𝜞 (𝟏 + )- 𝒄𝟐 [𝜞 (𝟏 + )]
𝒌 𝒌 𝒌
𝒌
[−(𝒕⁄𝒄) ] 𝒌 𝒌−𝟏
𝑹(𝒕) = 𝒆 , 𝒕>𝟎 𝝀(𝒕) = 𝒕 , 𝒕>𝟎
𝒄𝒌
Função gama:
+∝ 𝟏
𝜞(𝒙) = ∫𝟎 𝒆−𝒕 𝒕𝒙−𝟏 𝒅𝒕 𝜞(𝒙) = (𝒙 − 𝟏)! (𝒄𝒐𝒎 𝒙 𝒊𝒏𝒕𝒆𝒊𝒓𝒐 𝒑𝒐𝒔𝒊𝒕𝒊𝒗𝒐) 𝜞 (𝟐) = √𝝅 𝜞(𝒙 + 𝟏) = 𝒙𝜞(𝒙)
Distribuição Normal: 𝐗 ∩ 𝐍(𝛍, 𝛔)
𝟏 𝒙−𝝁 𝟐
𝟏 − ( ) 𝑿−𝝁
𝒇(𝒙) = 𝝈√𝟐𝝅 𝒆 𝟐 𝝈 𝑬(𝑿) = 𝝁 𝑽𝒂𝒓(𝑿) = 𝝈𝟐 𝒁= 𝝈
Teorema da Aditividade da Distribuição Normal
𝑛 𝑛 𝑛
𝑋𝑖 (𝑖 = 1, … , 𝑛) v.a. independentes e 𝑋𝑖 ∩ 𝑁(𝜇𝑖 , 𝜎𝑖 ) ⇒ 𝑇 = ∑ 𝑎𝑖 𝑋𝑖 ∩ 𝑁 (∑ 𝑎𝑖 𝜇𝑖 , √∑ 𝑎𝑖2 𝜎𝑖2 )
𝑖=1 𝑖=1 𝑖=1
⇒ 𝑇 = ∑ 𝑋𝑖 ∩ 𝑁(𝑛µ, 𝜎√𝑛)
𝑋𝑖 (𝑖 = 1, … , 𝑛) v.a. independentes e 𝑋𝑖 ∩ 𝑁(µ, 𝜎)
𝑖=1
Teorema do Limite Central
Sejam X i (i = 1, … , n) v.a.independentes e identicamente distribuídas com E(X i ) = μ e Var(X i ) = σ2 .
Nestas condições e para uma dimensão amostral,n suficientemente grande (na prática,n>30),
𝒏
𝑺 𝑻 − 𝒏𝝁 ̅−𝝁
𝑿
𝐂𝐨𝐦 𝑻 = ∑ 𝑿𝒊 𝒆 ̅=
𝑿 ~̇ 𝑵(𝟎, 𝟏) ~̇ 𝑵(𝟎, 𝟏)
𝒏 𝝈√𝒏 𝝈/√𝒏
𝒊=𝟏
Fiabilidade
+∞ 𝒇(𝒕)
𝑹(𝒕) = 𝑷(𝑻 > 𝒕) = 𝟏 − 𝑭(𝒕) = ∫𝒕 𝒇(𝒕)𝒅𝒕 , 𝒕>𝟎 𝝀(𝒕) = 𝑹(𝒕)
Sistema em Série: 𝑹𝑺 (𝒕) = 𝑹𝟏 (𝒕) 𝑹𝟐 (𝒕) … 𝑹𝒎 (𝒕)
Sistema em Paralelo: 𝑹𝑺 (𝒕) = 𝟏 − (𝟏 − 𝑹𝟏 (𝒕))(𝟏 − 𝑹𝟐 (𝒕)) … (𝟏 − 𝑹𝒎 (𝒕))
4
Inferência para µ
𝑛
1
Estimador: 𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1
Variáveis Fulcrais (com σ desconhecido):
𝑋̅−𝜇
População normal : T=𝑆 ∩ 𝑡(𝑛−1)
⁄
√𝑛
̅ −μ
X
Qualquer população e amostra grande (n>30): Z=S ∩̇ N(0,1)
⁄
√n
Estatísticas de teste (com σ desconhecido):
𝑋̅−𝜇0
População normal : T= 𝑆⁄ ∩ 𝑡(𝑛−1)
√𝑛
̅ −μ0
X
Qualquer população e amostra grande (n>30): Z= S⁄ ∩̇ N(0,1)
√n
Inferência para 𝝅 (populações de Bernoulli) com n>30
𝑛
1
Estimador: 𝑝 = ∑ 𝑋𝑖
𝑛
𝑖=1
𝑝−𝜋
Variável Fulcral: 𝑍 = ∩̇ 𝑁(0,1)
𝜋(1−𝜋)
√
𝑛
𝑝−𝜋0
Estatística de teste: 𝑍 = ∩̇ 𝑁(0,1)
𝜋 (1−𝜋0 )
√ 0
𝑛
Teste à diferença de valores esperados de duas populações
Amostras independentes e com grandes dimensões (n1>30 e n2>30):
Estatística de teste (com σ1 e σ2 desconhecidos):
(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 )0
𝑍= ∩̇ 𝑁(0,1)
2 2
√𝑆1 ⁄𝑛 + 𝑆2 ⁄𝑛
1 2
Amostras emparelhadas:
Estatística de teste (com σ1 e σ2 desconhecidos):
̅ −(𝜇𝐷 )
𝐷
0
Populações normais : 𝑇= 𝑆𝐷 ∩ 𝑡(𝑛−1) ∩ 𝑡(𝑛−1)
⁄
√𝑛
̅−(𝜇𝐷 )
𝐷
Quaisquer populações e amostras grandes (n>30): Z= 𝑆𝐷
0
∩̇ N(0,1)
⁄
√𝑛
5
Correlação e Regressão
𝑛 𝑛 𝑛 𝑛
∑(𝑥𝑖 − 𝑥)(𝑦𝑖 − 𝑦) = ∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥𝑦 ∑(𝑥𝑖 − 𝑥)2 = ∑ 𝑥𝑖2 − 𝑛(𝑥)2
𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑𝑛𝑖=1(𝑥𝑖 − 𝑥)(𝑦𝑖 − 𝑦) 𝑐𝑜𝑣(𝑥, 𝑦)
𝑐𝑜𝑣(𝑥, 𝑦) = 𝑟=
𝑛−1 𝑠𝑥 𝑠𝑦
Equação do modelo: 𝑌 = 𝑌|𝑥 = 𝛽0 + 𝛽1 𝑥 + 𝐸
∑𝑛
𝑖=1(𝑥𝑖 −𝑥)(𝑦𝑖 −𝑦)
Reta de regressão estimada: 𝑦̂ = 𝑎 + 𝑏𝑥 𝑎 = 𝑦 − 𝑏𝑥 𝑏= ∑𝑛 2
𝑖=1(𝑥𝑖 −𝑥)
𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖
𝑛 1 (𝑥̅ )2 𝑠𝑦.𝑥
1 𝑠𝑎 = 𝑠𝑦.𝑥 √ + 𝑛 𝑠𝑏 =
𝑠𝑦.𝑥 =√ ∑(𝑦𝑖 − 𝑦̂𝑖 )2 𝑛 ∑𝑖=1(𝑥𝑖 − 𝑥)2 √∑𝑛𝑖=1(𝑥𝑖 − 𝑥)2
𝑛−2
𝑖=1
Estimação e Testes de Hipóteses para os parâmetros da recta de regressão e previsão
Parâmetro Estimador Variável fulcral Estatística de teste
𝐴 = 𝑌̅ − 𝐵𝑋̅ 𝐴 − 𝛽0 𝐴 − (𝛽0 )0
𝛽0 ∩ 𝑡(𝑛−2) ∩ 𝑡(𝑛−2)
𝑆𝐴 𝑆𝐴
𝛽1 ∑𝑛𝑖=1 (𝑋𝑖 − 𝑋) (𝑌𝑖 − 𝑌) 𝐵 − 𝛽1 𝐵 − (𝛽1 )0
∩ 𝑡(𝑛−2) ∩ 𝑡(𝑛−2)
𝐵= 2 𝑆𝐵 𝑆𝐵
∑𝑛𝑖=1 (𝑋𝑖 − 𝑋)
𝑌̂0 − 𝑌0
∩ 𝑡(𝑛−2)
2
𝑌0 𝑌̂0 = 𝐴 + 𝐵𝑥0 1 (𝑥0 − 𝑋)
𝑆𝑦.𝑥 √(1 + + 2)
𝑛
∑𝑛𝑖=1 (𝑋𝑖 − 𝑋)