TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Conceito de População e Amostra

Projeto de pesquisa: Conceito de População e Amostra. Pesquise 860.000+ trabalhos acadêmicos

Por:   •  13/11/2013  •  Projeto de pesquisa  •  12.049 Palavras (49 Páginas)  •  408 Visualizações

Página 1 de 49

MINISTÉRIO DA CIÊNCIA E TECNOLOGIA

INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS

ESTATÍSTICA - CURSO 1

Dra. Corina da Costa Freitas

MSc. Camilo Daleles Rennó

MSc. Manoel Araújo Sousa Júnior

Material de referência para o curso 1 de estatística.

INPE

São José dos Campos

Março de 2003

SUMÁRIO

Pág.

LISTA DE FIGURAS

LISTA DE TABELAS

CAPÍTULO 1 – INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . 11

1.1 –O que é Estatística? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2 – Conceitos de População e Amostra . . . . . . . . . . . . . . . . . . . . 12

1.3 – Tipos de Variáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.4 – Distribuições de Freqüência . . . . . . . . . . . . . . . . . . . . . . . . 14

1.4.1 – Freqüências e freqüências relativas . . . . . . . . . . . . . . . . . . . 14

1.5 – Distribuição de freqüências e sua representação gráfica para variáveis

quantitativas discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.6 – Distribuição de freqüências e sua representação gráfica para variáveis

quantitativas contínuas . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.6.1 – Curvas de Freqüência . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.7 – Medidas de Tendência Central . . . . . . . . . . . . . . . . . . . . . . . 20

1.7.1 – Média . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.7.2 – Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.7.3 – Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.8 – Medidas de Dispersão . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.8.1 – Amplitude Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.8.2 – Desvio Médio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.8.3 – Coeficiente de Variação . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.8.4 – Variância (¾2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.8.5 – Desvio Padrão (¾) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.9 – Momentos, Assimetria e Curtose . . . . . . . . . . . . . . . . . . . . . 24

1.9.1 – Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.9.2 – Assimetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.9.3 – Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

CAPÍTULO 2 – PROBABILIDADE . . . . . . . . . . . . . . . . . . 27

2.1 – Definição de Probabilidade utilizando Freqüência Relativa . . . . . . . 27

2.2 – Experimentos aleatórios . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.3 – Espaço Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.4 – Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.5 – Classe dos Eventos Aleatórios . . . . . . . . . . . . . . . . . . . . . . . 30

2.6 – Definição Clássica de Probabilidade . . . . . . . . . . . . . . . . . . . . 30

2.7 – Operações com Eventos Aleatórios - Teoria dos Conjuntos . . . . . . . 32

2.7.1 – União de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.7.2 – Intersecção de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.7.3 – Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.7.4 – Eventos Mutuamente Exclusivos ou Disjuntos . . . . . . . . . . . . . 34

2.8 – Definição Axiomática de Probabilidade . . . . . . . . . . . . . . . . . . 35

2.9 – Eventos Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.10 –Análise Combinatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.10.1 –Permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.10.2 –Combinações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.11 –Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.12 –Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.13 –Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.13.1 –Teoria de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

CAPÍTULO 3 – VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES 47

3.1 – Variável Aleatória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.2 – Tipos de Variáveis Aleatórias, Função de Probabilidade e Função

Densidade de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . 47

3.3 – Função de Distribuição Acumulada . . . . . . . . . . . . . . . . . . . . 50

3.4 – Distribuições Bivariadas . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.4.1 – Distribuições Conjuntas Discretas . . . . . . . . . . . . . . . . . . . . 52

3.4.2 – Distribuições Conjuntas Contínuas . . . . . . . . . . . . . . . . . . . 54

3.5 – Distribuições Marginais . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.6 – Esperança de Uma Variável Aleatória . . . . . . . . . . . . . . . . . . . 58

3.6.1 – Distribuições Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.6.2 – Distribuições Contínuas . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.6.3 – Propriedades da Esperança . . . . . . . . . . . . . . . . . . . . . . . 59

3.7 – Variância de uma Variável Aleatória . . . . . . . . . . . . . . . . . . . 61

3.7.1 – Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . 61

3.7.2 – Variáveis Aleatórias Contínuas . . . . . . . . . . . . . . . . . . . . . 62

3.7.3 – Propriedades da Variância . . . . . . . . . . . . . . . . . . . . . . . . 62

3.8 – Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3.8.1 – Momentos Centrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.8.2 – Função Geratriz de Momentos . . . . . . . . . . . . . . . . . . . . . . 64

3.8.3 – Propriedades das Funções Geradoras de Momentos . . . . . . . . . . 65

3.9 – Funções de uma Variável Aleatória . . . . . . . . . . . . . . . . . . . . 66

3.9.1 – Variável com Distribuição Discreta . . . . . . . . . . . . . . . . . . . 66

3.9.2 – Variável com Distribuição Contínua . . . . . . . . . . . . . . . . . . . 67

3.10 –Algumas Distribuições Discretas . . . . . . . . . . . . . . . . . . . . . . 69

3.10.1 –Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.10.2 –Distribuição Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . 74

3.10.3 –Distribuição Binomial Negativa . . . . . . . . . . . . . . . . . . . . . 75

3.10.4 –Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . 76

3.10.5 –Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 77

3.11 –Algumas Distribuições Contínuas Importantes . . . . . . . . . . . . . . 81

3.11.1 –Distribuição Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3.11.2 –Distribuição Normal Padrão . . . . . . . . . . . . . . . . . . . . . . . 82

3.11.3 –Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . 87

3.11.4 –Distribuição Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 89

3.11.5 –Distribuição Exponencial . . . . . . . . . . . . . . . . . . . . . . . . 92

3.11.6 –Distribuição Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

3.11.7 –Distribuição Normal Bivariada . . . . . . . . . . . . . . . . . . . . . 94

3.11.8 –Distribuição Normal Multivariada . . . . . . . . . . . . . . . . . . . . 95

CAPÍTULO 4 – INFERÊNCIA ESTATÍSTICA . . . . . . . . . . . . 97

4.1 – Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4.1.1 – Parâmetros de uma distribuição . . . . . . . . . . . . . . . . . . . . . 97

4.1.2 – Estatística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4.1.3 – Estimação Pontual e por Intervalo . . . . . . . . . . . . . . . . . . . 97

4.2 – Estimação Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4.2.1 – Método dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . 98

4.2.2 – Método da Máxima Verossimilhança . . . . . . . . . . . . . . . . . . 99

4.3 – Estimadores Não Tendenciosos . . . . . . . . . . . . . . . . . . . . . . 101

4.4 – A Distribuição Â2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

4.5 – A Distribuição t-student . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4.5.1 – Distribuição da Média Amostral . . . . . . . . . . . . . . . . . . . . . 105

4.5.2 – Distribuição da diferença de médias amostrais . . . . . . . . . . . . . 106

4.6 – Distribuição F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

4.6.1 – Distribuição da Razão entre duas Variâncias Amostrais . . . . . . . . 107

4.7 – Estimação por Intervalos - Intervalos de Confiança . . . . . . . . . . . 108

4.7.1 – Intervalo de Confiança para a Média Populacional ¹ . . . . . . . . . 108

4.7.2 – Intervalo de Confiança para a Variância Populacional ¾2 . . . . . . . 111

4.7.3 – Intervalo de Confiança para a diferença de médias de duas Populações 112

4.7.4 – Intervalo de Confiança para Razão das Variâncias ¾2

1=¾2

2 . . . . . . . 114

4.7.5 – Intervalo de Confiança para uma Proporção . . . . . . . . . . . . . . 114

4.7.6 – Intervalo de Confiança para Diferença de Proporções . . . . . . . . . 115

CAPÍTULO 5 – TESTES DE HIPÓTESES . . . . . . . . . . . . . . 117

5.1 – Hipótese Nula e Hipótese Alternativa . . . . . . . . . . . . . . . . . . . 117

5.2 – Região Crítica do Teste . . . . . . . . . . . . . . . . . . . . . . . . . . 117

5.3 – Erros do Tipo I e Erros do tipo II . . . . . . . . . . . . . . . . . . . . . 118

5.4 – Teste da hipótese de que a média populacional tem um valor específico 118

5.4.1 – ¾ conhecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

5.4.2 – ¾ desconhecido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

5.5 – Controlando o erro tipo II (¯) . . . . . . . . . . . . . . . . . . . . . . . 122

5.6 – Teste da hipótese de que a variância populacional tem um valor específico 123

5.7 – Teste da razão de variâncias . . . . . . . . . . . . . . . . . . . . . . . . 125

5.8 – Teste da hipótese da igualdade de duas médias . . . . . . . . . . . . . . 127

5.8.1 – ¾2

1 e ¾2

2 conhecidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

5.8.2 – ¾2

1 e ¾2

2 desconhecidas, mas ¾2

1 = ¾2

2 . . . . . . . . . . . . . . . . . . . 127

5.8.3 – ¾2

1 e ¾2

2 desconhecidas, mas ¾2

1 6= ¾2

2 . . . . . . . . . . . . . . . . . . . 128

5.9 – Teste para proporção . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

5.9.1 – Diferença entre proporções . . . . . . . . . . . . . . . . . . . . . . . . 133

5.10 –Teste Â2 da independência . . . . . . . . . . . . . . . . . . . . . . . . . 134

CAPÍTULO 6 –ANÁLISE DE VARIÂNCIA . . . . . . . . . . . . . . 139

6.1 – Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

6.2 – Análise de Variância de Um Fator . . . . . . . . . . . . . . . . . . . . . 140

6.3 – Teste para Igualdade de Várias Variâncias . . . . . . . . . . . . . . . . 150

6.4 – Análise de Variância de Dois Fatores . . . . . . . . . . . . . . . . . . . 152

6.5 – Análise de Variância de Dois Fatores - Várias observações por cela . . . 157

6.5.1 – Identidade da Soma de Quadrados . . . . . . . . . . . . . . . . . . . 161

LISTA DE FIGURAS

Pág.

1.1 Figura tirada de : Costa Neto, P. L. de O. - Estatística, Ed. Edgard

Blücher Ltda - 1977 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2 Histograma de freqüência . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3 Histograma de freqüências relativas . . . . . . . . . . . . . . . . . . . . 17

1.4 Histograma de freqüências relativas acumuladas . . . . . . . . . . . . . 18

1.5 Histograma e Poligono de freqüência . . . . . . . . . . . . . . . . . . . 19

1.6 Histograma freqüência acumulada . . . . . . . . . . . . . . . . . . . . . 20

1.7 Histograma freqüência acumulada . . . . . . . . . . . . . . . . . . . . . 21

1.8 Exemplos de curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.1 União dos conjuntos A e B . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.2 Intersecção dos conjuntos A e B . . . . . . . . . . . . . . . . . . . . . . 33

2.3 Complemento do conjunto A . . . . . . . . . . . . . . . . . . . . . . . . 34

2.4 A probabilidade a priori nas f.d.p. das classes . . . . . . . . . . . . . . 45

3.1 Gráfico de P(x) para dois dados . . . . . . . . . . . . . . . . . . . . . . 48

3.2 Gráfico de fdp de f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.3 Gráfico F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.4 Meyer, página 75. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.5 Degroot, página 93. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.6 Degroot, página 95. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.7 Gráfico de f(x) de uma função uniforme . . . . . . . . . . . . . . . . . 90

3.8 Probabilidade de uma variável aleatória uniforme . . . . . . . . . . . . 90

6.1 Distribuições normais com mesma variância (¾2) para todas as populações 142

6.2 Distribuições normais com mesma média (¹) para todas as populações 142

6.3 Efeitos de fertilizantes e variedades de trigo, sem interação . . . . . . . 157

6.4 Efeitos de fertilizantes e variedades de trigo, sem interação . . . . . . . 158

LISTA DE TABELAS

Pág.

1.1 Número de filhos dos 50 funcionários da empresa Fictícia S.A. . . . . . 15

1.2 Freqüências, freqüências relativas e freqüências relativas acumuladas . . 17

1.3 Altura (cm) dos 50 funcionários da empresa Fictícia S.A. . . . . . . . . 18

1.4 Altura (cm) dos funcionários da Fictícia S.A. . . . . . . . . . . . . . . 20

5.1 Representação do erros do tipo I e II . . . . . . . . . . . . . . . . . . . 118

5.2 Canditados selecionados . . . . . . . . . . . . . . . . . . . . . . . . . . 134

5.3 Valores da ^E

ij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

CAPÍTULO 1

INTRODUÇÃO

1.1 O que é Estatística?

Estatística é a ciência que investiga os processos de obtenção, organização e análise

de dados sobre uma população, e os métodos de tirar conclusões ou fazer predições

com base nesses dados.

Este conceito tem um significado mais amplo do que aquele que usualmente se

dá à palavra "estatística", isto é, o resultado de contagens sobre a ocorrência de

determinados eventos e a sua representação através de gráficos e tabelas, como,

por exemplo, as estatísticas de ocorrência de chuvas numa certa época do ano; as

estatísticas sobre os ganhadores de prêmios de loteria; as estatísticas de renda média

por região etc.

Em geral, este conceito mais popular de estatística corresponde somente à

organização e descrição dos dados relativos a um determinado experimento ou

situação e não trata da análise e interpretação desses dados. Ele está associado

à parte da Estatística que denominamos de Estatística Descritiva. A Estatística

Descritiva, portanto, é a parte da Estatística que se preocupa com a organização e

descrição de dados experimentais.

Além da Estatística Descritiva há a Estatística Indutiva ou Estatística Inferencial

que consiste, fundamentalmente, das técnicas de análise e interpretação dos dados. A

partir de um conjunto restrito de dados, chamado de amostra, organizado e descrito

pela Estatística Descritiva, a Estatística Indutiva procura fazer inferências ou, em

outras palavras, tirar conclusões sobre a natureza desses dados e estender essas

conclusões a conjuntos maiores de dados, chamados de populações.

É evidente que, para que a Estatística Indutiva possa deduzir conclusões válidas, é

necessário que se tomem alguns cuidados para a escolha da amostra a ser utilizada.

Esses cuidados, mais propriamente chamados de critérios, são estabelecidos por uma

técnica chamada de amostragem.

Contudo, para permitir que a Estatística Indutiva proporcione conclusões válidas

não basta utilizar as técnicas de organização e descrição dos dados da Estatística

11

Descritiva e as técnicas corretas de amostragem. Fica ainda faltando uma última

ferramenta que é o cálculo de probabilidades. O cálculo de probabilidades é um

conjunto de técnicas matemáticas que visa determinar as chances de ocorrência de

eventos regidos pelas leis do acaso.

A Figura 1.1 abaixo interrelaciona os conceitos citados:

Fig. 1.1 – Figura tirada de : Costa Neto, P. L. de O. - Estatística, Ed. Edgard

Blücher Ltda - 1977

1.2 Conceitos de População e Amostra

População ou Universo é a totalidade dos objetos concebíveis de uma certa classe

em consideração.

Amostra são os objetos selecionados da população. Se esses objetos são selecionados

de tal maneira que cada objeto tem a mesma chance de ser selecionado do que o

outro, temos uma amostra aleatória

1.3 Tipos de Variáveis

É necessário, inicialmente, que se defina qual(is) a(s) características dos elementos

que deverá(ão) ser verificada(s). Ou seja, não se trabalha estatisticamente com os

elementos existentes, mas com alguma(s) característica(s) desses elementos. Por

exemplo, os elementos a serem estudados podem ser a população de uma cidade,

mas estaremos interessados em alguma característica como renda, idade, sexo, tipo

de moradia, etc. Trabalha-se portanto com os valores de uma variável (que é a

característica de interesse), e não com os elementos originalmente considerados. A

escolha da variável (ou variáveis) de interesse dependerá dos objetivos do estudo

12

estatístico em questão. Esta característica (variável) poderá ser qualitativa ou

quantitativa.

A variável será qualitativa quando resultar de uma classificação por tipos ou

atributos, como nos seguintes exemplos:

² a) População: alunos de uma universidade

Variável: sexo (masculino ou feminino).

² b) População: moradores de uma cidade

Variável: tipo de habitação (casa, apartamento, barraco, etc.).

² c) População: peças produzidas por uma máquina

Variável: qualidade (perfeita ou defeituosa).

² d) Óbitos em um hospital, nos últimos cinco anos

Variável: causa mortis (moléstia cardiovasculares, cânceres, etc)

² e) População Brasileira

Variável: cor da pele (branca, preta, amarela, vermelha, parda).

A variável será quantitativa quando seus valores forem expressos em números. Pode

ser subdivida em:

1 - quantitativa discreta: pode assumir apenas valores pertences a um

conjunto enumerável;

2 - quantitativa contínua: pode assumir qualquer valor em um certo

intervalo de variação.

Alguns exemplos de variáveis quantitativas discretas são:

² a) População: habitações de uma cidade.

Variável: número de banheiros.

² b) População: casais residentes em uma cidade.

Variável: número de filhos.

13

² c) População: aparelhos produzidos em uma linha de montagem.

Variável: número de defeitos por unidade.

² d) População: Bolsa de valores de São Paulo.

Variável: número de ações negociadas.

Alguns exemplos de variáveis quantitativas contínuas são:

² a) População: estação meteorológica de uma cidade.

Variável: precipitação pluviométrica durante um mês.

² b) População: pregos produzidos por uma máquina.

Variável: comprimento.

² c) População: propriedades agrícolas do Brasil.

Variável: produção de algodão.

² d) População: indústrias de uma cidade.

Variável: índice de liquidez.

² e) População: pessoas residentes em uma cidade.

Variável: idade.

Para atingir os objetivos da Estatística descritiva, os dados observados são muitas

vezes sintetizados e apresentados em formas de tabelas ou gráficos, os quais irão

fornecer rápidas e seguras informações a respeito das variáveis em estudo. Uma

das tabelas mais utilizadas na estatística é a distribuição de freqüências. Os gráficos

associados à ela são o gráfico de freqüências (denominado histograma, para o caso de

variáveis quantitativas contínuas), o polígono de freqüências, o gráfico de freqüência

acumulada e o polígono de freqüência acumulada.

1.4 Distribuições de Freqüência

Muitas vezes os gráficos são elaborados utilizando-se as freqüências dos valores da

variável. Para tal, necessitamos definir alguns conceitos importantes.

1.4.1 Freqüências e freqüências relativas

Definimos freqüência de um valor de uma variável (qualitativa ou quantitativa)

como sendo o número de vezes que aquele valor se repete no conjunto de dados

14

experimentais. Usaremos a notação fi para representar a freqüência do i-ésimo valor

observado.

Sendo n o número total de valores observados e k o número de diferentes valores

obtidos, tem-se:

Xk

i=0

fi = n (1.1)

Exemplo

Seja o conjunto de dados abaixo (Tabela 1.1), que representa o número filhos de

funcionários da empresa Fictícia S.A..

TABELA 1.1 – Número de filhos dos 50 funcionários da empresa Fictícia S.A.

Num.de Filhos Freqüência Freq. Relativa

0 15 0,30

1 10 0,20

2 13 0,26

3 6 0,12

4 3 0,06

5 3 0,06

Total 50 1,00

As freqüências são:

² f0 = 15 (corresponde ao valor 0)

² f1 = 10 (corresponde ao valor 1)

² f2 = 13 (corresponde ao valor 2)

² f3 = 6 (corresponde ao valor 3)

² f4 = 3 (corresponde ao valor 4)

² f5 = 3 (corresponde ao valor 5)

15

Chamamos de distribuição de freqüências à associação das freqüências aos

respectivos valores observados. Portanto, a representação acima caracteriza uma

distribuição de freqüências. Do mesmo modo, podemos definir freqüência relativa de

um valor observado como sendo a relação:

p

0

i =

fi

n

(1.2)

Verifica-se facilmente que:

Xk

i=0

p

0

i = 1 (1.3)

1.5 Distribuição de freqüências e sua representação gráfica para

variáveis quantitativas discretas

A Tabela 1.1 representa a distribuição de frquencias para a variável discreta "número

de filhos". A representação gráfica de uma distribuição de freqüência de uma variável

quantitativa discreta é denominada gráfico de freqüências (Figura 1.2). Utilizando o

exemplo, temos o seguinte gráfico de frequencias

Fig. 1.2 – Histograma de freqüência

Uma outra representação utilizada é a do gráfico das freqüências acumuladas

16

e freqüências relativas acumuladas. Tomando-se os dados do exemplo anterior

podemos calcular as freqüências, freqüências acumuladas e freqüências relativas

acumuladas dos diversos valores. Esse cálculo está ilustrado na Tabela 1.2.

TABELA 1.2 – Freqüências, freqüências relativas e freqüências relativas acumuladas

Num.de Filhos Freqüência Freq. Relativa Freq. Relativa

Acumulada

0 15 0,30 0,30

1 10 0,20 0,50

2 13 0,26 0,76

3 6 0,12 0,88

4 3 0,06 0,94

5 3 0,06 1,00

Total 50 1,00 -

Com os dados acima podemos construir o gráfico de freqüências relativas (Figura

1.3) e freqüências relativas acumuladas (Figura 1.4).

Fig. 1.3 – Histograma de freqüências relativas

17

Fig. 1.4 – Histograma de freqüências relativas acumuladas

1.6 Distribuição de freqüências e sua representação gráfica para

variáveis quantitativas contínuas

As variáveis quantitativas contínuas diferem um pouco das discretas na sua forma

de representação gráfica. Para entender essa diferença temos que nos lembrar que

as variáveis contínuas, por definição, têm os seus valores definidos num intervalo

contínuo dos números reais. Portanto, não tem sentido falar em freqüência de

repetição de um determinado valor, pois os valores raramente se repetem. A Tabela

1.3 representa uma distribuição de freqüência para a variável contínua "altura de

funcionários".

TABELA 1.3 – Altura (cm) dos 50 funcionários da empresa Fictícia S.A.

Altura Freqüência Freq. Relativa

151 - 159 2 0,04

159 - 167 11 0,22

167 - 175 18 0,36

175 - 183 10 0,20

183 - 191 8 0,16

191 - 199 1 0,02

Total 50 1,00

Intervalos de classes: O símbolo que define uma classe

18

Exemplo: 151 ¡ 158

Limites da classe: Os números extremos de cada intervalo

Exemplo: o limite inferior da 1a classe é 151 e o limite superior da 1a classe é 158

Ponto médio de classe:ponto intermediário do intervalo de classe

Exemplo: Ponto médio da 1a classe é 154; 5

Amplitude do intervalo de classe: é a diferença entre os limites reais superior e

inferior

Exemplo: amplitude da 1a classe é 8

Com os dados da Tabela 1.1 podemos construir o gráfico de freqüências do mesmo

modo que fizemos para as variáveis discretas. A diferença mais importante é que,

agora, as freqüências são associadas a intervalos de valores (classes de freqüências)

e não mais a valores individuais da variável em estudo.

Além disto, o gráfico, neste caso, é chamado de histograma (Figura 1.5) que consiste

em um conjunto de retângulos, com centro no ponto médio e larguras iguais aos

intervalos das classes, e áreas proporcionais às freqüências das classes.

A seguir está mostrado o histograma correspondente aos dados do exemplo acima,

e o polígono de freqüências, que é o gráfico obtido unindo-se os pontos médios dos

patamares do histograma.

Fig. 1.5 – Histograma e Poligono de freqüência

19

O próximo gráfico é o polígono de freqüências acumuladas. Ele é construído unindo-se

as freqüências acumuladas ao final de cada classe de freqüências (Tabela 1.4). Pode

ser construído também com as freqüências relativas acumuladas e, neste caso, ele se

chama polígono de freqüências relativas acumuladas. O primeiro está mostrado na

Figura 1.6.

TABELA 1.4 – Altura (cm) dos funcionários da Fictícia S.A.

Altura Num. de Funcionários

< 151 0

< 159 2

< 167 13

< 175 31

< 183 41

< 191 50

Fig. 1.6 – Histograma freqüência acumulada

1.6.1 Curvas de Freqüência

Tipos de curvas de freqüência: As curvas de freqüência aparecem, na prática,

sob diversas formas características, como as indicadas na Figura 1.7

1.7 Medidas de Tendência Central

As medidas mais comuns são: média, mediana, moda

20

Fig. 1.7 – Histograma freqüência

1.7.1 Média

A média de um conjunto de N números X1;X2; :::;XN é representada por ¹X

e

definida por:

¹X

=

X1 + X2 + ::: + XN

N

=

PN

i=1 Xi

N

(1.4)

De modo geral, para dados agrupados, temos:

¹X

»=

Xm

i=1

xi

µ

fi

N

(1.5)

onde: xi é o ponto médio da classe i; fi

N é a freqüência relativa da classe i; e m é

número de classes.

1.7.2 Mediana

A mediana de um conjunto de números, ordenados em ordem de grandeza, é o valor

médio (N impar) ou a média aritmética dos dois valores centrais (N par).

Exemplos:

f3; 4; 4; 5; 6; 8; 8; 8; 10g tem mediana 6

21

f5; 6; 7; 9; 11; 12; 13; 17g tem mediana 10

1.7.3 Moda

A moda é o valor que ocorre com mais freqüência. A moda pode não existir e, mesmo

que exista, pode não ser única.

Exemplos:

f1; 1; 3; 3; 5; 7; 7; 7; 11; 13g tem moda 7

f3; 5; 8; 11; 13; 18g não tem moda

f3; 5; 5; 5; 6; 6; 7; 7; 7; 11; 12g tem duas modas 5 e 7 (bimodal)

1.8 Medidas de Dispersão

O grau ao qual os dados numericos tendem a dispersar-se em torno de um valor

médio chama-se variação ou dispersão dos dados.

As medidas mais comuns são: amplitude total, desvio médio, desvio padrão e

variância.

1.8.1 Amplitude Total

É a diferença entre o maior e o menor valor

Exemplos:

A amplitude total de f4; 7; 9; 11; 11; 15; 20g é 16

1.8.2 Desvio Médio

O desvio médio de X1;X2; :::;XN pode ser obtido pela seguinte fórmula

DM =

PN

i=1 j Xi ¡ ¹X

j

N

(1.6)

Exemplo:

O desvio médio de f2; 3; 6; 8; 11g é 2:8

22

Para dados agrupados (em tabelas de freqüência) o desvio padrão é computado por:

DM »=

1

N

Xm

i=1

j Xi ¡ ¹X

j fi (1.7)

Onde: xi é o ponto médio da classe i, fi é a freqüência da classe i, e m é o número

de classes.

1.8.3 Coeficiente de Variação

O efeito da variação ou dispersão em relação à média é medido pela dispersão

relativa, que é definida por:

DR =

Disp: absoluta

Media

Se a dispersão absoluta for o desvio padrão, a dispersão relativa é denominada

coeficiente de variação (CV ), que é pode ser representado por:

CV =

s

¹X

(1.8)

Obs: O Coeficiente de variação deixa de ser útil quando o ¹X

está próximo de zero.

1.8.4 Variância (¾2)

É o quadrado do desvio padrão

¾2 =

PN

i=1 (xi ¡ ¹X

)2

N

(1.9)

Observação: O desvio padrão corresponde aos dados de uma amostra é em geral

calculado com o divisor (N ¡ 1) ao invés de N, para que se tornem estimadores

não tendenciosos. Neste caso geralmente utiliza-se as letras s e s2 para representar

o desvio padrão e a variância, respectivamente.

23

1.8.5 Desvio Padrão (¾)

O desvio padrão de X1;X2; :::;XN é dado por:

¾ =

sPN

i=1 (xi ¡ ¹X

)2

N

(1.10)

Para dados agrupados o desvio padrão é computado por:

¾ »=

sPm

i=1 (xi ¡ ¹X

)2fi

N

(1.11)

1.9 Momentos, Assimetria e Curtose

1.9.1 Momentos

Se X1;X2; :::;XN são os N valores assumidos pela variável X, define-se momento

de ordem r por:

m

0

r =

Xr

1 + Xr

2 + ::: + XrN

N

=

PN

i=1 Xr

i

N

(1.12)

e o momento de ordem r centrado na média pela equação

mr =

PN

i=1

¡

Xi ¡ ¹X¢r

N

(1.13)

Observação:

¹X

= m

0

1

¾2 = m

0

2 ¡

¡

m

0

1

¢2

m1 = 0

¾2 = m2

24

Para dados agrupados os momentos podem ser calculados por:

mr =

Pm

i=1

¡

xi ¡ ¹X

¢r

fi

N

(1.14)

onde: xi é o ponto médio da classe i, fi é a freqüência e m o número de classes.

1.9.2 Assimetria

É o grau de desvio, ou afastamento da simetria, de uma distribuição.

Para distribuições assimétricas, a média tende a situar-se do mesmo lado da moda

que a cauda mais longa. Por isso, uma medida de assimetria é proporcionada pela

diferença entre a média e a moda. Ela pode ser tomada sem dimensão através de

uma divisão por uma medida de dispersão, como o desvio padrão, resultando em:

Assimetria =

¹X

¡ moda

s

(1.15)

Uma outra medida importânte é o coeficiente do momento de assimetria, que

utiliza o 3o momento centrado, expresso sob a forma não dimensional, definida por

a3 =

m3

s3 =

pm3

m32

(1.16)

1.9.3 Curtose

É o grau de achatamento de uma distribuição, e é muitas vezes considerado em

relação a uma distribuição normal como as indicadas na Figura 1.8

Fig. 1.8 – Exemplos de curtose

25

Uma medida de curtose é o coeficiente do momento de curtose definido por:

a4 =

m4

s4 =

m4

m22

(1.17)

Para a distribuição normal, a4 = 3. Por essa razão, a curtose é freqüêntemente

definida por (a4 ¡ 3), que é positivo para uma distribuição leptocúrtica, e negativo

para uma platicúrtica e nulo para uma normal.

26

CAPÍTULO 2

PROBABILIDADE

2.1 Definição de Probabilidade utilizando Freqüência Relativa

Uma da definições de probabilidade utiliza a freqüência relativa, já que as freqüências

relativas são estimativas de probabilidades. Podemos então definir a probabilidade

como a proporção (ou freqüência relativa) em uma seqüência muito grande de

experimentos.

P(e1) =

lim

n ! 1

n1

n

(2.1)

Onde:

e1 é o resultado;

n é o número total de vezes que se repete o experimento;

n1 é o número de vezes que o resultado e1 ocorre;

n1

n é portanto a freqüência relativa de e1.

Observação: Se o experimento tiver N resultados possíveis e1; e2; :::; eN então:

0 · P(ei) · 1 i = 1; 2; :::;N

P(e1) + P(e2) + ::: + P(eN) = 1 (2.2)

2.2 Experimentos aleatórios

Encontramos na natureza dois tipos de fenômenos: determinísticos e aleatórios.

Os fenômenos determinísticos são aqueles em que os resultados são sempre os

mesmos, qualquer que seja o número de ocorrências verificadas.

Nos fenômenos aleatórios, os resultados não serão previsíveis, mesmo que haja um

grande número de repetições do mesmo fenômeno. Por exemplo, se considerarmos

um pomar com centenas de laranjeiras, as produções de cada planta serão diferentes

e não previsíveis, mesmo que as condições de temperatura, pressão, umidade, solo,

etc. sejam as mesmas para todas as árvores.

Experimentos ou fenômenos aleatórios são aqueles que, mesmo repetidos várias

vezes sob condições semelhantes, apresentam resultados imprevisíveis.

27

Exemplos:

a) Lançamento de uma moeda honesta;

b) Lançamento de um dado;

c) Lançamento de duas moedas;

d) Retirada de uma carta de um baralho completo de 52 cartas;

e) Determinação da vida útil de um componente eletrônico.

2.3 Espaço Amostral

Defini-se espaço amostral (S) ao conjunto de todos os resultados possíveis de um

experimento.

Nos exemplos acima, os espaços amostrais são:

a) S = fc; rg

b) S = f1; 2; 3; 4; 5; 6g

c) S = f(c; r); (c; c); (r; c); (r; r)g

d) S = fAo; :::;Ko;Ap; :::;Kp;Ac; :::;Kc;Ae; :::;Keg

e) S = ft 2 R=t ¸ 0g

Cada um dos elementos de S que corresponde a um resultado recebe o nome de

ponto amostral.

2.4 Eventos

Chamamos de evento (E) a qualquer subconjunto do espaço amostral S de um

experimento aleatório.

Assim, o evento aleatório pode ser um único ponto amostral ou uma reunião deles.

Qualquer que seja o evento E, se E ½ S, então E é um evento de S.

Se E = S, E é chamado evento certo.

Se E ½ S e E é um conjunto unitário, E é chamado evento elementar.

Se E = ; , E é chamado evento impossível.

28

Exemplos:

1. No lançamento de um dado, onde S = f1; 2; 3; 4; 5; 6g, temos:

a) A = f2; 4; 6g ½ S; logo A é um evento de S;

b) B = f1; 2; 3; 4; 5; 6g ½ S; logo B é um evento certo de S (B = S);

c) C = f4g ½ S; logo C é um evento elementar de S;

d) D = ; ½ S; logo D é um evento impossível de S.

Um evento é sempre definido por uma sentença. Assim os eventos acima podem ser

definidos pelas sentenças: a) "Obter um número par"; b) "Obter um número menor

ou igual a seis"; c) "Obter um número maior que três e menor que cinco"; d) "Obter

um número maior que seis".

2. Lançam-se dois dados. Enumerar os seguintes eventos:

a) Saída de faces iguais;

b) Saída de faces cuja soma seja igual a 10;

c) Saída de faces cuja soma seja menor que 2;

d) Saída de faces cuja soma seja menor que 15;

e) Saída de faces onde uma face é o dobro da outra.

Neste caso, o espaço amostral pode ser representado por uma tabela de dupla

entrada:

S =

D2 1 2 3 4 5 6

D1

1 (1, 1) (1, 2) (1, 3) (1, 4) (1, 5) (1, 6)

2 (2, 1) (2, 2) (2, 3) (2, 4) (2, 5) (2, 6)

3 (3, 1) (3, 2) (3, 3) (3, 4) (3, 5) (3, 6)

4 (4, 1) (4, 2) (4, 3) (4, 4) (4, 5) (4, 6)

5 (5, 1) (5, 2) (5, 3) (5, 4) (5, 5) (5, 6)

6 (6, 1) (6, 2) (6, 3) (6, 4) (6, 5) (6, 6)

Os eventos pedidos são:

29

a) A = f(1; 1); (2; 2); (3; 3); (4; 4); (5; 5); (6; 6)g;

b) B = f(4; 6); (5; 5); (6; 4)g;

c) C = ; (evento impossível);

d) D = S (evento certo);

e) E = f(1; 2); (2; 1); (2; 4); (3; 6); (4; 2); (6; 3)g.

2.5 Classe dos Eventos Aleatórios

Definição: É o conjunto formado de todos os eventos (subconjuntos) do espaço

amostral. Para efeito de exemplo, consideremos o espaço amostral finito: S =

fe1; e2; e3; e4g. A classe dos eventos aleatórios é:

F(S) =

8>>>>>><

>>>>>>:

;

fe1g ; fe2g ; fe2g ; fe4g ;

fe1; e2g ; fe1; e3g ; fe1; e4g ; fe2; e3g ; fe2; e4g ; fe3; e4g ;

fe1; e2; e3g ; fe1; e2; e4g ; fe1; e3; e4g ; fe2; e3; e4g ;

fe1; e2; e3; e4g

9>>>>>>=

>>>>>>;

2.6 Definição Clássica de Probabilidade

Dado um experimento aleatório, sendo S o seu espaço amostral, vamos admitir que

todos os elementos de S tenham a mesma chance de acontecer, ou seja, que S é um

conjunto eqüiprovável.

Definimos probabilidade de um evento A (A ½ S) ao número real P(A), tal que:

P(A) =

no de resultados favoraveis a A

no de resultados possiveis

=

n(A)

n(S)

(2.3)

Exemplo:

Considerando o lançamento de um dado, pede-se:

a) A probabilidade do evento A "obter um número par na face superior".

Temos:

S = f1; 2; 3; 4; 5; 6g ) n(S) = 6

A = f2; 4; 6g ) n(A) = 3:

Logo, P(A) = 3

6 = 1

2 :

30

b) A probabilidade do evento B "obter um número menor ou igual a 6 na

face superior".

Temos:

S = f1; 2; 3; 4; 5; 6g ) n(S) = 6

B = f1; 2; 3; 4; 5; 6g ) n(B) = 6:

Logo, P(B) = 6

6 = 1:

c) A probabilidade do evento C "obter um número 4 na face superior".

Temos:

S = f1; 2; 3; 4; 5; 6g ) n(S) = 6

C = f4g ) n(C) = 1:

Logo, P(C) = 1

6 :

d) A probabilidade do evento D "obter um número maior que 6 na face

superior".

Temos:

S = f1; 2; 3; 4; 5; 6g ) n(S) = 6

D = ; ) n(D) = 0:

Logo, P(D) = 0

6 = 0:

Exercícios Complementares:

1 - No lançamento de dois dados, calcule a probabilidade de se obter soma

igual a 5.

2 - Qual a probabilidade de sair uma figura quando retiramos uma carta de

um baralho de 52 cartas?

3 - Retira-se uma carta de um baralho completo de 52 cartas.

a) Qual a probabilidade de sair uma carta de copas ou de ouros?

b) Qual a probabilidade de sair um rei ou uma carta de espadas?

4 - No lançamento de um dado, qual a probabilidade de se obter um número

não inferior a 5?

5 - São dados dois baralhos de 52 cartas. Tiramos, ao mesmo tempo, uma

carta do primeiro baralho e uma carta do segundo. Qual a probabilidade

de tiramos uma dama e um rei, não necessariamente nessa ordem?

31

6 - Dois dados são lançados conjuntamente. Determine a probabilidade de a

soma ser 10 ou maior que 10.

2.7 Operações com Eventos Aleatórios - Teoria dos Conjuntos

Consideremos um espaço amostral finito S = fe1; e2; e3; :::; eng. Sejam A e B dois

eventos de F(S). As seguintes operações são definidas:

2.7.1 União de conjuntos

Definição: A [ B = fei 2 S = ei 2 A ou ei 2 Bg ; i = 1; : : : ; n. Portanto, o

evento união é formado pelos pontos amostrais que pertençam a pelo menos um

dos conjuntos. A união pode ser vista na Figura 2.1.

Fig. 2.1 – União dos conjuntos A e B

Observação:

1) A [ B = B [ A

2) A [ A = A

3) A [ Á = A

4) Se A ½ B ) A [ B = B (em particular A [ S = S).

32

A representação da união de n eventos A1;A2; :::;An (A1 [A2 [:::[An) é dada por:

[n

i=1

Ai (2.4)

2.7.2 Intersecção de conjuntos

Definição: A\B = fei 2 S = ei 2 A e ei 2 Bg ; i = 1; : : : ; n. Portanto, o evento

intersecção é formado pelos pontos amostrais que pertençam simultaneamente aos

eventos A e B. A intersecção pode ser vista na Figura 2.2.

Fig. 2.2 – Intersecção dos conjuntos A e B

Observação:

1) A \ B = B \ A

2) A \ A = A

3) A \ Á = Á

4) Se A ½ B ) A \ B = A (em particular A \ S = A)

5) (A \ B) \ C = A \ (B \ C).

A representação da intersecção de n eventos A1;A2; :::;An (A1 \A2 \:::\An) é dada

33

por:

\n

i=1

Ai (2.5)

2.7.3 Complemento

Definição: S ¡A = A = Ac = fei 2 S = ei =2 Ag ; i = 1; : : : ; n. O complemento de

um evento A é, portanto, o evento contendo todos os resultados no espaço amostral

S que não pertençam a A. O complemento de A pode ser visto na Figura 2.3.

Observação:

Fig. 2.3 – Complemento do conjunto A

1) (Ac)c = A

2) A [ Ac = S

3) Ác = S

4) A \ Ac = Á

5) Sc = Á.

2.7.4 Eventos Mutuamente Exclusivos ou Disjuntos

Definição: Dois eventos são ditos mutuamente exclusivos ou disjuntos se A e B

não puderem ocorrer juntos, ou seja a realização de um exclui a realização do outro.

Segue que A e B são disjuntos se A \ B = Á.

34

Exemplo: Lançam-se duas moedas. Sejam os eventos

A: saída de faces iguais e

B: saída de cara na primeira moeda.

Determinar os eventos:

A [ B, A \ B, A, B,(A [ B),(A \ B), (A \ B), (A [ B), B ¡ A, A ¡ B, A \ B, e

B \ A.

Resolução:

S = f(c; c); (c; r); (r; c); (r; r)g

A = f(c; c); (r; r)g

B = f(c; c); (c; r)g :

A [ B = f(c; c); (c; r); (r; r)g

A \ B = f(c; c)g

A = f(c; r); (r; c)g

B = f(r; c); (r; r)g

(A [ B) = f(r; c)g

(A \ B) = f(c; r); (r; c); (r; r)g

(A \ B) = f(r; c)g

(A [ B) = f((c; r); (r; c); (r; r)g

B ¡ A = f(c; r)g

A ¡ B = f(r; r)g

A \ B = f(c; r)g

B \ A = f(r; r)g :

Obs: Note que (A [ B) = (A \ B) e (A \ B) = (A [ B)

2.8 Definição Axiomática de Probabilidade

Para um dado experimento, é necessário atribuir para cada evento A no espaço

amostral S um número P(A) que indica a probabilidade de A ocorrer. Para satisfazer

a definição matemática de probabilidade, este número P(A) deve satisfazer três

axiomas específicos:

Axioma 1: Para qualquer evento A, P(A) ¸ 0

Axioma 2: P(S) = 1

35

Axioma 3: Para qualquer seqüência infinita de eventos disjuntos A1;A2; :::

P(

1[

i=1

Ai) =

X1

i=1

P(Ai) (2.6)

A definição matemática de probabilidade pode agora ser dada como segue:

A distribuição de probabilidade, ou simplesmente a probabilidade, no espaço

amostral S é uma especificação de números P(A) que satisfazem os axiomas 1, 2, e

3.

Teorema 1: P(Á) = 0

Teorema 2: Para qualquer seqüência finita de eventos disjuntos A1;A2; :::;An

P(

[n

i=1

Ai) =

Xn

i=1

P(Ai) (2.7)

Teorema 3: Para qualquer evento A,

P(Ac) = 1 ¡ P(A) (2.8)

Teorema 4: Para qualquer evento A, 0 · P(A) · 1

Teorema 5: Se A ½ B, então P(A) · P(B)

Teorema 6: Para qualquer dois eventos A e B

P(A [ B) = P(A) + P(B) ¡ P(A \ B) (2.9)

Observação:

1.

P(A1 [ A2 [ A3) = P(A1) + P(A2) + P(A3)

= ¡[P(A1 \ A2) + P(A2 \ A3) + P(A1 \ A3)]

= +P(A1 \ A2 \ A3) (2.10)

36

2. Se dois eventos são mutuamente exclusivos, então P(A [ B) = P(A) + P(B).

2.9 Eventos Independentes

Suponha que dois eventos A e B ocorram independentes um do outro no sentido que

a ocorrência ou não de um deles tenha nenhuma relação, e nenhuma influência na

ocorrência ou na não ocorrência do outro. Nessas condições

P(A \ B) = P(A) ¢ P(B) (2.11)

Definição: Dois eventos são independentes se P(A \ B) = P(A) ¢ P(B)

Teorema 1: Se dois eventos A e B são independentes, então os eventos A e Bc

tambem são independentes.

Exercícios Complementares:

1 - De dois baralhos de 52 cartas retiram-se, simultaneamente, uma carta

do primeiro baralho e uma carta do segundo. Qual a probabilidade de a

carta do primeiro baralho ser um rei e a do segundo ser o 5 de paus?

2 - Uma urna A contém 3 bolas brancas, 4 pretas, 2 verdes; uma urna B

contém 5 bolas brancas, 2 pretas, 1 verde; uma urna C contém 2 bolas

brancas, 3 pretas, 4 verdes. Uma bola é retirada de cada urna. Qual a

probabilidade de as três bolas retiradas da primeira, segunda e terceira

urnas serem respectivamente, branca, preta e verde?

3 - De um baralho de 52 cartas retiram-se, ao acaso, duas cartas sem

reposição. Qual a probabilidade de a primeira ser o ás de paus e a segunda

ser o rei de paus?

4 - São dados dois baralhos de 52 cartas. Tiramos, ao mesmo tempo, uma

carta do primeiro baralho e uma carta do segundo. Qual a probabilidade

de tiramos uma dama e um rei, não necessariamente nessa ordem?

5 - Dois dados são lançados conjuntamente. Determine a probabilidade de a

soma ser 10 ou maior que 10.

6 - A probabilidade de que um homem esteja vivo daqui a 30 anos é 2/5; a

37

de sua mulher é de 2/3. Determinar a probabilidade de que daqui a 30

anos:

a) ambos estejam vivos;

b) somente o homem esteja vivo;

c) somente a mulher esteja viva;

d) nenhum esteja vivo;

e) pelo menos um esteja vivo.

7 - Sejam A e B eventos tais que P(A) = 0,2; P(B) = p; P(A [ B) = 0,6.

Calcular p considerando A e B:

a) Mutuamente exclusivos

b) Independentes.

2.10 Análise Combinatoria

Definição: Defini-se fatorial de n por n!

n! = n(n ¡ 1)(n ¡ 2)(n ¡ 3):::1

Por definição 0! = 1

2.10.1 Permutação

Amostra sem reposição: Uma permutação de n objetos diferentes, tomados r de

cada vez, é um arranjo de r dos n objetos, levando-se em consideração a ordem de

sua disposição.

O número de permutações de n objetos, tomados r de cada vez é representado por

Pr

n e calculado por

Pr

n = n(n ¡ 1)(n ¡ 2):::(n ¡ r + 1) =

n!

(n ¡ r)!

(2.12)

Em particular Pn

n = n!

O número de permutações de n objetos distribuidos em grupos dos quais n1 são

38

iguais, n2 são iguais, ... nk são iguais, é:

n!

n1!n2!:::nk!

onde n1 + n2 + ::: + nk = n (2.13)

Amostragem com Reposição: Considere uma amostragem com reposição, como

por exemplo uma urna contendo n bolas e se selecione k bolas, uma de cada vez,

repondo a bola na urna após o evento. O espaço amostral S será composto por nk

elementos.

Exemplo:

1. Suponha que um clube possua 25 membros, e que um presidente e um secretário

serão escolhidos entre os membros. De quantas maneiras estes cargos podem ser

preenchidos?

Solução: Como as posições podem ser preenchidas, escolhendo-se primeiro o

presidente dentre os 25 membros, e depois o secretário dentre os 24 restantes,

o número total de maneiras que os cargos poderão ser preenchidos será P2

25 =

(25)(24) = 600.

2. Suponha que seis livros diferentes serão arrumados em uma estante. O número de

possíveis permutações dos livros é 6! = 720.

3. O número de permutações da palavra estatistica é 11!

3!2!2!2!1!1! = 831:600.

2.10.2 Combinações

Uma combinação de n objetos tomados r de cada vez, é uma escolha dos n objetos,

não se levando em consideração a ordem de sua posição. O número de combinações

de n objetos, tomados k de cada vez, é representado por Ck

n ou

³nk

´

.

O cálculo (ou fórmula) para combinações pode ser obtido através de uma permutação

que pode ser construida da seguinte maneira: Sabe-se que o número de permutações

de n elementos tomados k de cada vez é Pk

n . Primeiro uma combinação particular de

k elementos é selecionada. Cada diferente permutação desses k elementos levará

a uma permutação na lista. Como há k! permutações desses k elementos, esta

combinação particular produzirá k! permutações na lista. Quando uma combinação

diferente de k elementos é selecionada, k! outras permutações na lista são obtidas.

Como cada combinação de k elementos produzirá k! permutações, o número total

39

de permutações na lista será de k! ¢ Ck

n, isto é Pk

n = k! ¢ Ck

n. Portanto

Ck

n =

Pk

n

k!

=

n!

k!(n ¡ k)!

(2.14)

2.11 Probabilidade Condicional

Se A e B são dois eventos, a probabilidade de A ocorrer, depois de B ter

acontecido, é representada por P(A=B) (probabilidade de A dado B) e é denominada

probabilidade condicional de A, depois de B ter ocorrido.

Neste caso, a probabilidade do evento A muda após se ter aprendido que o evento

B ocorreu. Como se sabe que o evento B ocorreu, então sabemos que o resultado

do evento A será um dos incluídos em B. Então, para calcular a probabilidade

que A ocorrerá, devemos considerar o conjunto dos possíveis resultados de B que

também resultariam na ocorrência de A. Este conjunto é precisamente A \ B. É

portanto natural definir-se a probabilidade condicional P(A=B) como a proporção

da probabilidade total P(B) que é representadoa pela probabilidade P(A \ B).

Portanto, tem-se a seguinte definição:

P(A=B) =

P(A \ B)

P(B)

dado P(B) > 0 (2.15)

Se P(B) = 0 a P(A=B) não é definida.

Probabilidade Condicional para Eventos Independentes

Se A e B forem independentes, então P(A \ B) = P(A) ¢ P(B). Logo,

P(A=B) =

P(A) ¢ P(B)

P(B)

= P(A) (2.16)

Da mesma forma,

P(B=A) =

P(B) ¢ P(A)

P(A)

= P(B) (2.17)

Teorema: Suponha que A1;A2; :::;An sejam quaisquer eventos tais que

40

P(A1) > 0; P(A1 \ A2) > 0; :::; P(A1 \ A2 \ A3::: \ An¡1) > 0. Então

P(A1 \ A2 \ ::: \ An) =

= P(A1) ¢ P(A2=A1) ¢ P(A3=A1 \ A2):::

P(An=A1 \ A2 \ :::An¡1): (2.18)

Exemplo:

Suponha que 4 bolas sejam selecionadas, uma de cada vez, sem reposição, de uma

urna contendo v bolas vermelhas e a azuis. (v ¸ 2; a ¸ 2). Qual a probabilidade de

se obter uma sequência de resultados vermelho, azul, vermelho, azul?

vj : uma bola vermelha é retirada na j-ésima vez

aj : uma bola azul é retirada na j-ésima vez

onde j=1,2,3,4

P(v1; a2; v3; a4) =

= P(v1) ¢ P(a2=v1) ¢ P(v3=v1 \ a2) ¢ P(a4=v1 \ a2 \ v3)

= v

v+a ¢ a

v+a¡1 ¢ v¡1

v+a¡2 ¢ a¡1

v+a¡3

2.12 Probabilidade Total

Seja S o espaço amostral de um experimento, e considere k eventos A1;A2; : : : ;Ak

em S tal que A1;A2; : : : ;Ak sejam disjuntos e

Sn

i=1 Ai = S. Diz-se, etnão, que estes

eventos formam uma partição de S.

Se os eventos A1;A2; :::;Ak formam uma partição de S, e B é qualquer outro evento

em S, então:

B = (A1 \ B) [ (A2 \ B) [ ::: [ (Ak \ B).

Como os k eventos do lado direito da equação acima são disjuntos:

P(B) =

Xk

j=1

P(Aj \ B) (2.19)

41

Mas P(Aj \ B) = P(Ai) ¢ P(B=Aj) onde j = 1; 2; :::; k. Então

P(B) =

Xk

j=1

P(Aj) ¢ P(B=Aj) (2.20)

De forma a apresentar a fórmula para a probabilidade total e a fórmula de

Bayes, vamos supor que exista numa imagem duas classes de cobertura terrestre,

denominadas A1 e A2, e que os pixels desta imagem serão classificados como

pertencentes a A1 ou A2 segundo o valor de alguma característica (por exemplo,

nível de cinza). Suponha qua a probabilidade de ocorrência da classe A1 seja P(A1)

e a probabilidade de ocorrência da classe A2 seja P(A2). Obviamente pixels da

classe A1 podem ser erroneamente classificados como sendo da classe A2, e vice

versa. Designemos estas probabilidades, P(CA2=A1) e P(CA1=A2) respectivamente.

Suponha que seja tomado aleatoriamente um pixel desta imagem e classificado,

segundo o valor da característica estudada. Deseja-se saber a probabilidade deste

pixel ser classificado como A1.

Aqui, temos que considerar o seguinte: o pixel pode ser classificado em A1(CA1) e ser

realmente de A1 ou pode ser classificado em A1(CA1) e ser realmente de A2. Então

podemos escrever que:

CA1 = (CA1 \ A1) [ (CA1 \ A2)

Logo,

P(CA1) = P [(CA1 \ A1) [ (CA1 \ A2)]

como os eventos são mutuamente exclusivos, temos:

P(CA1) = P(CA1 \ A1) + P(CA1 \ A2)

Uma vez que os eventos CA1 e A1 (i = 1; 2) não são independentes, vem:

P(CA1) = P(CA1=A1)P(A1) + P(CA1=A2)P(A2)

42

ou

P(CA1) =

X

i

P(CA1 \ Ai) =

X

i

P(CA1=Ai)P(Ai) (2.21)

A expressão da equação 2.21 acima é normalmente chamada de fórmula para a

probabilidade total.

2.13 Teorema de Bayes

Sejam os eventos A1;A2; :::;Ak que formam uma partição do espaço S tal que

P(Aj) > 0 para todo j = 1; 2; :::; k, e seja B qualquer evento tal que P(B) > 0.

Então, para i = 1; 2; :::; k, temos:

P(Ai=B) =

P(Ai)P(B=Ai)

Pk

j=1 P(Aj)P(B=Aj)

(2.22)

Prova: Pela definição de probabilidade condicional,

P(Ai=B) =

P(Ai \ B)

P(B)

(2.23)

O numerador da equação 2.22 é igual a P(Ai \ B) e o denominador é igual a P(B)

(pela fórmula para probabilidade total).

Imaginemos agora uma situação onde um pixel é classificado como A1. Quer-se

saber qual a probabilidade dele ser realmente um pixel da classe A1. Note que aqui é

fornecida uma informação sobre o resultado da classificação do pixel, isto é, é dito que

ele foi classificado como pertencente à classe A1 dado que o mesmo foi classificado

em A1.

Em outras palavras, quer-se

P(A1=CA1) =

P(A1 \ CA1)

P(CA1)

(2.24)

Note que o denominador da expressão 2.24 acima é dado em 2.21, podendo-se

43

expressar

P(A1=CA1) =

PP(CAi=A1)P(A1)

i P(CA1=Ai)P(Ai)

(2.25)

Esta formulação pode obviamente ser generalizada para uma situação onde os

eventos A1;A2; :::;An formam um sistema completo de resultados de alguma

operação e onde K denota um resultado arbitrário desta operação. Neste caso tem-se

que:

P(Ai=K) =

P(Ai \ K)

P(K)

=

PP(K=Ai)P(Ai)

P(K=Ai)P(Ai)

(2.26)

que é conhecida como a fórmula de Bayes e que tem aplicações diversas na área de

sensoriamento remoto.

A seguir é dada uma aplicação específica utilizada em Classificação.

2.13.1 Teoria de Bayes

Suponha que seja medida alguma característica x de uma cena (por exemplo, o

nível de cinza de cada pixel) e que tenha que se decidir a qual de duas classes (por

exemplo, vegetação ou solo) um pixel pertence. Este é um problema unidimensional,

de classificação em duas classes, no domínio de característica da imagem. Se um

número grande de pixels está disponível, que pode ser considerado representativo

de cada classe (isto é, dados de treinamento) podemos calcular um histograma da

frequência relativa da característica para cada classe, conforme mostrado na Figura

2.4.

Considere-as como aproximações das funções densidade de probabilidade (f.d.p.)

contínuas de uma amostra infinita de dados. Essas funções densidade de

probabilidade condicionais, P(x=A1) e P(x=A2) tem área unitária e descrevem a

probabilidade de um pixel ter valor x da característica, dado que ele está na classe A1

ou na classe A2, respectivamente. Cada f.d.p. pode ser delineada pela probabilidade

a priori P(Ai) que a classe Ai ocorra na área de interesse na imagem.

Estas funções de probabilidade delineadas P(x=Ai)P(Ai) representam a

probabilidade que um pixel tenha o valor x na característica e está na classe Ai. Em

44

Fig. 2.4 – A probabilidade a priori nas f.d.p. das classes

sensoriamento remoto, estas probabilidades a priori podem ser estimadas através de

fontes externas de informação sobre a cena, tais como pesquisas de campo, mapas

ou dados históricos.

Para se tomar uma decisão de classificação para um pixel, precisamos conhecer

as probabilidades a posteriori que o pixel pertença à cada uma das classes de

treinamento, dado que o pixel tem valor x na característica. Esta probabilidade

P(Ai=x) pode ser calculada com a regra de Bayes

P(Ai=x) =

P(x=Ai)P(Ai)

P(x)

(2.27)

Onde

P(x) =

X2

1

P(x=Ai)P(Ai) (2.28)

Uma regra de decisão pode agora ser formada com as probabilidades a posteriori da

equação 2.27. Se um pixel tem valor x na característica, uma abordagem intuitiva

satisfatória é designar o pixel à classe A1 se P(A1=x) é maior que P(A2=x).

Semelhantemente, o pixel seria designado à classe A2 se P(A2=x) é maior que

P(A1=x). Sendo P(x) igual para as duas classes na equação 2.28 ela pode ser ignorada

numa comparação dos dois e podemos escrever a regra de decisão de Bayes

45

- um pixel pertence à classe A1 se P(x=A1)P(A1) > P(x=A2)P(A2)

- um pixel pertence à classe A2 se P(x=A2)P(A2) > P(x=A1)P(A1)

Numa situação atípica onde as duas probabilidades a posteriori são extamente iguais,

isto é

P(A1=x) = P(A2=x)

ou

P(x=A1)P(A1) = P(x=A2)P(A2)

uma decisão não pode ser tomada a partir das probabilidades de classe. Um processo

de desempate deve ser empregado, tal como escolher aleatoriamente classe 1 ou

classe 2. Pode ser mostrado que a regra de decisão de Bayes minimiza a probabilidade

média de erro sobre todo o conjunto de dados classificados, se todas as classes tem

f.d.p. normal.

Na prática, as probabilidades P(Ai) são difíceis de ser obtidas e consequentemente

supõe-se que elas sejam iguais. Obviamente resultados mais exatos seriam obtidos se

elas pudessem ser estimadas a partir de dados externos. Se, por exemplo, o objetivo

é determinar a proporção dos tipos de cultura plantados numa estação particular,

a partir de imagens do Landsat de uma área agrícola, podemos sensatamente

estabelecer as probabilidades a priori iguais às estimativas históricas da porcentagem

de cada cultura na área.

46

CAPÍTULO 3

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES

3.1 Variável Aleatória

Definição: Considere um experimento para o qual o espaço amostral é denotado

por S. Define-se variável aleatória como uma função que associa um valor real a

cada elemento do espaço amostral.

X : S ¡! <

Representamos as variáveis aleatórias por letras maiúsculas e suas ocorrências por

letras minúsculas.

Exemplo:

Suponha o experimento "lançar três moedas". Seja X: número de ocorrências da

face cara . O espaço amostral do experimento é:

S = f(c; c; c); (c; c; r); (c; r; c); (c; r; r); (r; c; c); (r; c; r); (r; r; c); (r; r; r)g :

Se X é o número de caras, X assume os valores 0, 1, 2 e 3. Podemos associar

a esses números eventos que correspondem a nenhuma, uma, duas ou três caras

respectivamente, como segue:

X Evento Correspondente

0 A1 = f(r; r; r)g

1 A2 = f(c; r; r); (r; c; r); (r; r; c)g

2 A3 = f(c; c; r); (c; r; c); (r; c; c)g

3 A4 = f(c; c; c)g

3.2 Tipos de Variáveis Aleatórias, Função de Probabilidade e Função

Densidade de Probabilidade

Definição: Seja X uma variável aleatória (v:a:). Se o número de valores possíveis

de X (isto é o seu contradomínio), for finito ou infinito enumerável, denominaremos

X de variável aleatória discreta. Isto é, existe um conjunto finito ou enumerável

fx1; x2; :::g ½ < tal que X(s) ½ fx1; x2; :::g 8s ½ S.

Definição: Seja X uma variável aleatória discreta. Portanto, o contradomínio de

X será formado por um número finito ou enumerável de valores x1; x2; : : : . A cada

47

possível resultdo xi, associaremos um número p(xi) = P(X = xi), i = 1; 2; 3; :::,

denominado probabilidade de xi. Os números p(xi) devem satisfazer às seguintes

condições:

a) p(xi) ¸ 0 8i;

b)

P1

i=1 p(xi) = 1

A função p, definida acima, é denominada função de probabilidade da variável

aleatória X. A coleção de pares [xi; p(xi)] i = 1; 2; : : : , é denominada distribuição

de probabilidade de X.

Exemplos:

a) Lançam-se dois dados. Seja a v.a. X: soma das faces. Determinar a

distribuição de probabilidade da variável aleatória X (Figura 3.1).

X 2 3 4 5 6 7 8 9 10 11 12

p(X) 1

36

2

36

3

36

4

36

5

36

6

36

5

36

4

36

3

36

2

36

1

36

Fig. 3.1 – Gráfico de P(x) para dois dados

b) Considere o experimento no qual uma moeda é jogada dez vezes e seja X

ser o número de caras que são obtidas. Neste experimento, os possíveis

48

valores de X são 0,1, 2, ..., 10, e

P(X = x) =

³n

x

´ 1

210 ; x = 0; 1; 2; : : : ; 10: (3.1)

Definição: Seja X uma variável aleatória. Suponha que <X, o contradomínio de X,

seja um intervalo ou uma coleção de intervalos. Então diremos que X é uma variável

aleatória contínua.

Definição: Seja X uma variável aleatória contínua. A função densidade de

probabilidade f, indicada abreviadamente por f.d.p., é uma função f que satisfaz

às seguintes condições:

a) f(x) ¸ 0 x 2 <X;

b)

R

<X

f(x)dx = 1

Além disso, definimos, para qualquer c < d (em <X)

P(c < x < d) =

Z d

c

f(x)dx

Obs:

a) P(c < x < d) representa a área sob a curva, como exemplificado no

gráfico da Figura 3.2, da f.d.p. f, entre x = c e x = d.

b) Constitui uma consequência da descrição probabilística de X que, para

qualquer valor especificado de X, digamos x0, teremos P(X = x0) = 0,

porque P(X = x0) =

R x0

x0

f(x)dx = 0

Exemplo:

a) Suponhamos que a v.a. X seja contínua. Seja a f.d.p. f dada por:

f(x) =

(

2x 0 < x < 1;

0 caso contrário.

49

Fig. 3.2 – Gráfico de fdp de f

Evidentemente, f(x) ¸ 0 e

R 1

¡1 f(x)dx =

R 1

0 2xdx = 1. Para calcular

P(X · 1=2) deve-se calcular

R 1

2

0 (2x)dx = 1

4 .

b) Seja X a duração de vida (em horas) de um certo tipo de lâmpada.

Admitindo que X seja uma variável aleatória contínua, suponha que a

f.d.p. f de X seja dada por:

f(x) =

(

a

x3 1500 · x · 2500;

0 caso contrário.

Para calcular a constante a, recorre-se à condição

R 1

¡1 f(x)dx = 1, que

significa, neste caso

R 2500

1500

a

x3 dx = 1, obtendo-se a = 7:031:250.

3.3 Função de Distribuição Acumulada

Definição: A função de distribuição da variável aleatória X, representada por FX

ou simplesmente por F, é definida por:

FX(x) = P(X · x) (3.2)

Observação:

a) A função de distribuição de X é também frequentemente chamada de

função de distribuição acumulada de X.

50

b) A função FX(x) é não-decrescente quando x aumenta, isto é, se x1 < x2,

então FX(x1) · FX(x2).

c) Para qualquer valor de x

P(X > x) = 1 ¡ FX(x) (3.3)

d) Para quaisquer valores x1 e x2, tais que x1 < x2,

P(x1 < X · x2) = FX(x2) ¡ FX(x1) (3.4)

Teoremas:

a) Se X for uma variável aleatória discreta,

FX(x) =

X

j

p(xj);

onde o somatório é estendido a todos os índices j que satisfaçam à

condição xj · x.

b) Se X for uma variável aleatória contínua com f.d.p. f,

FX(x) =

Z x

¡1

f(s)ds:

Exemplos:

a) Suponhamos que a v.a. X tome os três valores 0,1, e 2, com probabilidades

1/3, 1/6 e 1/2, respectivamente. Então:

F(x) =

8>>>><

>>>>:

0 se x < 0;

1

3 se 0 · x < 1;

1

2 se 1 · x < 2;

1 se 0 · x ¸ 2:

O gráfico de F está apresentado na Figura 3.3.

51

Fig. 3.3 – Gráfico F

b) Suponha que X seja uma variável contínua com f.d.p.

f(x) =

(

2x 0 < x < 1;

0 caso contrário.

Portanto, a f.d. é dada por:

F(x) =

8><

>:

0 x · 0; R x

0 (2s)ds = x2 0 < x · 1;

1 x > 1:

O gráfico está apresentado na Figura 3.4.

3.4 Distribuições Bivariadas

Em alguns experimentos, é necessário considerar as propriedades de 2 ou mais

variáveis simultaneamente. A distribuição de probabilidade conjunta de duas v:a:

é denominada uma distribuição bivariada.

3.4.1 Distribuições Conjuntas Discretas

Suponha que um certo experimento envolve duas v:a: X e Y , cada qual com uma

distribuição discreta.

A função de probabilidade conjunta de X e Y é definida pela função p tal que

52

Fig. 3.4 – Meyer, página 75.

qualquer ponto (x; y) no plano xy,

p(x; y) = P(X = x e Y = y) (3.5)

Observação:

a)

P

p(xi; yi) = 1.

b) Se X e Y forem independentes

p(xi; yi) = P(X = xi) ¢ P(Y = yi)

Exemplo:

Suponha que a variável aleatória X possa assumir somente of valores 1, 2, e 3, que

a variável aleatória Y possa assumir somente os valores 1, 2, 3 e 4, e que a função

de probabilidade conjunta de X e Y seja dada pela tabela:

Y 1 2 3 4

X

1 0,1 0 0,1 0

2 0,3 0 0,1 0,2

3 0 0,2 0 0

A função de probabilidade conjunto é mostrada na Figura 3.5. Deseja-se determinar:

53

a) P(X ¸ 2 e Y ¸ 2);

b) P(X = 1).

Fig. 3.5 – Degroot, página 93.

a) Somando-se p(x; y) para todos os valores de x ¸ 2 e y ¸ 2, tem-se:

P(X ¸ 2 e Y ¸ 2) = p(2; 2)+p(2; 3)+p(2; 4)+p(3; 2)+p(3; 3)+p(3; 4) =

0; 5

b) P(X = 1) =

P4

y=1 p(1; y) = 0; 2.

3.4.2 Distribuições Conjuntas Contínuas

É dito que duas v:a: X e Y possuem uma distribuição conjunta contínua se

existe uma função f não negativa, definida sobre o plano xy, tal que para qualquer

subconjunto A do plano

P [(x; y) 2 A] =

Z

A

Z

f(x; y)dxdy (3.6)

A função f é denominada função densidade de probabilidade conjunta de X

e Y . Esta função deve satisfazer

f(x; y) ¸ 0 para ¡1 < x < 1 e ¡1 < y < 1

54

e

Z 1

¡1

Z 1

¡1

f(x; y)dxdy = 1 (3.7)

A probabilidade que o par (X; Y ) pertença a uma região do plano xy pode ser

encontrada integrando a f.d.p. conjunta sobre esta região. A Figura 3.5 mostra um

exemplo de f.d.p. conjunta.

Fig. 3.6 – Degroot, página 95.

3.5 Distribuições Marginais

Denomina-se função densidade de probabilidade marginal de X à função

densidade de probabilidade de X quando ela é obtida através da f.d.p. conjunta

de X e Y .

Caso Discreto

Se X e Y são v:a: discretas com f.p. conjunta p(x; y), então a f.p. marginal de X é

obtida por:

PX(x) = P(X = x) =

X

y

p(x; y) (3.8)

55

Similarmente, a f.p. marginal de Y é:

PY (y) = P(Y = y) =

X

x

p(x; y) (3.9)

Exemplo:

Suponha que a variável aleatória X possa assumir somente of valores 1, 2, e 3, que

a variável aleatória Y possa assumir somente os valores 1, 2, 3 e 4, e que a função

de probabilidade conjunta de X e Y seja dada pela tabela:

Y 1 2 3 4 Marginal

X de X

1 0,1 0 0,1 0 0,2

2 0,3 0 0,1 0,2 0,6

3 0 0,2 0 0 0,2

Marginal de Y 0,4 0,2 0,2 0,2 1,0

A f.p. marginal de X é determinada somando-se os valores de cada linha da tabela,

e é dada na última coluna da tabela. Analogamente a f.p. marginal de Y é dada na

última linha da tabela.

Caso Contínuo

Se X e Y possuem uma distribuição conjunta com f.d.p. conjunta f(x; y), então a

f.d.p. marginal fX(x) de X é obtida por:

fX(x) =

Z 1

¡1

f(x; y)dy (3.10)

Similarmente, a f.d.p. marginal de Y é obtida por:

fY (y) =

Z 1

¡1

f(x; y)dx (3.11)

Observação

56

Se X e Y forem independentes

P(x; y) = PX(x) ¢ PY (y) (Caso discreto)

f(x; y) = fX(x) ¢ fY (y) (Caso contínuo)

Exemplo:

Suponha que X e Y possuam um distribuição contínua conjunta, cuja p.d.f. conjunta

seja definida por:

f(x; y) =

(

3

2y2 0 · x · 2 e 0 · y · 1;

0 caso contrário.

a) Determine as p.d.f.´s marginais de X e Y ;

b) X e Y são independentes?

c) Determine P(X ¸ 1

2 ) e P(Y ¸ 1

2 )..

Solução:

a) Tem-se que:

...

Baixar como  txt (63.9 Kb)  
Continuar por mais 48 páginas »