TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Conceitos probabilísticos

Tese: Conceitos probabilísticos. Pesquise 860.000+ trabalhos acadêmicos

Por:   •  25/11/2013  •  Tese  •  2.606 Palavras (11 Páginas)  •  240 Visualizações

Página 1 de 11

Conceitos de probabilidade[editar]

A ideia geral da probabilidade é frequentemente dividida em dois conceitos relacionados:

Probabilidade de frequência ou probabilidade aleatória, que representa uma série de eventos futuros cuja ocorrência é definida por alguns fenômenos físicos aleatórios. Este conceito pode ser dividido em fenômenos físicos que são previsíveis através de informação suficiente e fenômenos que são essencialmente imprevisíveis. Um exemplo para o primeiro tipo é uma roleta, e um exemplo para o segundo tipo é um decaimento radioativo.

Probabilidade epistemológica ou probabilidade Bayesiana, que representa nossas incertezas sobre proposições quando não se tem conhecimento completo das circunstâncias causativas. Tais proposições podem ser sobre eventos passados ou futuros, mas não precisam ser. Alguns exemplos de probabilidade epistemológica são designar uma probabilidade à proposição de que uma lei da Física proposta seja verdadeira, e determinar o quão "provável" é que um suspeito cometeu um crime, baseado nas provas apresentadas.

É uma questão aberta se a probabilidade aleatória é redutível à probabilidade epistemológica baseado na nossa inabilidade de predizer com precisão cada força que poderia afetar o rolar de um dado, ou se tais incertezas existem na natureza da própria realidade, particularmente em fenômenos quânticos governados pelo princípio da incerteza de Heisenberg. Embora as mesmas regras matemáticas se apliquem não importando qual interpretação seja escolhida, a escolha tem grandes implicações pelo modo em que a probabilidade é usada para modelar o mundo real.

Marcos históricos[editar]

O estudo científico da probabilidade é um desenvolvimento moderno. Os jogos de azar mostram que o interesse em quantificar as ideias da probabilidade tem existido por milênios, mas as descrições matemáticas de uso nesses problemas só apareceram muito mais tarde.

Cardano, no livro Liber de Ludo Aleae, estudou as probabilidades associadas ao arremesso de dados, concluindo que a distribuição de 2 dados deve ser obtida dos 36 pares ordenados de resultados, e não apenas dos 21 pares (não-ordenados).1

A doutrina das probabilidades vêm desde a correspondência entre Pierre de Fermat e Blaise Pascal (1654). Christiaan Huygens (1657) deu o primeiro tratamento científico ao assunto. A Arte da Conjectura de Jakob Bernoulli (póstumo, 1713) e a Doutrina da Probabilidade de Abraham de Moivre (1718) trataram o assunto como um ramo da matemática.

A teoria dos erros pode ser originada do Opera Miscellanea de Roger Cotes (póstumo, 1722), mas um ensaio preparado por Thomas Simpson em 1755 (impresso em 1756) foi o primeiro a aplicar a teoria na discussão de erros de observação. A reimpressão (1757) desse ensaio estabelece os axiomas que erros positivos e negativos são igualmente prováveis, e que há certos limites que se podem associar em que pode se supôr que todos os erros vão cair; erros contínuos são discutidos e uma curva de probabilidade é dada.

Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir uma regra para a combinação de observações dos princípios da teoria das probabilidades. Ele apresentou a lei da probabilidade dos erros por uma curva y = \phi(x), x sendo qualquer erro e y sua probabilidades, e estabeleceu três propriedades dessa curva: (1) Ela é simétrica no eixo y; (2) ao eixo x, é assintótico; a probabilidade do erro quando x \rightarrow \infty é 0; (3) a área abaixo da curva da função é 1, sendo certo de que um erro existe. Ele deduziu uma fórmula para o significado das três observações. Ele também deu (1781) uma fórmula para a lei da facilidade de erros (um termo devido a Lagrange, 1774), mas que levava a equações não gerenciáveis. Daniel Bernoulli (1778) introduziu o princípio do produto máximo das probabilidades de um sistema de erros concorrentes.

O método dos mínimos quadrados deve-se ao matemático alemão Johann Carl Friedrich Gauss (1777-1855). Gauss descreveu o método aos dezoito anos (1795), que hoje é indispensável nas mais diversas pesquisas. Adrien-Marie Legendre (1805), introduziu contribuições ao método em seu Nouvelles méthodes pour la détermination des orbites des comètes. Por ignorar o trabalho de Legendre, um escritor Americano-Irlandês, Robert Adrain, editor de "The Analyst" (1808), primeiro deduziu a lei da facilidade do erro,

\phi(x) = ce^{-h^2 x^2}

c e h sendo constantes dependendo da precisão da observação. Ele deu duas provas, sendo a segunda essencialmente a mesma de John Herschel (1850). Carl Friedrich Gauß deu a primeira prova que parece ser conhecida na Europa (a terceira após a de Adrain) em 1809. Provas posteriores foram dadas por Laplace (1810, 1812), Gauß (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), Donkin (1844, 1856), e Morgan Crofton (1870). Outros que contribuíram foram Ellis (1844), De Morgan (1864), Glaisher (1872), e Giovanni Schiaparelli (1875). A fórmula de Peters (1856) para r, o erro provável de uma observação simples, é bem conhecida.

No século XIX, os autores da teoria geral incluíam Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, e Karl Pearson. Augustus De Morgan e George Boole melhoraram a exibição da teoria.

No lado geométricos, (veja geometria integral), os contribuidores da The Educational Times foram influentes (Miller, Crofton, McColl, Wolstenholme, Watson, e Artemas Martin).

Formalização da probabilidade[editar]

Dados, símbolos da probabilidade.

Como outras teorias, a teoria das probabilidades é uma representação dos conceitos probabilísticos em termos formais – isso é, em termos que podem ser considerados separadamente de seus significados. Esses termos formais são manipulados pelas regras da matemática e da lógica, e quaisquer resultados são então interpretados ou traduzidos de volta ao domínio do problema.

Houve pelo menos duas tentativas com sucesso de formalizar a probabilidade, que foram as formulações de Kolmogorov e a de Cox. Na formulação de Kolmogorov, conjuntos são interpretados como eventos e a probabilidade propriamente dita como uma medida numa classe de conjuntos. Na de Cox, a probabilidade é entendida como uma primitiva (isto é, não analisada posteriormente) e a ênfase está em construir uma associação consistente de valores de probabilidade a proposições. Em ambos os casos, as leis da probabilidade

...

Baixar como (para membros premium)  txt (17.2 Kb)  
Continuar por mais 10 páginas »
Disponível apenas no TrabalhosGratuitos.com