TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Função exponencial e logarítmica

Relatório de pesquisa: Função exponencial e logarítmica. Pesquise 860.000+ trabalhos acadêmicos

Por:   •  11/5/2014  •  Relatório de pesquisa  •  7.765 Palavras (32 Páginas)  •  526 Visualizações

Página 1 de 32

Concurso Caixa Econômica Federal

Técnico Bancário Novo

2012

Módulo 02

Conhecimentos Básicos

Matemática

Sumário

Função exponencial e logarítmica 4

Noções de probabilidade e estatística. Juros Simples e compostos: capitalização e descontos. 28

Taxas de juros: nominal, efetiva, equivalentes, proporcionais, real e aparente 82

Rendas uniformes e variáveis 87

Planos ou Sistemas de Amortização de Empréstimos e Financiamentos 106

Cálculo financeiro: custo real efetivo de operações de financiamento, empréstimo e investimento 113

Avaliação de Sistemas de Investimento 117

Taxas de Retorno 121

Função exponencial e logarítmica

A função exponencial é uma das mais importantes funções da matemática. Descrita, normalmente, como exp(x) ou ex (onde e é a constante matemática neperiana, base do logarítmo neperiano), pode ser definida de duas maneiras equivalentes: a primeira, como uma série infinita; a segunda, como limite de uma seqüência:

A curva ex jamais toca o eixo x, embora apresente tendência a se aproximar deste.

Aqui, n! corresponde ao fatorial de n e x é qualquer número real ou complexo.

Se x é real, então ex é sempre positivo e crescente. Conseqüentemente, sua função inversa, o logarítmo neperiano, ln(x), é definida para qualquer valor positivo de x. Usando o logarítmo neperiano, pode-se definir funções exponenciais mais genéricas, como abaixo:

ax = exlna

Para todo a > 0 e .

A função exponencial também gera funções trigonométricas (como pode ser visto na equação de Euler para análises complexas), e as funções hiperbólicas. Então, tem-se que qualquer função elementar, exceto as polinomiais são criadas a partir da função exponencial.

As funções exponenciais "transitam entre a adição e a multiplicação" como é expressado nas seguintes leis exponenciais:

a0 = 1

a1 = a

ax + y = axay

axbx = (ab)x

Estas são válidas para todos os números positivos reais a e b e todos os números reais x. Expressões envolvendo frações e raízes podem freqüentemente serem simplificadas usando-se a notação exponencial porque:

Função exponencial e equações diferenciais

A maior importância das funções exponenciais nos campos das ciências é o fato de que essas funções são múltiplas de suas próprias derivadas:

Se a taxa de crescimento ou de decaimento de uma variável é proporcional ao seu tamanho, como é o caso de um crescimento populacional ilimitado, juros continuamente computados ou decaimento radiativo, então a variável pode ser escrita como uma função exponencial do tempo.

A função exponencial então resolve a equação diferencial básica

e é por essa razão comumente encontrada em equações diferenciais. Em particular a solução de equações diferenciais ordinárias pode freqüentemente ser escrita em termos de funções exponenciais. Essas equações incluem a equação de Schrödinger e a equação de Laplace assim como as equações para o movimento harmônico simples.

Função exponencial no plano complexo

Quando considerada como uma função definida no plano complexo, a função exponencial retém as importantes propriedades:

ez + w = ezew

e0 = 1

para todos z e w. A função exponencial no plano complexo é uma função holomórfica que é periódica com o período imaginário 2πi que pode ser escrita como

ea + bi = ea(cosb + isinb)

onde a e b são valores reais. Essa fórmula conecta a função exponencial com as funções trigonométricas, e essa é a razão que estendendo o logaritmo neperiano a argumentos complexos resultam na função multivalente ln(z). Nós podemos definir como uma exponenciação mais geral:: zw = ewlnz para todos os números complexos z e w.

Isto é também uma função multivalente. As leis exponenciais mencionadas acima permanecem verdade se interpretadas propriamente como afirmações sobre funções multivalentes.

É fácil ver, que a função exponencial descreve qualquer curva no plano complexo a uma espiral logarítmica no plano complexo com centro em 0, nada como o caso de uma reta paralela com os eixos reais ou imaginários descrevem uma curva ou um círculo.

Função exponencial para matrizes e álgebras de Banach

A definição de função exponencial exp dada acima pode ser usada palavra por palavra para cada álgebra de Banach, e em particular para matrizes quadradas. Neste caso temos

ex + y = exey

se xy = yx (deveríamos adicionar a fórmula geral envolvendo comutadores aqui)

e0 = 1

ex é invertível com inverso e-x

a derivada da exp no ponto x é aquela descrição linear que transforma u em u•ex.

No contexto das álgebras de Banach não comutativas, como as álgebras de matrizes ou operadores no espaço de Banach ou de Hilbert, a função exponencial é freqüentemente considerada como uma função de um argumento real:

f(t) = etA

onde A é um elemento fixo da álgebra e t é qualquer número real. Essa função tem importantes propriedades:

f(s + t) = f(s)f(t)

f(0) = 1

f'(t) = Af(t)

Mapa exponencial nas álgebras de Lie

O "mapa exponencial" que passa uma álgebra de Lie a um grupo de Lie compartilha as propriedades acima, o que explica a terminologia. De fato, desde que R é uma álgebra de Lie de um grupo de Lie de todos os números positivos reais com multiplicação, a função exponencial para argumentos reais é um caso especial da situação da álgebra de Lie. Similarmente, desde que a álgebra de Lie M (n, R) de todas as matrizes reais quadradas pertence ao grupo de Lie de todas as matrizes quadradas invertíveis, a função para matrizes quadradas é um caso especial do mapa exponencial da álgebra de Lie.

Exercícios

Simplifique as expressões abaixo, conforme o exercício 1:

Simplifique as expressões abaixo:

Simplifique as expressões abaixo:

Sendo a = 43, b = (-8)5, c = (-2)6 e d = (1/2)-3, determine o valor de:

Escreva Verdadeiro (V) ou Falso (F), corrigindo a resposta no segundo caso:

( )

( )

( )

( )

Se n é um número par, ( )

Se n é um número ímpar, ( )

( )

( )

( )

Se a é diferente de zero, ( )

( )

( )

( )

( )

( )

( )

( )

( )

00 = π, ( )

Simplifique as expressões:

Sendo x > 0 e y > 0,

Obtido em "http://pt.wikibooks.org/wiki/Matem%C3%A1tica_elementar/Exponenciais/Exerc%C3%ADcios"

Logaritmo

Na Matemática, o logaritmo de base b, maior que zero e diferente de 1, é uma função de domínio e contradomínio , bijetora e contínua que retorna o expoente na equação bn = x. Usualmente é escrito como logb x = n. Por exemplo: 34 = 81, portanto log381 = 4. Em termos simples o logaritmo é o expoente que uma dada base deve ter para produzir certa potência. No último exemplo o logaritmo de 81 na base 3 é 4, pois 4 é o expoente que a base 3 deve usar para resultar 81.

O logaritmo é uma de três funções intimamente relacionadas. Com bn = x, b pode ser determinado utilizando radicais, n com logaritmos, e x com exponenciais.

Um logaritmo duplo é a inversa da exponencial dupla. Um super-logaritmo ou hiper-logaritmo é a inversa da função super-exponencial. O super-logaritmo de x cresce ainda mais lentamente que o logaritmo duplo para x grande.

Um logaritmo discreto é uma noção relacionada na teoria finita de grupos. Para alguns grupos finitos, acredita-se que logaritmo discreto seja muito difícil de ser calculado, enquanto exponenciais discretas são bem fáceis. Esta assimetria tem aplicações em criptografia.

Logaritmos e exponenciais: inversas

Logaritmos em várias bases: vermelho representa a base e, verde a base 10, e lilás a base 1,7. Inverta a base some com o exponte x e multiplique as equações depois de somar as raizes das duas equações. Note como logaritmos de todas as bases passam pelo ponto (1, 0).

Para cada base (b em bn), existe uma função logaritmo e uma função exponencial; elas são as funções inversas. Com bn = x:

Exponenciais determinam x quando dado n; para encontrar x, se multiplica b por b (n) vezes.

Logaritmos determinam n quando dado x; n é o número de vezes que x precisa ser dividido por b para se obter 1. \Depois que seu logaritimo estiver dividido some novamente com o coeficiente e chegará a um resultado parcialmente correto.

Usando logaritmos

Três curvas para três bases diferentes: b = 2 (curva amarela), b = e (curva vermelha) e b = 0,5 (curva azul).

Uma função logb(x) é definida quando x é um número real positivo e b é um número real positivo diferente de 1. Veja identidades logarítmicas para várias leis que definem as funções logarítmicas. Logaritmos podem também ser definidos para argumentos complexos. Isso é explicado na página do logaritmo natural.

Para inteiros b e x, o número logb(x) é irracional (i.e., não é um quociente de dois inteiros) se b ou x possui um fator primo que o outro não possui (e em particular se eles são co-primos e ambos maiores que 1). Em alguns casos este fato pode ser provado rapidamente: por exemplo, se log23 fosse racional, ter-se-ia log23 = n/m para alguns inteiros positivos n e m, implicando que 2n = 3m. Mas essa última identidade é impossível, uma vez que 2n é par e 3m é ímpar.

Bases não especificadas

Matemáticos geralmente entendem "ln(x)" como significando loge(x), i.e., o logaritmo natural de x, e escrevem simplesmente"log(x)" se o logaritmo na base-10 de x é procurado.

Engenheiros, biólogos e outros escrevem apenas "ln(x)" ou (ocasionalmente) "loge(x)" quando se trata do logaritmo natural de x, e tomam "log(x)" para log10(x) ou, no contexto da computação, log2(x).

Algumas vezes Log(x) (L maiúsculo) é usado significando log10(x), pelas pessoas que usam log(x) com l minúsculo significando loge(x).

A notação Log(x) também é usada pelos matemáticos para se referir ao ramo principal da função logaritmo natural.

Nas linguagens de programação mais usadas, incluindo C, C++, Pascal, Fortran e BASIC, "log" ou "LOG" significa o logaritmo natural.

A maior parte das razões para se pensar em logaritmos na base 10 tornaram-se obsoletas logo após 1970 quando calculadoras de mão se tornaram populares (para mais sobre esse assunto, veja logaritmo comum). Não obstante, uma vez que calculadoras são feitas e normalmente usadas por engenheiros, as convenções usadas por eles foram incorporadas nas calculadoras, agora a maioria dos não-matemáticos tomam "log(x)" como o logaritmo na base 10 de x e usam "ln(x)" para se referir ao logaritmo natural de x. A notação "ln" foi introduzida em 1893 por Irving Stringham, professor de matemática da Universidade de Berkeley. Até 2005, alguns matemáticos adotaram a notação "ln", mas a maioria usa "log". Em Ciência da Computação o logaritmo na base 2 é escrito como lg(x) para evitar confusão. Este uso foi sugerido por Edward Reingold e popularizado por Donald Knuth.

Quando "log" é escrito sem uma base (b faltando em logb), o significado pode normalmente ser determinado através do contexto:

logaritmo natural (loge) em Análise;

logaritmo binário (log2) com intervalos musicais e em assuntos que lidam com bits;

logaritmo comum (log10) quando tabelas de logaritmos são usadas para simplificar cálculos manuais;

logaritmo indefinido quando a base é irrelevante.

Usos dos logaritmos

Logaritmos são úteis para se resolver equações cujos expoentes são desconhecidos. Eles possuem derivadas simples, por isso eles são comumente usados como soluções de integrais. Além disso, várias quantidades na ciência são expressas como logaritmos de outras quantidades; veja escala logarítmica para uma explicação e uma lista.

Funções exponenciais

Algumas vezes (especialmente em análise) é necessário calcular funções exponenciais arbitrárias f(x)x usando se apenas a exponencial natural ex:

= exlog(f(x))

Propriedades Algébricas

Logaritmos trocam números por expoentes. Mantendo-se a mesma base, é possível tornar algumas poucas operações mais fáceis:

Operação com números Operação com expoentes Identidade logarítmica

Demonstração

Sendo e

substituindo as variáveis;

pela propriedade das funções exponenciais ;

visto que ;

utilizando a mesma propriedade;

voltando a substituir pelas variáveis iniciais;

Provando assim que .

________________________________________

Antes da calculadora eletrônica, isto fazia com que operações difíceis de dois números fossem muito mais fáceis. Simplesmente se achavam os logaritmos dos dois números (multiplique e divida) ou o primeiro número (potência ou raiz, onde um número já é um expoente) em uma tabela de logaritmos comuns, realizava-se uma operação mais simples neles, e se encontrava o resultado numa tabela. Réguas de cálculo realizavam as mesmas operações usando logaritmos, mas mais rapidamente e com menor precisão do que usando tabelas. Outras ferramentas para realizar multiplicações antes da invenção da calculadora incluem Napier's bones e calculadoras mecânicas.

Na álgebra abstrata, esta propriedade das funções logarítmicas pode ser resumida observando-se que qualquer uma delas com uma base fixa é um isomorfismo do grupo de números reais estritamente positivos sobre a multiplicação para o grupo de todos os números reais sobre a adição.

Mudança de base

Apesar de existirem identidades muito úteis, a mais importante para o uso na calculadora é a que permite encontrar logaritmos com bases que não as que foram programadas na calculadora (normalmente loge e log10). Para encontrar um logaritmo com uma base b usando qualquer outra base a:

Demonstração

tendo que

aplicando um logaritmo de base k obtém-se

Tudo isso implica que todas as funções logaritmo (qualquer que seja sua base) são similares umas às outras.

Cálculo

Para calcular a derivada de uma função logarítmica a seguinte fórmula é usada : onde ln é o logaritmo natural, i.e. com a base e. Fazendo b = e:

A seguinte fórmula é para obter a integral da função logaritmo

Operações relacionadas

O cologaritmo de um número é o logaritmo do recíproco deste, sendo cologb(x) = logb(1/x) = −logb(x).

O antilogaritmo é usado para mostrar o inverso de um logaritmo. Ele é escrito da seguinte maneira: antilogb(n) e significa o mesmo que bn.

Tabelas de logaritmos

Antes do advento do computador e da calculadora, usar logaritmos significava usar tabelas de logaritmos, que tinham de ser criadas manualmente. Logaritmos de base-10 são úteis em cálculos quando meios eletrônicos não são disponíveis. Veja logaritmo comum para detalhes, incluindo o uso de características e mantissas de logaritmos comuns (i.e., base-10). Em 1617, Briggs publicou a primeira versão de sua própria lista de logaritmos comuns, contendo os logaritmos com 8 dígitos de todos os inteiros inferiores a 1.000. Em 1624 ele publicou ainda outra, "Aritmética Logarítmica", contendo os logaritmos de todos os inteiros de 1 a 20.000 e de 90.000 a 100.000, juntos com uma introdução que explicava a história, a teoria e o uso dos logaritmos. O intervalo de 20.000 a 90.000 foi preenchido por Adrian Vlacq; mas em sua tabela, que apareceu em 1628, os logaritmos eram de somente 10 dígitos. Foram descobertos mais tarde 603 erros na tabela de Vlacq, mas "isso não pode ser considerado uma grande quantidade, quando se é considerado que a tabela foi um resultado de um cálculo original, e que é possível haver erros quando mais de 2.100.000 números são utilizados." (Athenaeum, 15 de Junho de 1872. Veja também as "Notícias Mensais da Sociedade Real de Astronomia" de Maio, 1872.) Uma edição do trabalho de Vlacq, contendo diversas correções, foi publicado em Leipzig, 1794, titulado de "Thesaurus Logarithmorum Completus" por Jurij Vegal. A tabela de 7 dígitos de Callet (Paris, 1795), ao invés de parar em 100.000, dava os logaritmos de oito dígitos dos números entre 100.000 e 108.000, visando diminuir os erros de interpolação, que eram grandes no início da tabela; e essa adição era geralmente incluída em tabelas de 7 dígitos. A única extensão publicada importante da tabela de Vlacq foi feita por Mr. Sang, em 1871, cuja tabela tinha os logaritmos de 7 casas de todos os números abaixo de 200.000. Briggs e Vlacq também publicaram tabelas originais de logaritmos de funções trigonométricas. Além das tabelas mencionadas acima, uma grande coleção, chamada Tables du Cadastre, foi feita sob a direção de Prony, por um cálculo original, sob a ajuda do governo republicano francês. Esse trabalho, que continha os logaritmos de 9 dígitos de todos os números até o 100.000, e de 24 dígitos dos números entre 100.000 e 200.000, existe apenas no manuscrito in seventeen enormous folios, no observatório de Paris. Esse trabalho foi iniciado em 1792, e para garantir uma grande precisão de todos os cálculos, o trabalho foi realizado de duas formas diferentes, e ambos os manuscritos foram subsequentemente e cuidadosamente unidos, tendo todo o trabalho sido realizado em um período de dois anos (English Cyclopaedia, Biography, Vol. IV., artigo "Prony"). Interpolação cúbica poderia ser utilizada para encontrar o valor dos logaritmos, com uma precisão similar. Para os estudantes de hoje, que contam com a ajuda de calculadoras, o trabalho a respeito das tabelas acima mencionada, é pequeno para o avanço dos logaritmos.

Algoritmo

Para calcular logb(x) se b e x são números racionais e x ≥ b > 1:

Se n0 é o maior número natural tal que bn0 ≤ x ou, alternativamente,

então

Este algoritmo recursivamente produz a fração contínua

Para usar um número irracional como entrada, basta aplicar o algoritmo a sucessivas aproximações racionais. O limite da Sucessão matemática resultante deve convergir para o resultado correto.

Prova do algoritmo

identidade

manipulação algébrica

identidade logarítmica

identidade logarítmica

troca de base

Trivia

Notação alternativa

Algumas pessoas usam a notação blog(x) em vez de logb(x).

Relações entre logaritmos comum, natural e binário

Em particular, temos os seguintes resultados:

log2(e) ≈ 1,44269504

log2(10) ≈ 3,32192809

loge(10) ≈ 2,30258509

loge(2) ≈ 0,693147181

log10(2) ≈ 0,301029996

log10(e) ≈ 0,434294482

Um relação curiosa é a aproximação log2(x) ≈ log10(x) + ln(x), com precisão de 99,4%, ou 2 dígitos significativos. Isso porque 1/ln(2) − 1/ln(10) ≈ 1 (na verdade vale 1,0084...).

Outra relação interessante é a aproximação log10(2) ≈ 0,3 (na verdade vale 0,301029995). Com isso, com um erro de apenas de 2,4%, 210 ≈ 103,ou seja, 1024 é aproximadamente 1000.

Noções de probabilidade e estatística. Juros Simples e compostos: capitalização e descontos.

A palavra probabilidade deriva do Latim probare (provar ou testar). Informalmente, provável é uma das muitas palavras utilizadas para eventos incertos ou conhecidos, sendo também substituída por algumas palavras como “sorte”, “risco”, “azar”, “incerteza”, “duvidoso”, dependendo do contexto.

Tal como acontece com a teoria da mecânica, que atribui definições precisas a termos de uso diário, como trabalho e força, também a teoria das probabilidades tenta quantificar a noção de provável.

Em essência, existe um conjunto de regras matemáticas para manipular a probabilidade, listado no tópico "Formalização da probabilidade" abaixo. (Existem outras regras para quantificar a incerteza, como a teoria de Dempster-Shafer e a lógica difusa (em inglês fuzzy logic), mas estas são, em essência, diferentes e incompatíveis com as leis da probabilidade tal como são geralmente entendidas). No entanto, está em curso um debate sobre o que é, exatamente, que as regras se aplicam; a este tópico chama-se interpretações da probabilidade.

Conceitos de probabilidade

A ideia geral da probabilidade é frequentemente dividida em dois conceitos relacionados:

Probabilidade de frequência ou probabilidade aleatória, que representa uma série de eventos futuros cuja ocorrência é definida por alguns fenômenos físicos aleatórios. Este conceito poder ser dividido em fenômenos físicos que são previsíveis através de informação suficiente e fenômenos que são essencialmente imprevisíveis. Um exemplo para o primeiro tipo é uma roleta, e um exemplo para o segundo tipo é um decaimento radioativo.

Probabilidade epistemológica ou probabilidade Bayesiana, que representa nossas incertezas sobre proposições quando não se tem conhecimento completo das circunstâncias causativas. Tais proposições podem ser sobre eventos passados ou futuros, mas não precisam ser. Alguns exemplos de probabilidade epistemológica são designar uma probabilidade à proposição de que uma lei da Física proposta seja verdadeira, e determinar o quão "provável" é que um suspeito cometeu um crime, baseado nas provas apresentadas.

É uma questão aberta se a probabilidade aleatória é redutível à probabilidade epistemológica baseado na nossa inabilidade de predizer com precisão cada força que poderia afetar o rolar de um dado, ou se tais incertezas existem na natureza da própria realidade, particularmente em fenômenos quânticos governados pelo princípio da incerteza de Heisenberg. Embora as mesmas regras matemáticas se apliquem não importando qual interpretação seja escolhida, a escolha tem grandes implicações pelo modo em que a probabilidade é usada para modelar o mundo real.

Marcos Históricos

O estudo científico da probabilidade é um desenvolvimento moderno. Os jogos de azar mostram que o interesse em quantificar as ideias da probabilidade tem existido por milênios, mas as descrições matemáticas de uso nesses problemas só apareceram muito mais tarde.

Cardano, no livro Liber de Ludo Aleae, estudou as probabilidades associadas ao arremesso de dados, concluindo que a distribuição de 2 dados deve ser obtida dos 36 pares ordenados de resultados, e não apenas dos 21 pares (não-ordenados).[1]

A doutrina das probabilidades vêm desde a correspondência entre Pierre de Fermat e Blaise Pascal (1654). Christiaan Huygens (1657) deu o primeiro tratamento científico ao assunto. A Arte da Conjectura de Jakob Bernoulli (póstumo, 1713) e a Doutrina da Probabilidade de Abraham de Moivre (1718) trataram o assunto como um ramo da matemática.

A teoria dos erros pode ser originada do Opera Miscellanea de Roger Cotes (póstumo, 1722), mas um ensaio preparado por Thomas Simpson em 1755 (impresso em 1756) foi o primeiro a aplicar a teoria na discussão de erros de observação. A reimpressão (1757) desse ensaio estabelece os axiomas que erros positivos e negativos são igualmente prováveis, e que há certos limites que se podem associar em que pode se supôr que todos os erros vão cair; erros contínuos são discutidos e uma curva de probabilidade é dada.

Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir uma regra para a combinação de observações dos princípios da teoria das probabilidades. Ele apresentou a lei da probabilidade dos erros por uma curva y = φ(x), x sendo qualquer erro e y sua probabilidades, e estabeleceu três propriedades dessa curva: (1) Ela é simétrica no eixo y; (2) ao eixo x, é assintótico; a probabilidade do erro quando é 0; (3) a área abaixo da curva da função é 1, sendo certo de que um erro existe. Ele deduziu uma fórmula para o significado das três observações. Ele também deu (1781) uma fórmula para a lei da facilidade de erros (um termo devido a Lagrange, 1774), mas que levava a equações não gerenciáveis. Daniel Bernoulli (1778) introduziu o princípio do produto máximo das probabilidades de um sistema de erros concorrentes.

O método dos mínimos quadrados deve-se ao matemático alemão Johann Carl Friedrich Gauss (1777-1855). Gauss descreveu o método aos dezoito anos (1795), que hoje é indispensável nas mais diversas pesquisas. Adrien-Marie Legendre (1805), introduziu contribuições ao método em seu Nouvelles méthodes pour la détermination des orbites des comètes. Por ignorar o trabalho de Legendre, um escritor Americano-Irlandês, Robert Adrain, editor de "The Analyst" (1808), primeiro deduziu a lei da facilidade do erro,

c e h sendo constantes dependendo da precisão da observação. Ele deu duas provas, sendo a segunda essencialmente a mesma de John Herschel (1850). Carl Friedrich Gauß deu a primeira prova que parece ser conhecida na Europa (a terceira após a de Adrain) em 1809. Provas posteriores foram dadas por Laplace (1810, 1812), Gauß (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), Donkin (1844, 1856), e Morgan Crofton (1870). Outros que contribuíram foram Ellis (1844), De Morgan (1864), Glaisher (1872), e Giovanni Schiaparelli (1875). A fórmula de Peters (1856) para r, o erro provável de uma observação simples, é bem conhecida.

No século XIX, os autores da teoria geral incluíam Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, e Karl Pearson. Augustus De Morgan e George Boole melhoraram a exibição da teoria.

No lado geométricos, (veja geometria integral), os contribuidores da The Educational Times foram influentes (Miller, Crofton, McColl, Wolstenholme, Watson, e Artemas Martin).

Formalização da probabilidade

Como outras teorias, a teoria das probabilidades é uma representação dos conceitos probabilísticos em termos formais – isso é, em termos que podem ser considerados separadamente de seus significados. Esses termos formais são manipulados pelas regras da matemática e da lógica, e quaisquer resultados são então interpretados ou traduzidos de volta ao domínio do problema.

Houve pelo menos duas tentativas com sucesso de formalizar a probabilidade, que foram as formulações de Kolmogorov e a de Cox. Na formulação de Kolmogorov, conjuntos são interpretados como eventos e a probabilidade propriamente dita como uma medida numa classe de conjuntos. Na de Cox, a probabilidade é entendida como uma primitiva (isto é, não analisada posteriormente) e a ênfase está em construir uma associação consistente de valores de probabilidade a proposições. Em ambos os casos, as leis da probabilidade são as mesmas, exceto por detalhes técnicos:

uma probabilidade é um número entre 0 e 1;

a probabilidade de um evento ou proposição e seu complemento, se somados, valem até 1; e

a probabilidade condicionada ou conjunta de dois eventos ou proposições é o produto da probabilidade de um deles e a probabilidade do segundo, condicionado na primeira.

O leitor vai encontrar uma exposição da formulação de Kolmogorov no artigo sobre teoria das probabilidades, e no artigo sobre o teorema de Cox a formulação de Cox. Veja também o artigo sobre os axiomas da probabilidade.

Representação e interpretação de valores de probabilidade

A probabilidade de um evento geralmente é representada como um número real entre 0 e 1. um evento impossível tem uma probabildade de exatamente 0, e um evento certo de acontecer tem uma probabilidade de 1, mas a recíproca não é sempre verdadeira: eventos de probabilidade 0 não são sempre impossíveis, nem os de probabilidade 1 certos. A distinção bastante sutil entre "evento certo" e "probabilidade 1" é tratado em maior detalhe no artigo sobre "quase-verdade".

A maior parte das probabilidades que ocorrem na prática são números entre 0 e 1, que indica a posição do evento no contínuo entre impossibilidade e certeza. Quanto mais próxima de 1 seja a probabilidade de um evento, mais provável é que o evento ocorra. Por exemplo, se dois eventos forem ditos igualmente prováveis, como por exemplo em um jogo de cara ou coroa, podemos exprimir a probabilidade de cada evento - cara ou coroa - como "1 em 2", ou, de forma equivalente, "50%", ou ainda "1/2".

Probabilidades também podem ser expressas como chances (odds). Chance é a razão entre a probabilidade de um evento e à probabilidade de todos os demais eventos. A chance de obtermos cara, ao lançarmos uma moeda, é dada por (1/2)/(1 - 1/2), que é igual a 1/1. Isto é expresso como uma "chance de 1 para 1" e é freqüentemente escrito como "1:1". Assim, a chance a:b para um certo evento é equivalente à probabilidade a/(a+b).

Por exemplo, a chance 1:1 é equivalente à probabilidade 1/2 e 3:2 é equivalente à probabilidade 3/5.

Ainda fica a questão de a quê exatamente pode ser atribuído uma probabilidade, e como os números atribuídos podem ser usados; isto é uma questão de interpretações de probabilidade.

Há alguns que alegam que pode-se atribuir uma probabilidade a qualquer tipo de proposição lógica incerta; esta é a interpretação bayesiana. Há outros que argumentam que a probabilidade só é aplicada apropriadamente a proposições que relacionam-se com sequências de experimentos repetidos, ou da amostragem de uma população grande; esta é a interpretação frequentista. Há ainda diversas outras interpretações que são variações de um ou de outro tipo.

Distribuições

A distribuição da probabilidade é uma função que determina probabilidades para eventos ou proposições. Para qualquer conjunto de eventos ou proposições existem muitas maneiras de determinar probabilidades, de forma que a escolha de uma ou outra distribuição é equivalente a criar diferentes hipóteses sobre os eventos ou proposições em questão.

Há várias formas equivalentes de se especificar uma distribuição de probabilidade. Talvez a mais comum é especificar uma função densidade da probabilidade. Daí, a probabilidade de um evento ou proposição é obtida pela integração da função densidade.

A função distribuição pode ser também especificada diretamente. Em uma dimensão, a função distribuição é chamada de função distribuição cumulativa. As distribuições de probabilidade também podem ser especificadas via momentos ou por funções características, ou por outras formas.

Uma distribuição é chamada de distribuição discreta se for definida em um conjunto contável e discreto, tal como o subconjunto dos números inteiros; ou é chamada de distribuição contínua se tiver uma função distribuição contínua, tal como uma função polinomial ou exponencial. A maior parte das distribuições de importância prática são ou discretas ou contínuas, porém há exemplos de distribuições que não são de nenhum desses tipos.

Dentre as distribuições discretas importantes, pode-se citar a distribuição uniforme discreta, a distribuição de Poisson, a distribuição binomial, a distribuição binomial negativa e a distribuição de Maxwell-Boltzmann. Dentre as distribuições contínuas, a distribuição normal, a distribuição gama, a distribuição t de Student e a distribuição exponencial.

Probabilidade na matemática

Os axiomas da probabilidade formam a base para a teoria da probabilidade matemática. O cálculo de probabilidades pode ser frequentemente determinado pelo uso da análise combinatória ou pela aplicação direta dos axiomas. As aplicações da probabilidade vão muito além da estatística, que é geralmente baseada na ideia de distribuições de probabilidade e do teorema do limite central.

Para dar um significado matemático à probabilidade, considere um jogo de cara ou coroa. Intuitivamente, a probabilidade de dar cara, qualquer que seja a moeda, é "obviamente 50%"; porém, esta afirmação por si só deixa a desejar quanto ao rigor matemático - certamente, enquanto se pode esperar que, ao jogar essa moeda 10 vezes, teremos 5 caras e 5 coroas, não há garantias de que isso ocorrerá; é possível, por exemplo, conseguir 10 caras sucessivas. O que então o número "50%" significaria nesse contexto?

Uma proposta é usar a lei dos grandes números. Neste caso, assumimos que é exequível fazer qualquer número de arremessos da moeda, com cada resultado sendo independente - isto é, o resultado de cada jogada não é afetado pelas jogadas anteriores. Se executarmos N jogadas, e seja NH o número de vezes que a moeda deu cara, então pode-se considerar, para qualquer N, a razão NH/N.

Quando N se tornar cada vez maior, pode-se esperar que, em nosso exemplo, a razão NH/N chegará cada vez mais perto de 1/2. Isto nos permite "definir" a probabilidade Pr(H) das caras como o limite matemático, com N tendendo ao infinito, desta sequência de quocientes:

Na prática, obviamente, não se pode arremessar uma moeda uma infinidade de vezes; por isso, em geral, esta fórmula se aplica melhor a situações nas quais já se tem fixada uma probabilidade a priori para um resultado particular (no nosso caso, nossa convenção é a de que a moeda é uma moeda "honesta"). A lei dos grandes números diz que, dado Pr(H) e qualquer número arbitrariamente pequeno ε, existe um número n tal que para todo N > n,

Em outras palavras, ao dizer que "a probabilidade de caras é 1/2", queremos dizer que, se jogarmos nossa moeda tantas vezes o bastante, eventualmente o número de caras em relação ao número total de jogadas tornar-se-á arbitrariamente próximo de 1/2; e permanecerá ao menos tão próximo de 1/2 enquanto se continuar a arremessar a moeda.

Observe que uma definição apropriada requer a teoria da medida, que provê meios de cancelar aqueles casos nos quais o limite superior não dá o resultado "certo", ou é indefinido pelo fato de terem uma medida zero.

O aspecto a priori desta proposta à probabilidade é algumas vezes problemática quando aplicado a situações do mundo real. Por exemplo, na peça Rosencrantz e Guildenstern estão mortos, de Tom Stoppard, uma personagem arremessa uma moeda que sempre dá caras, uma centena de vezes. Ele não pode decidir se isto é apenas um evento aleatório - além do mais, é possível, porém improvável, que uma moeda honesta pudesse dar tal resultado - ou se a hipótese de que a moeda é honesta seja falsa.

Notas sobre cálculos de probabilidade

A dificuldade nos cálculos de probabilidade se relacionam com determinar o número de eventos possíveis, contar as ocorrências de cada evento, contar o número total de eventos. O que é especialmente difícil é chegar a conclusões que tenham algum significado, a partir das probabilidades calculadas. Uma piada sobre probabilidade, o problema de Monty Hall, demonstra as armadilhas muito bem.

Aplicações da Teoria da Probabilidade no quotidiano

Um efeito maior da teoria da probabilidade no cotidiano está na avaliação de riscos e no comércio nos mercado de matérias-primas. Governos geralmente aplicam métodos de probabilidade na regulação ambiental onde é chamada de "análise de caminho", e estão frequentemente medindo o bem-estar usando métodos que são estocásticos por natureza, e escolhendo projectos com os quais se comprometer baseados no seu efeito provável na população como um todo, estatisticamente. De fato, não é correto dizer que estatísticas estejam envolvidas na modelagem em si, dado que, normalmente, estimativas de risco são únicas (one-time) e, portanto, necessitam de modelos mais fundamentais como, por exemplo, para determinar "a probabilidade de ocorrência de outro atentado terrorista como o de 11 de setembro em Nova York". Uma lei de números pequenos tende a se aplicar a todas estas situações e à percepção dos efeitos relacionados a tais situações, o que faz de medidas de probabilidade uma questão política.

Um bom exemplo é o efeito nos preços do petróleo da probabilidade percebida de qualquer conflito mais abrangente no Oriente Médio - o que contagia a economia como um todo. A estimativa feita por um comerciante de comodidades de que uma guerra é mais (ou menos) provável leva a um aumento (ou diminuição) de preços e sinaliza a outros comerciantes aquela opinião. Da mesma forma, as probabilidades não são estimadas de forma independente nem, necessariamente, racional. A teoria de finança comportamental surgiu para descrever o efeito de tal pensamento em grupo (groupthink) na definição de preços, política, paz e conflito.

Uma aplicação importante da teoria das probabilidades no dia-a-dia é a questão da confiabilidade. No desenvolvimento de muitos produtos de consumo, tais como automóveis e eletro - eletrônicos, a teoria da confiabilidade é utilizada com o intuito de se reduzir a probabilidade de falha que, por sua vez, está estritamente relacionada à garantia do produto. Outro bom exemplo é a aplicação da teoria dos jogos, uma teoria rigorosamente baseada na teoria das probabilidades, à Guerra Fria e à doutrina de destruição mútua assegurada.

Em suma, é razoável pensar que a descoberta de métodos rigorosos para estimar e combinar probabilidades tem tido um impacto profundo na sociedade moderna. Assim, pode ser de extrema importância para muitos cidadãos compreender como estimativas de chance e probabilidades são feitas e como elas contribuem para reputações e decisões, especialmente em uma democracia.

Estatística

Uma estatística é uma função (qualquer) das variáveis observáveis que não contém qualquer parâmetro desconhecido.

Mais formalmente, a Teoria Estatística define uma estatística como uma função de uma amostra em que a função por si mesma é independente da distribuição que gerou a amostra.

Este termo é utilizado usualmente tanto para a função quanto para o particular valor numérico da função aplicada a uma dada amostra observada.

Uma estatística não representa o mesmo conceito que um parâmetro estatístico, que não é calculável da amostra. Por exemplo, a média amostral é uma estatística, enquanto que a média de uma população é um parâmetro. Em geral utiliza-se um estimador (caso particular de estatística) para chegar num valor numérico que estima um parâmetro. No exemplo anterior, o estimador para a média da população é a média amostral.

Exemplos de estatísticas incluem:

média (amostral)

mediana

variância (amostral)

desvio padrão

percentil

estatística t

estatísticas de ordem, como máximo ou mínimo

curtose

Exemplos de objetos comuns no dia-a-dia da Estatística que não são estatísticas incluem:

z-score

valor p (p-value)

Estes claramente violam a definição pois não são obtidos somente da amostra.

Em Estatística a média é o valor que aponta para onde mais se concentram os dados de uma distribuição. Pode ser considerada o ponto de equilíbrio das frequências, num histograma.

Medidas de tendência central

Nome Equação ou descrição

Média aritmética

Média geométrica

Média harmônica

Média quadrática

(ou RMS)

Média generalizada

Média heroniana

Média ponderada

Média truncada ou média podada A média aritmética dos valores após um certo número ou proporção maiores e menores terem sidos descartados

Mediana O valor intermediário que separa a metade superior da metade inferior do conjunto de dados

Mediana geométrica Uma rotação invariante extensão da mediana para pontos em Rn

Moda O valor mais frequente no conjunto de dados

Média média é o valor médio de uma distribuição, determinado segundo uma regra estabelecida a prioridade e que se utiliza para representar todos os valores da distribuição.

Mediana (estatística)

Em teoria da probabilidade e em estatística, a mediana é uma medida de tendência central, um número que caracteriza as observações de uma determinada variável de tal forma que este número (a mediana) de um grupo de dados ordenados separa a metade inferior da amostra, população ou distribuição de probabilidade, da metade superior. Mais concretamente, 1/2 da população terá valores inferiores ou iguais à mediana e 1/2 da população terá valores superiores ou iguais à mediana.

A mediana pode ser calculada para um conjunto de observações ou para funções de distribuição de probabilidade.

No caso de dados ordenados de amostras de tamanho n, se n for ímpar, a mediana será o elemento central (n+1)/2. Se n for par, a mediana será o resultado da média simples dos elementos n/2 e (n/2)+1.

Exemplos

Para a seguinte população:

1, 3, 5, 7, 9

A mediana é 5 (igual à média)

No entanto, para a população:

1, 2, 4, 10, 13

A mediana é 4 (enquanto a média é 6)

Para populações pares:

1, 2, 4, 7, 9, 10

A mediana é (4+7)/2, que é 5.5.

Cálculo da mediana para dados classificados

Quando se trata de um conjunto de dados classificados, o cálculo da mediana é feito através do histograma, ou através da função cumulativa de frequências relativas. A mediana é o ponto do eixo das abcissas correspondente a 50% da frequência relativa acumulada.

No caso de variáveis contínuas, a mediana é calculada pela solução da equação ou, equivalentemente, .

No caso de variáveis discretas, e quando as frequências estão calculadas por unidade, a mediana é o ponto do eixo das abcissas para o qual a frequência relativa acumulada é inferior ou igual a 50% e superior ou igual a 50% para o ponto imediatamente a seguir.

Variância

Na teoria da probabilidade e na estatística, a variância de uma variável aleatória é uma medida da sua dispersão estatística, indicando quão longe em geral os seus valores se encontram do valor esperado.

A variância de uma variável aleatória real é o seu segundo momento central e também o seu segundo cumulante (os cumulantes só diferem dos momentos centrais a partir do 4º grau, inclusive).

Definição

Se μ = E(X) é o valor esperado (média) da variável aleatória X, então a variância é

Isto é, é o valor esperado do quadrado do desvio de X da sua própria média. Em linguagem comum isto pode ser expresso como "A média do quadrado da distância de cada ponto até a média". É assim a "média do quadrado dos desvios". A variância da variável aleatória "X" é geralmente designada por , , ou simplesmente σ2.

Notar que a definição acima pode ser usada quer para variáveis aleatórias discretas, quer para contínuas.

Muitas distribuições, tais como a distribuição Cauchy, não têm variância porque o integral relevante diverge. Em particular, se uma distribuição não tem valores esperados, ela também não tem variância.

O contrário não é verdadeiro: há distribuições para as quais existe valor esperado mas não existe variância, como, por exemplo, a distribuição t de Student com 2 graus de liberdade. Um contra-exemplo mais simples é uma distribuição discreta sobre em que a probabilidade de cada ponto n é proporcional a . O valor esperado será calculado através de uma série convergente , e a variância através de uma série divergente .

Propriedades

Se a variância pode ser calculada (ou seja, a integral ou o somatório convergem), podemos concluir que ela nunca é negativa, porque os quadrados são sempre positivos ou nulos.

A unidade de variância é o quadrado da unidade de observação. Por exemplo, a variância de um conjunto de alturas medidas em centímetros será dada em centímetros quadrados. A variância de um preço, medido, por exemplo, em euros por metro cúbico, será dada em euros quadrados por metro à sexta potência, uma unidade que não faz nenhum sentido prático. Este facto é inconveniente e levou muitos estatísticos a usar a raiz quadrada da variância, conhecida como o desvio padrão, como um sumário da dispersão.

Pode ser provado facilmente a partir da definição que a variância não depende do valor médio μ. Isto é, se a variável é "deslocada" por uma quantidade b ao tomarmos X+b, a variância da variável aleatória resultante permanece inalterada. Por contraste, se a variável for multiplicada por um factor de escala a, a variância é então multiplicada por a2. Mais formalmente, se a e b forem constantes reais e X uma variável aleatória cuja variância está definida, então:

Outra fórmula para a variância que se deduz de forma simples a partir da definição acima é:

Na prática usa-se muito frequentemente esta fórmula para calcular mais rapidamente a variância.

Uma razão para o uso da variância em preferência a outras medidas de dispersão é que a variância da soma (ou diferença) de variáveis aleatórias independentes é a soma das suas variâncias. Uma condição não tão estricta, chamada de incorrelação (uncorrelatedness) também é suficiente. Em geral,

Aqui é a covariância, a qual é zero para variáveis aleatórias não correlacionadas.

Variância da população e variância da amostra

Em estatística, o conceito de variância também pode ser usado para descrever um conjunto de observações. Quando o conjunto das observações é uma população, é chamada de variância da população. Se o conjunto das observações é (apenas) uma amostra estatística, chamamos-lhe de variância amostral (ou variância da amostra).

A variância da população de uma população yi onde i = 1, 2, ...., N é dada por

onde μ é a média da população. Na prática, quando lidando com grandes populações, é quase sempre impossível achar o valor exacto da variância da população, devido ao tempo, custo e outras restrições aos recursos.

Um método comum de estimar a variância da população é através da tomada de amostras. Quando estimando a variância da população usando n amostras aleatórias xi onde i = 1, 2, ..., n, a fórmula seguinte é um estimador não enviesado:

onde é a média da amostra.

Notar que o denominador n-1 acima contrasta com a equação para a variância da população. Uma fonte de confusão comum é que o termo variância da amostra e a notação s2 pode referir-se quer ao estimador não enviesado da variância da população acima como também àquilo que é em termos estrictos, a variância da amostra, calculada usando n em vez de n-1.

Intuitivamente, o cálculo da variância pela divisão por n em vez de n-1 dá uma subestimativa da variância da população. Isto porque usamos a média da amostra como uma estimativa da média da população μ, o que não conhecemos. Na prática, porém, para grandes n, esta distinção é geralmente muito pequena.

Generalizações

Se X é uma variável aleatória vectorial, com valores em Rn, e considerado como um vector coluna, então a generalização natural da variância é E[(X − μ)(X − μ)T], onde μ = E(X) e XT é a transposta de X, e logo um vector-linha. A variância é uma matriz quadrada não-negativa definida, referida geralmente como a matriz covariância.

Se X é uma variável aleatória de valores complexos, então a sua variância é E[(X − μ)(X − μ)*], onde X* é o conjugado complexo de X. Esta variância, assim como no caso real, é uma matriz quadrada não-negativa definida, cuja diagonal são números reais não-negativos.

Desvio padrão

Em probabilidade e Estatística, o desvio padrão é a medida mais comum da dispersão estatística. O desvio padrão define-se como a raiz quadrada da variância. É definido desta forma de maneira a dar-nos uma medida da dispersão que:

seja um número não negativo;

use as mesmas unidades de medida que os nossos dados.

Faz-se uma distinção entre o desvio padrão σ (sigma) do total de uma população ou de uma variável aleatória, e o desvio padrão s de um subconjunto em amostra.

O termo desvio padrão foi introduzido na estatística por Karl Pearson no seu livro de 1894: "Sobre a dissecção de curvas de frequência assimétricas".

Definição e cálculo

Desvio padrão de uma variável aleatória

O desvio padrão de uma variável aleatória X é definido como:

onde é o valor esperado de X.

Nem todas as variáveis aleatórias possuem desvio padrão, porque esses valores esperados não precisam existir. Por exemplo, o desvio padrão de uma variável que flui em uma distribuição de Cauchy é indefinido.

Desvio padrão amostral

Se uma variável aleatória toma os valores , então o desvio padrão para esta amostra de n números (ou desvio padrão amostral) pode ser computado como segue. Primeiro, a média de , , é definida como:

(veja notação sigma). Depois, o desvio padrão amostral é calculado como:

A divisão por n − 1 aparece quando exigimos que a variância amostral seja um estimador não tendencioso da variância populacional .

Quando os dados estão agrupados(frequência) temos:

onde k é o número de observações diferentes.

Em outras palavras, o desvio padrão amostral de uma variável aleatória X pode ser calculada como:

Para cada valor xi calcula-se a diferença entre xi e o valor médio .

Calcula-se o quadrado dessa diferença. No caso dos dados estarem tabelados (com frequências), multiplica-se cada um destes quadrados pela respectiva frequência.

Encontra-se a soma dos quadrados das diferenças. No caso dos dados estarem tabelados (com frequências), a soma é a dos produtos dos quadrados das diferenças pela respectiva frequência.

Divide-se este resultado por: (número de valores - 1), ou seja, (n − 1).Esta quantidade é a variância s2.

Tome a raiz quadrática deste resultado.

Propriedades

A distribuição normal.

De uma distribuição normal unimodal, simétrica, de afunilamento médio (ou mesocúrtica) podemos dizer o seguinte:

68% dos valores encontram-se a uma distância da média inferior a um desvio padrão.

95% dos valores encontram-se a uma distância da média inferior a duas vezes o desvio padrão.

99,7% dos valores encontram-se a uma distância da média inferior a três vezes o desvio padrão.

Esta informação é conhecida como a regra dos "68-95-99,7".

Percentil

Definição

Em estatística descritiva, o k-ésimo percentil Pk é o valor x (xk) que corresponde à frequência cumulativa de N k/100, onde N é o tamanho amostral.

Portanto:

O 1º percentil determina o 1 % menor dos dados e

O 98º percentil determina o 98 % menor dos dados.

O 25º percentil é o primeiro quartil; o 50º percentil é a mediana. De igual forma, o 10º percentil é o primeiro decil e o 80º percentil é o oitavo decil.

A definição de Mendenhall e Sincich para o p-ésimo percentil de N valores ordenados é correspondente ao valor que ocupa a posição , arredondada para o inteiro mais próximo.

Obs.: A fórmula percentil utilizada pelo Excel retornará valores diferentes da definição de Mendenhall and Sincich.

A definição Minitab é dada como a interpolação linear do valor correspondente à posição.

Valor p

Em estatística, e especificamente no campo dos testes de hipóteses, o valor p, ou também valor-p ou ainda P-valor, é a probabilidade de que a nossa amostra podia ter sido tirada de uma população sendo testada assumindo que a hipótese nula seja verdadeira. Um valor de 0,05 por exemplo, indica que existe uma probabilidade de 5% de que a amostra que estamos a testar possa ser tirada, assumindo que a hipótese nula é verdadeira.

Interpretação do resultado

• Valor p próximo de 0 - Um indicador de que a hipótese nula é falsa.

• Valor p próximo de 1 - Não há evidência suficiente para rejeitar a hipótese nula.

• Normalmente considera-se um valor p de 0,05 como o patamar para avaliar a hipótese nula. Se o valor p for inferior a 0,05 podemos rejeitar a hipótese nula. Em caso contrário, não temos evidência que nos permita rejeitar a hipótese nula (o que não significa automaticamente que seja verdadeira). Em situações de maior exigência é usado um valor p inferior a 0,05.

...

Baixar como  txt (51 Kb)  
Continuar por mais 31 páginas »