TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Trabalhos dicionários

Por:   •  21/5/2015  •  Trabalho acadêmico  •  4.746 Palavras (19 Páginas)  •  239 Visualizações

Página 1 de 19

UNIVERSIDADE FEDERAL DE MINAS GERAIS[pic 1]

Escola de Ciência da Informação

 

Danielle Teixeira de Oliveira

Isabelle Adriene de Oliveira

Lorena Ingrid Assunção

Raíssa Salum Silva

Dicionários

Belo Horizonte

2015

Danielle Teixeira de Oliveira[pic 2]

Isabelle Adriene de Oliveira

Lorena Ingrid Assunção

Raíssa Salum Silva

DICIONÁRIOS

Trabalho apresentado ao curso de Biblioteconomia da Universidade Federal de Minas Gerais, como requisito de avaliação para aprovação da disciplina Introdução às Fontes de Informação.

Belo Horizonte

2015

DICIONÁRIO IMPRESSO

  1. Pesquisar um dicionário no catálogo da biblioteca da ECI e elaborar a referência completa da obra de acordo com a NBR 6023/ABNT.

O dicionário escolhido foi o Dicionário de Linguística. Segue abaixo sua referência:

DUBOIS, Jean et al. Dicionário de Linguística. São Paulo: Cultrix, 2006. 653p.

  1. Escolher um verbete.

Informação

  1. No sentido que dá a este termo a teoria da informação, a informação é a significação que se atribui a dados com a ajuda das convenções empregadas para representá-los; esse termo designa, portanto, tecnicamente falando, tudo o que se pode colocar, de alguma forma, sob uma forma codificada. Para os teóricos da comunicação, o termo de informação – ou “mensagem”* - designa uma sequência de sinais que correspondem a regras de combinação precisas, transmitida entre um emissor e um receptor por intermédio de um canal que serve de suporte físico à transmissão dos sinais. Para a teoria da comunicação, o sentido dessa sequência de sinais codificados não é considerado como um elemento pertinente.
  2. QUANTIDADE DE INFORMAÇÃO E CÁLCULO DA QUANTIDADE DE INFORMAÇÃO

Dois conceitos estão na base de cálculo da quantidade de informação transmitida: (1) o conceito de capacidade de um código ligado ao número de sinais alternativos desse código; (2) o conceito de quantidade real de informação transmitida, proporcional ao número de possibilidades do código.

  1. Informações e probabilidade

Quanto mais provável é um fenômeno, menos informa. Sua probabilidade permite quantificar e medir sua quantidade de informação. Tomemos um exemplo, o do estado do céu; dois casos são possíveis: (1) há grandes nuvens negras, diz-se “vai chover”; isso não informa grande coisa; a probabilidade de ocorrência do acontecimento é restrita; se o acontecimento se produz, a informação será maior.

Diz-se que a probabilidade de ocorrência de um fato é inversamente proporcional à quantidade de informação.

  1. Cálculo da quantidade de informação 

Pode-se definir três tipos de probabilidades:

(1) probabilidade certa positiva: coeficiente 1; (2) probabilidade certa negativa: coeficiente 0; (3) entre esses dois extremos, há probabilidades parciais (por exemplo; há 60 possibilidades sobre 100 de que chova); tem-se, então, uma certa informação que é calculável; se começa a chover, a probabilidade torna-se certa e toma o coeficiente 1. Quando se diz que há 60 possibilidades sobre 100 de que chova, a probabilidade é de 0,60. Quando o fato está terminado, a probabilidade torna-se igual a 1. A quantidade de informação é então igual a: 1 – 0,60 = 0,40.

Raciocinando abstratamente, podemos dizer que um fenômeno de probabilidade x tem um conteúdo de informação igual a 1 – Px. Por razões práticas, mede-se essa quantidade de informação I não pela probabilidade, mas por seu logaritmo. Seja

I : log 1 – log Px

e como log 1 = 0 :

I = log Px.

  1. Pode-se propor como modo de cálculo um processo completamente diferente; o processo dicotômico. Se tomarmos o exemplo do baralho, trata-se de um jogo de 32 cartas, de adivinhar uma dentre elas. O processo escolhido para identificar a carta é então a identificação pela seleção binária. Divide-se cada vez o campo dos possíveis em duas partes (preta-vermelha; depois copas-ouros, etc.).

É uma preta? – Não.

É uma copa? – Sim.

É uma figura? – Sim.

É um ás ou um rei? – Não.

É uma dama? Não.

Portanto, é um valete de copas.

Foram necessárias 5 questões para chegar ao resultado. 1/32 era a probabilidade da carta a encontrar. Ora, 5 é o logaritmo de base 2 de 32. Assim, a probabilidade define o número de operações necessárias para identificar uma forma.

Essa noção de seleção binária nos leva à ideia de um código simples de dois sinais possíveis, ambos igualmente prováveis (ou equiprováveis). É esse gênero de código que foi escolhido no quadro da teoria da comunicação.

  1. A informação se mede em unidades denominadas BITS.

Por definição, um código que comporta 2 sinais possíveis, ambos igualmente prováveis, tem uma capacidade de 1 bit cada vez que é utilizado. Um código que tem 4 escolhas possíveis tem uma capacidade de 2 bits; um código que tem 8 escolhas possíveis tem uma capacidade de 3 bits. Com outras palavras, a capacidade em bits de um código desse tipo é o logaritmo de base 2 do número de sinais alternativos que ele comporta:

      1

      1 x 2

      1 x 2 x 2

      1 x 2 x 2 x 2

1 x 2 x 2 x 2 x 2

 1 log 2

 2 log 2

 4 log 2

 8 log 2

16 log 2

 1 = 0

 2 = 1

 4 = 2

 8 = 3

16 = 4

etc.,

I = log 2 do número de sinais (x por exemplo); ou seja, I = log 2 x quando o código é equiprovável.

Ora, quanto menos improvável é um signo, mais ele transmite informação: a quantidade de informação é inversamente proporcional a probabilidade do signo

I = log 2 x [pic 3]

Define-se a quantidade de informação de um sinal pelo logaritmo de base 2 do inverso da probabilidade do sinal:

...

Baixar como (para membros premium)  txt (32.1 Kb)   pdf (454.5 Kb)   docx (228.2 Kb)  
Continuar por mais 18 páginas »
Disponível apenas no TrabalhosGratuitos.com