TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Implantando um Banco de Dados para Nuvem

Pesquisas Acadêmicas: Implantando um Banco de Dados para Nuvem. Pesquise 860.000+ trabalhos acadêmicos

Por:   •  29/9/2014  •  Pesquisas Acadêmicas  •  4.539 Palavras (19 Páginas)  •  264 Visualizações

Página 1 de 19

Índice

1 Objetivo da Pesquisa;

2 Introdução;

3 História do Cloud Computing;

3.1 Cloud no cenário atual;

4 Banco de Dados em Nuvem;

4.1 Oque é Multilocação em Nuvem;

5 Implantando um Banco de Dados para Nuvem;

6 Considerações Finais.

SANTO ANDRÉ

2013

Sumário

UNIESP SANTO ANDRÉ ANÁLISE DESENVOLVIMENTO DE SISTEMAS

OBJETIVO:

O objetivo geral do projeto é estudar as diferentes abordagens de banco de dados em nuvem, verificando quais as vantagens e desvantagens de cada uma. Para aplicação e comparação será utilizado um estudo de caso de uma Empresa de Desenvolvimento de Software.

SANTO ANDRÉ

2013

UNIESP SANTO ANDRÉ ANÁLISE DESENVOLVIMENTO DE SISTEMAS

Introdução

Quando ouvimos sobre Cloud Computing (Computação em Nuvem), nos referimos a dispositivos e aplicativos que são utilizados remotamente acessados pela internet, sendo assim as maquinas virtuais são executadas em grandes Datacenters, substituindo as maquinas físicas. Com os avanços da Tecnologia da Informação a utilização desse recurso se torna cada vez mais viável, o objetivo da Cloud Computing é aproximar cada vez mais as massas, desde usuários quem querem guardar suas informações até grandes empresas que terceirizam toda sua Infra-Estrutura de TI.A multilocação de dados em nuvem, é a forma das empresas SaaS compartilharem e reutilizarem seus recursos, assim reduzem custos, porém correm um grande risco, porque a indisponibilidade de um dado compartilhado pode afetar outros usuários. Compartilhar um recurso também aumenta a dificuldade de uma solução.

O argumento é poderoso, apesar de sua falha básica: um bom provedor de nuvem, cujo negócio é gerenciar um data center de multilocação, investe muito mais em segurança do que uma empresa cujo negócio não tem nada a ver com o gerenciamento de data centers.

Na verdade, é como dizer que seu dinheiro está mais seguro em um banco do que debaixo do colchão. Mas ainda existe a barreira psicológica da ilusão de segurança dentro das quatro paredes de uma empresa. Talvez esse receio possa ser reduzido com um seguro de nuvem, que inclui um seguro contra violações de segurança com descontos em relação aos seguros similares para a segurança de dados locais. Esses descontos devem estar disponíveis com base no nível de investimento em tecnologias de segurança feito pelo provedor da nuvem.

No entanto, mesmo que essas barreiras sejam superadas, vencendo as preocupações com a segurança, resta uma questão entre a realidade e a lei. Especificamente, mesmo que fique óbvio que os dados estão mais seguros em um provedor de nuvem do que dentro de uma empresa, leis arcaicas podem exigir que sejam mantidos dados locais. Eventualmente, as leis deverão refletir a realidade, mas isso levará tempo;

SANTO ANDRÉ

2013

História do Cloud Computing

A História do Cloud Computing ainda esta sendo escrita assim como seus estudos e também estão ainda no início desta história, a cada dia vemos muitas novidades.

De um computador para muitos: De duas décadas atrás os computadores eram agrupados para formarem um só supercomputador de grande capacidade para processamento.

Esta técnica foi comum entre diversos departamentos de TI. Clustering, como eram conhecidos, os quais se permitem configurar computadores usando um protocolo especial para que cada um pudesse conversar com outros demais.

A proposta era balancear a carga do processamento em diversas máquinas, dividindo-as mesmas em unidades de trabalho assim multiplicando processadores.Um usuário é um pouco distinto na execução de um aplicativo no CPU.

O software de gestão de Cluster assegura ao CPU uma maior capacidade de processamento no momento em que é usado para rodar um aplicativo ou código.

A chave para uma gestão eficiente é a engenharia por trás onde o dado é realizado este processo que ficou conhecido como data residency.

Computadores agrupados eram usual e fisicamente conectados em discos magnéticos que armazenavam o dado, enquanto CPU’s realizavam processos de input/ output (I/O) rapidamente e com eficiência.

Inicio dos anos 90, Carl Kesselman e Ian Foster apresentaram o conceito chamado ‘The Grid’ (‘A grade’), fazendo analogia com a grade de eletricidade, na qual os usuários poderiam se conectar e utilizar um serviço mais alinhado.

Eles imaginaram que se as companhias não pudessem gerar suas próprias cadeias de energia, deveriam assumir a compra de serviço de terceiros que pudesse ser capaz de proporcionar um fornecimento de eletricidade constante.

Então, eles se perguntaram: “Por que não aplicar o mesmo conceito para a computação?” Se um computador pode se plugar em uma grade de computadores e somente pagar pelos recursos utilizados trará uma solução de maior custo-benefício para as companhias do que comprar e gerenciar suas próprias infra-estruturas.

O Grid Computing se expande sob as técnicas utilizadas no modelo de Clustered Computing, em que os múltiplos clusters independentes aparecem para atua como uma grade simples porque não possuem o mesmo domínio.

SANTO ANDRÉ

2013

O maior obstáculo para superar a migração do modelo de clusters para Grid Computing foi o processo de data residency, porque com natureza de distribuição da grade, nódulos computacionais poderiam estar em qualquer parte do mundo.Paul Wallis explicou a questão da data residency para o modelo de grade dessa forma.

O poder avaliado

...

Baixar como (para membros premium)  txt (31.9 Kb)  
Continuar por mais 18 páginas »
Disponível apenas no TrabalhosGratuitos.com