Image Image Image Image Image
Scroll to Top

Topo

cloud

18

fev
2013

Sem Comentários

Em Cloud Computing
Mobile

Por Vinicius AC

A relação entre cloud computing e mobilidade

Em 18, fev 2013 | Sem Comentários | Em Cloud Computing, Mobile | Por Vinicius AC

Fonte: Cezar Taurion / IMasters

Na minha opinião, cloud e mobilidade têm uma relação tão íntima e sinérgica que não podemos falar de um assunto sem incluir o outro. Sem um ambiente dinâmico de cloud computing no background, torna-se impossível atender aos requisitos de escalabilidade e flexibilidade que os apps demandam. Além disso, com cloud, os apps inovadoras podem explorar novas funcionalidades, como as proporcionadas por imensos volumes de dados (Big Data), impossíveis de serem coletados individualmente. Esta sinergia já aparece em aplicações como o DropBox e iCloud. O serviço Google Maps Coordinate também é um outro belo exemplo desta sinergia. Na verdade, estamos visualizando duas nuvens sinérgicas: de um lado, uma nuvem de dispositivos móveis que as pessoas possuem, sejam smartphones e tablets, de diversos fornecedores e tecnologias e de outro, o imenso poder computacional concentrado em “cloud data centers”. Estas duas nuvens, conectadas, criam o espaço para criarmos apps inovadores.

Nos próximos anos, mais e mais apps inovadores vão surgir e se tornar, pelo menos por algum tempo, “killer applications”. Isto significa que elas terão dezenas ou até mesmo centenas de milhões de downloads por mês durante algum tempo. Estas aplicações, quando utilizadas,  demandarão uma imensa capacidade computacional para atender aos seus usuários. E um complicador a mais, com demanda  altamente variada, quase impossível de prever. Um data center tradicional, configurado para atender os períodos de pico será excessivamente custoso e tornaria o projeto inviável.

Este cenário não é nada impossível, uma vez que hoje já existe mais de um bilhão de smartphones e em 2, ou 3 anos teremos dois bilhões deles. Com o surgimento de smartphones mais baratos, produzidos na China, como os ZTE e Huawei, este numero deverá aumentar significativamente. Apesar da capacidade computacional dos smartphones e tablets ser bem poderosa, seu elevado consumo de bateria em aplicações intensivas em computação, demanda que as operações computacionais mais complexas sejam efetuadas na retaguarda, em cloud data centers.

E estes novos apps demandarão recursos computacionais complexos que precisam de um forte suporte  de computação e armazenamento. Alguns exemplos? Imaginemos aplicações para varejistas, que explorem a personalização de ofertas baseadas no conhecimento contextual do cliente. Onde ele está, seus gostos, seus hábitos de consumo, etc, tudo obtido em tempo real, exatamente quando ele se encontrar diante de um produto na gôndola de uma loja. Estes dados não estarão armazenados no dispositivo móvel, mas na nuvem. Além disso, acrescente análises comportamentais baseadas nas emoções demonstradas pelos rostos das pessoas diante de um produto. Vejam o caso da empresa suiça de tecnologia de reconhecimento facial, a Nviso, que se intitula software de reconhecimento emonional baseado no movimento dos olhos e micromovimentos faciais.

Analisar e tomar decisões baseados em todo este complexo emaranhado de dados demanda alta capacidade de processamento, que só pode ser efetuado em cloud data centers. Além disso, os apps em smartphones e tablets terão interfaces com a Internet das Coisas, com objetos, como sua própria casa interagindo om você. Aliás, hoje você sai de casa com seu smartphone, suas chaves de casa e seus cartões de crédito e débito. Em breve, estes cartões e as chaves estarão no seu smartphone. Este será seu unico objeto. Mas além da casa teremos o carro, os eletrodomésticos,  etc. A interface natural será via cloud, uma vez que estes dispositivos demandarão diversas interfaces e precisarão acessar informações que garantam a segurança no seu uso. Tudo isso tem que estar em uma nuvem e não no próprio smartphone, mesmo porque você vai ter mais de um aparelho móvel. Ou trocá-lo com frequência…

Estes apps serão de negócios e não apenas para usuários finais com a maioria dos apps atuais. A cada dia, tablets e smartphones absorvem o trabalho profissional feito hoje em desktops e laptops e nos próximos anos eles passarão a ser a principal interface dos funcionários das empresas com os seus sistemas corporativos. Uma simples aritmética ajuda a visualizar esta situação: de maneira geral um tablet ou smartphone dobra de capacidade computacional a cada ano e meio ou menos. O ciclo de troca dos desktops e laptops em uma empresa é de três ou quatro anos em média. Bem, basta imaginar como estarão os smartphones e tablets daqui a três anos, quando  empresa for renovar seu parque computacional de desktops e laptops. Será que os tablets e  smartphones não atenderão plenamente aos requisitos de segurança e capacidade? E com as novas apps em nuvem, que estará bem mais consolidada daqui a trÊs anos, é, na minha opinião, inevitável que os dispositivos móveis passarão ser maioria no ambiente de trabalho após o próximo ciclo de renovação tecnológico.

….

Leia a  conclusão aqui: http://imasters.com.br/tecnologia/mobile/a-relacao-entre-cloud-computing-e-mobilidade/

Tags | , , , , , ,

Enciclopédia do Heroku

Em 23, ago 2012 | Sem Comentários | Em Arquitetura, Cloud Computing, Rails | Por Vinicius AC

Fonte: AkitaOnRails

Atualização 05/06: Depois que escrevi este artigo, encontrei um outro muito bom que recomendo a leitura por ter mais detalhes para complementar. O artigo se chamaHeroku isn’t for Idiots

Se você quer lançar uma aplicação Rails rapidamente, não existe melhor solução do que o Heroku. Para quem não conhece, o Heroku é um Paas (Platform as a Service) que roda sobre o Amazon EC2 (que é um IaaS ou Infrastructure as a Service). O Heroku automatiza a criação de uma nova máquina virtual (volátil! isso é importante) e configura todo o ambiente para rodar Ruby.

O Heroku usa uma unidade de máquina virtual chamada “Dyno”, a grosso modo, considere um Dyno como uma máquina virtual “pequena” com 4 cores e até 512Mb de RAMsem swap file e sem suporte a persistência de arquivos (não faça uploads diretamente no diretório public/uploads ou algo assim, sempre configure para mandar para a Amazon S3, aprenda como neste tutorial). Configurar um novo ambiente é simples, o próprio Heroku tem uma boa documentação ensinando como e recomendo ler antes de continuar.

Subir uma única dyno usando um banco de dados compartilhado PostgreSQL é de graça, o que é excelente para testar sua aplicação. Obviamente apenas um único dyno é pouco para qualquer aplicação séria lançada em produção para o público.

O Heroku fornece “stacks” padrão que é o perfil pré-configurado de um dyno para uma determinada plataforma. Para Ruby e Rails a mais atual (na data de publicação deste post) é a Celadon Cedar, a anterior era a Badious Bamboo portanto se encontrar um tutorial qualquer de Heroku por aí, cheque sobre qual stack estamos falando, só use se for para Cedar.

Concorrência num Dyno

A primeira coisa que me chamou a atenção é que a configuração recomendada é executar uma aplicação Ruby usando o servidor Thin. Pense no Thin como uma evolução do venerado Mongrel mas que suporta executar Eventmachine internamente. Na prática é um Mongrel melhorado, o que significa que cada Dyno, por padrão, não suporta mais do que 1 única execução concorrente (não confundir com “requisições por segundo”!! Muita gente erra isso. Um único processo com uma única execução concorrente pode executar várias requisições por segundo, basta cada requisição demorar menos de 1 segundo).

Executar múltiplos Thins poderia ser possível mas se queremos mais processos rodando simultaneamente para responder mais requisições ao mesmo tempo, a melhor opção é usar Unicorn. Leiam a documentação para aprender as peculiaridades do Unicorn, na prática pense nele como um controlador de processos Ruby. O melhor tutorial para usar Unicorn no Heroku continua sendo o do Michael van Rooijen. Não vou repetir tudo que ele disse, mas as partes importantes são:

Substituir a gem thin pela unicorn na sua Gemfile:

group :production, :staging do
  gem 'unicorn'
  ...
end

Em seguida precisamos declarar quantos processos do Unicorn queremos de cada vez, então crie um arquivo config/unicorn.rb com o seguinte:

worker_processes 4 # amount of unicorn workers to spin up
timeout 50         # restarts workers that hang for 30 seconds

Leiam atentamente o post original do Michael, ele explica alguns benchmarks que ele fez para determinar a quantidade ótima de workers de Unicorn e o ideal é entre 3 e 4 processos. A informação não-oficial que eu tenho é que cada dyno tem até 4 CPUs, o que justifica esse número de processos. Mais do que isso, chequem sempre quanto de memória cada processo consome (ferramentas como NewRelic ajudam nisso) pois a somatória precisa ser menor que 512Mb ou você terá problemas.

Finalmente, a stack Cedar permite configurar perfis de dynos num arquivo chamado Procfile que fica na raíz do seu projeto. Para que a dyno levante com Unicorn coloque o seguinte:

web: bundle exec unicorn -p $PORT -c ./config/unicorn.rb

Continue aqui: http://www.akitaonrails.com/2012/04/20/heroku-tips-enciclopedia-do-heroku?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+AkitaOnRails+%28Akita+On+Rails%29#.UDYbXdZlT3w

Tags | , , ,

27

abr
2012

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Nuvens públicas: selecionando o melhor provedor

Em 27, abr 2012 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Fonte: Cezar Taurion/IMasters

Quando ouvimos o termo “cloud computing”, fazemos de imediato uma associação com o conceito de nuvem pública, baseada em IaaS. Essa percepção começou quando a Amazon anunciou o seu serviço AWS. Claro que ainda é um mercado que não está maduro – e nem poderia, pois o AWS surgiu em 2002, ou seja, há apenas dez anos -, mas esse processo de amadurecimento está se acelerando. Sua cosolidação fica mais forte quando empresas, como a IBM, também lançam sua nuvem pública. A da IBM se chama SCE – Smarter Cloud Enterprise.

Vamos lembrar que uma nuvem é basicamente a combinação de virtualização + padronização + automação, o que nos permite oferecer portais de acesso self-service aos usuários. No modelo IaaS, o provedor fornece basicamente servidores virtuais e seus sistemas operacionais. A partir daí, a responsabilidade de conteúdo, como middleware e aplicativos, é da empresa que contrata a nuvem, e não do provedor. Portanto, o IaaS é um serviço bem diferente do PaaS e do SaaS. Não podem e nem devem ser considerados como serviços similares. Sendo assim, entende-se que uma nuvem não é igual à outra.

O uso da nuvem pública começa, aos poucos, a ser comum, mas ainda encontramos alguns receios e desinformações circulando pelo mercado. Muita gente pensa que uma nuvem pública é para ser usada apenas para coisas mais periféricas, como sites e aplicações que não sejam críticos para as empresas. Mas já vemos muitos negócios baseados inteiramente nesse tipo de serviço, como o site brasileiro Peixe Urbano, e Netflix e FourSquare, dos EUA – e isso para citar apenas alguns exemplos. E esses são negócios que dependem de TI para funcionar e conseguem demonstrar na prática que uma nuvem pública é confiável.

Empresas de pequeno e médio porte tendem naturalmente a colocar seus data centers em nuvens públicas. E não só pelo menor custo, mas pela própria necessidade do negócio. Por que gastar recursos que são escassos, como tempo e dinheiro, mantendo servidores dentro de casa, se existe uma outra opção mais adequada? Na verdade, uma nuvem pública pode oferecer um nível de segurança e disponibilidade bem maior do que a oferecida hoje em muitos dos data centers das pequenas e médias empresas.

O que começa a mudar?

Adotar uma nuvem pública IaaS deixa de ser uma discussão técnica para ser uma decisão estratégica, de negócio. Mas, ao subirmos o patamar das decisões, a escolha do provedor de nuvem se torna algo mais complexo. Além disso, a governança de TI da empresa continua com a empresa. Não é terceirizada totalmente.

O modelo IaaS tende, aos poucos, a se tornar comoditizado, pois as ofertas, com o amadurecimento do mercado, tenderão a ser bastante similares em termos de segurança, disponibilidade, desempenho e suporte. Uma analogia simples pode ser feita com o mercado de PCs, quando praticamente não vemos diferenças marcantes entre os vários PCs disponíves no mercado. Mas hoje, com um mercado ainda em fase de amadurecimento, as ofertas dos diversos provedores são diferentes e, portanto, a escolha do provedor de nuvem não pode ser feita de forma superficial.

O que verificar quando analisar provedores?

Primeiro, se você for colocar seu negócio em uma nuvem, é importante que o provedor tenha um ou mais data centers que sejam adequados aos seus requisitos de segurança, disponibilidade, desempenho e suporte. À primeira vista todos oferecem, mas, quando você vai conferir, vê-se que a localização do data center de um provedor pode não ser a mais adequada em termos de garantia de segurança e acesso em momentos críticos. Há também a questão do suporte. Um bom suporte exige uma equipe técnica treinada e eficiente e custa dinheiro para manter isso. Além do mais, a nuvem tem que dispor de ferramentas tecnológicas que garantam a excelência na automação da operação. E, claro, sustentar o crescimento de sua base de clientes sem afetar os já existentes, oferecendo condições de escalabilidade. Novamente entram em cena os requisitos de expertise e capital.

Bem, vamos listar alguns requisitos que devem ser considerados quando analisamos potenciais provedores de nuvens públicas:

  1. Disponibilidade e SLA (Service Level Agreement): Qual o nível de disponibilidade oferecido? Quando analisamos mais detalhadamente o portfólio de aplicações de uma empresa, observamos que a maioria delas não é estratégica ou crítica, com um perfil de dados que não é sensível em termos de segurança. Também observamos que a maioria dessas aplicações pode operar em um ambiente de disponibilidade menor que 95%. Ora, essas aplicações podem ser deslocadas para nuvens públicas sem maiores sustos. Mas e se as aplicações precisarem de 99,9% de disponibilidade? O provedor oferece esse nível?
  2. Política de preços: O custo de hora de computação tende a ser bem barato, mas olhe com atenção os custos de armazenamento e comunicação. Veja também o nível de flexibilidade da política de preços. Por hora? Por dia? Contratos mensais? Veja quanto custa a capacidade adicional que você inicialmente requisitou.
  3. Em uma nuvem pública IaaS, você continua responsável pela governança da sua TI, mas veja o que o provedor pode oferecer em termos de serviços adicionais, como backup, ferramentas de monitoramento do desempenho, planejamento de capacidade etc. Essas ferramentas estão disponíveis para você analisar o desempenho dos seus servidores virtuais?
  4. Quais são os recursos de segurança implementados pelo provedor? Por exemplo, eles têm defesa contra ataques do tipo DoS (Denial of Service)? O provedor está compliance com certificações, como PCI, SAS 70, SSAE 16, ISO 27001 e FISMA, apenas para citar as mais comuns? Há um estudo muito interessante que aborda segurança em provedores de nuvem, acesse.
  5. O data center está localizado no território brasilerio? Se não, a que leis ele estará sujeito? Em caso de auditoria e eventual investigação forense, como você terá acesso a seus dados?
  6. Qual o background do fornecedor em lidar com clientes corporativos? O mercado voltado para usuário final e o corporativo são bem diferentes em demandas de suporte e preparo da equipe técnica. Um provedor que não tenha fortes raízes no atendimento ao mercado corporativo poderá encontrar muita dificuldade em atender às demandas específicas dos seus clientes.
  7. Suporte: Como é o suporte? 24 x7? Via e-mail, telefone ou chat? Qual a política de preços para níveis de suporte diferenciados?
  8. Billing: A fatura é fácil de entender e abrangente o suficiente para não gerar dúvidas?
  9. Contrato: Quais são as garantias contratuais? Como é a rescisão? Existem facilidades para você migrar para outro provedor? Quais e quanto custam? Existe garantia de que os dados serão apagados após o fim do contrato? Além disso, observe que na maioria das empresas a auditoria exige um contrato, diferente de uma nuvem de uso pessoal, em que com um simples cartão de crédito você abre uma conta e obtém servidores virtuais.
  10. O provedor é financeiramente estável? Tem condições de investir e acompanhar a evolução do mercado e das tecnologias de cloud? Tem condições de ampliar sua capacidade?
  11. Qual é a estratégia de cloud do provedor? Quão importante é para o negócio dele?
  12. Existe um ecossistema em torno do provedor que ofereça aplicativos, educação e consultoria que possam ajudá-lo a usar melhor a computação em nuvem?

Como vemos, existem vários requisitos que devem ser analisados. Fale com os representantes de vendas do provedor, visite o data center, ligue para outros clientes e veja o grau de satisfação deles. E não esqueça que a governança de TI continua com você. Assim, analise as licenças de software que você tem e valide-as com relação ao seu uso na nuvem. Mantenha uma equipe que interaja com o provedor para resolver problemas e manter um SLA adequado às suas necessidades. E concentre-se no seu negócio, deixando a tarefa de gerenciar os seus servidores e seus sistemas operacionais (puro overhead, que não agrega um centavo ao seu faturamento) por conta do provedor.

Bem-vindo às nuvens!

Tags | , , , ,

19

mar
2012

Sem Comentários

Em Blog
SQL

Por Allison

Microsoft disponibiliza SQL Server 2012 RC0

Em 19, mar 2012 | Sem Comentários | Em Blog, SQL | Por Allison

Com informações de Porta 25

Fonte: IMasters

A Microsoft disponibilizou o SQL Server 2012 RC0, que já pode ser baixado no site oficial do SQL Server 2012. A liberação ocorreu cinco meses depois do TechEd 2011, quando a empresa convidou desenvolvedores e profissionais de TI a fazerem o download do CTP3 do SQL Server 2012, de codinome Denali.

O SQL Server 2012 viabiliza uma plataforma de informação pronta para a nuvem, capaz de ajudar as organizações a tirar melhor proveito de informações extraídas de dados estruturados, não-estruturados e de fontes de dados em cloud gerenciadas por um serviço de BI gerenciado pelo próprio usuário.

Além disso, ele traz novas ferramentas para desenvolvedores, recursos para otimização do seu uso em cloud pública ou privada, novos recursos de relatórios, melhorias nas ferramentas de integração de dados com qualquer tipo de fonte para análises de business intelligence, entre outras novidades.

A versão final do produto será lançada ainda neste semestre, e a Microsoft realiza um evento online no dia 7 de março para detalhar melhor as inovações do lançamento.

Tags | , , ,

29

fev
2012

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Deltacloud agora faz parte do Apache Top Level Project

Em 29, fev 2012 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Com informações de The H

Fonte: IMasters

O projeto Apache Deltacloud, que vem sendo incubado no Apache desde que foi contribuído para o Apache, em maio de 2010, pelo Red Hat, se tornou oficialmente parte do Apache Top Level Project.

O Deltacloud é uma definição para uma API REST para interagir com provedores de serviços em nuvem. Ele também inclui implementações para um servidor de API para serviços populares em cloud, como Amazon, Eucalyptus, GoGrid, Microsoft, OpenStack e Rackspace. Além disso, há bibliotecas clientes para Ruby, C e C++.

Na verdade, o Deltacloud foi votado e elevado à categoria de projeto de alto nível em outubro de 2011. A razão de isso ter sido anunciado ontem não está clara, mas alguns projetos levam tempo para migrar sua infraestrutura para alto nível.

O Deltacloud é o segundo projeto de gerenciamento de API em nuvem a ser qualificado para o status de alto nível da Apache Software Foundation. Em maio de 2011, o Apache Libcloud conseguiu o feito. Ele é uma implementação baseada em Python de API common vendor-independent para serviços em nuvem. Ela usa múltiplos backends para traduzir sua API para um serviço alvo.

Esses dois projetos são algumas das tentativas de criar uma API padronizada para interagir com nuvens IaaS (Infrastructure-as-a-Service). Outras novidades incluem um serviço de barramento da Open Source Business Foundation, um guia IEEE e um padrão para portabilidade cloud, e uma iniciativa OASIS chamada TOSCA (Topology and Orchestration Specification for Cloud Applications).

O Deltacloud está disponível para download e para instalação neste link e é distribuído sob a Apache Licence 2.0.

Tags | , , , ,

26

jan
2012

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Segurança em nuvem e o fator escolha do provedor

Em 26, jan 2012 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Fonte: Cezar Taurion/IMasters

Em 2011, nas muitas palestras e eventos de que participei, quase sempre ouvia o questionamento quanto à segurança e à disponibilidade das nuvens públicas. As eventuais falhas que aparecem em nuvens públicas se espalham com muita rapidez com, na minha opinião, excessiva publicidade, pela mídia. Um “cloud data center” é uma infraestrutura complexa, com muita tecnologia envolvida e com alto grau de resiliência. Mas, embora nada seja completamente imune a falhas, com certeza ele será bem mais seguro e confiável que a imensa maioria dos data centers que vemos espalhados pelo Brasil afora…

Colocar sua empresa em uma nuvem pública não significa que você vai se omitir das questões de segurança e privacidade. A escolha do provedor é fundamental. Existem provedores focados em usuários finais e em empresas muito pequenas, que sofrem menos em termos financeiros e operacionais quando eventualmente seus sistemas saem do ar, e aqueles focados em usuários corporativos, que sabem que um sistema indisponível pode significar milhões de reais em prejuízo. Portanto, existem provedores e provedores…

Para usar uma nuvem pública, é sempre bom ser cauteloso e fazer uma “due diligence” para se assegurar de que o provedor adota práticas de segurança e de disponibilidade adequadas. Uma boa fonte de pesquisas e estudos sobre o assunto, bem como certificações de resiliência de data centers, pode ser vista no Uptime Intitute (http://uptimeinstitute.com/). Em tempo, no Brasil é http://uptimeinstitute.com/uptime-institute-brasil. Sugiro também ler a autópsia da queda do data center da Amazon, em Dublin, na Irlanda no ano passado em http://aws.amazon.com/message/2329B7/.

É importante saber que sempre pode existir uma falha. Assim, analise as práticas adotadas pelo provedor, o grau de transparência de informações que ele passa e os serviços de recuperação de falhas que ele oferece. Valide se ele adota práticas profissionais como ITIL e se está aderente a regras de segurança ISO/IEC 27001:2005. Uma boa fonte de suporte é a Cloud Security Alliance e seu GRC Stack (Governance, Risk Management and Compliance) em https://cloudsecurityalliance.org/research/grc-stack/, que contém vários documentos que ajudam uma empresa a avaliar seu provedor de nuvem pública. Recomendo também, como apoio nessa avaliação, acessar a página do CAMM (Common Assurance Maturity Model) em http://common-assurance.com/ e estudar os seus papers.

Além disso, arquitete seus sistemas para explorar as potencialidades das nuvens públicas e crie condições de resiliência próprias. Isso significa que você não deve simplesmente transferir de olhos fechados seus aplicativos on-premise para a nuvem. Adicione a esse processo as práticas de segurança e de recuperação adequadas para operar na nuvem. Não se esqueça de avaliar cuidadosamente as cláusulas contratuais quanto a esses aspectos. Na prática, a responsabilidade pela gestão dos riscos é compartilhada entre o provedor da nuvem e os seus clientes.

Tags | , ,

25

nov
2011

Sem Comentários

Em Blog

Por Allison

Heroku lança serviço de provisionamento exclusivo para PostgreSQL

Em 25, nov 2011 | Sem Comentários | Em Blog | Por Allison

A Heroku mudou a estratégia do seu serviço Heroku Postgres. A partir de agora o serviço provê uma infraestrutura para armazenamento de bases de dados PostgreSQL, independente da solução PaaS (Platform as a Service) utilizada. O Heroku Postgres é uma plataforma disponibilizada com o conceito SQL Database-as-a-Service; a proposta é que os desenvolvedores implementem suas aplicações com o PostgreSQL sem se preocupar com questões como disponibilidade e desempenho, uma vez que estas serão resolvidas pela própria infraestrutura do Heroku.

O Heroku Postgres foi disponibilizado em 2007, mas até agora era oferecido somente como um serviço agregado à plataforma de nuvem da Heroku. O serviço estava disponível apenas para os clientes que desenvolviam e implantavam suas soluções web utilizando o PaaS da empresa. Com a nova estratégia, desenvolvedores têm a opção de utilizar o serviço em conjunto com a plataforma de cloud computing da Heroku ou não. Isso possibilita o desenvolvimento utilizando outra solução PaaS, um ambiente de cloud diferente, ou até utilizando um máquina local.

Segundo a equipe da Heroku, as principais vantagens em utilizar o serviço são a disponibilidade e a capacidade de processamento, além da segurança dos dados:

O Heroku Postgres tem suportado com sucesso 19 bilhões de transações clientes diariamente. A segurança e a durabilidade dos dados são a prioridade número um do serviço. Um conjunto de tecnologias chamado Continuous Protection foi desenvolvido para evitar qualquer tipo de perda de dados, mesmo em caso de falhas catastróficas.

Atualmente são oferecidas seis opções de planos para contratação do serviço. Os preços variam de acordo com o tamanho do cache escolhido, começando em 200 dólares por mês e chegando a US$ 6.400 mensais. Todos os planos incluem backup dos dados, monitoramento 24×7, 2 terabytes de espaço em disco, entre outras funcionalidades.

O Heroku Postgres também fornece uma API para que os clientes utilizem o serviço através da linha de comando ou via website. Para os interessados em mais detalhes, foi disponibilizado material com um guia introdutório, documentação detalhada, tutoriais e artigos sobre o serviço.

Fonte: Eder Magalhães/InfoQ

Tags | , , , , ,

23

nov
2011

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Oracle aumenta oferta de aplicativos em nuvem

Em 23, nov 2011 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Nesta semana, a Oracle anunciou o lançamento de dois sistemas baseados em nuvem: o Oracle Fusion CRM (Customer Relationship Management) e o Oracle Fusion HCM (Human Capital Management). Eles fazem parte da Oracle Public Cloud, que a empresa anunciou recentemente e que possui várias ofertas no modelo SaaS, e é comercializada no modelo de preço por assinatura.

O CRM Cloud Service apresenta funcionalidades de planejamento, prospecção, colaboração e fechamento de negócio. Além disso, ele conta com Business Intelligence integrado ao sistema, o que amplia o suporte ao planejamento e gerenciamento de desempenho de vendas.

Já a suíte de HCM, também comercializada no modelo de assinatura, possui RH centralizado, folha de pagamento e funcionalidades para gerenciamento de benefícios. O conjunto conta ainda com um aplicativo para gestão de talentos, com funcionalidades como gestão de compensação, de iniciativa, de desempenho e de metas.

O Cloud Services da Oracle oferece ao cliente suporte para a escolha dos modelos de implementação com portabilidade entre nuvem pública, privada e implementações no local. As organizações podem começar com um módulo e migrar para a suíte completa ao longo do tempo.

Link publicado originalmente em Convergência Digital

Fonte: IMasters

Tags | , , ,

17

nov
2011

8 Comentários

Em Blog

Por Allison

Fedora Linux 16 em detalhes: foco em cloud computing

Em 17, nov 2011 | 8 Comentários | Em Blog | Por Allison

A comunidade Fedora lançou a versão 16 da popular distribuição do Linux. Entre as principais novidades, estão o suporte ao Kernel 3.1, Gnome 3.2 e KDE Plasma 4.7, além de várias melhorias em relação ambientes de nuvem e virtualização.

Embora seja tradicionalmente voltada para desenvolvedores de projetos open source, oferecendo as últimas atualizações (potencialmente instáveis) destes projetos, a distribuição Fedora vem também sendo reconhecida como uma boa distribuição para usuários domésticos e corporativos. A nova versão foi dedicada pela comunidade a Dennis Ritche, um dos criadores da Linguagem C e do Unix.

Recursos para nuvem

Vários recursos de cloud computing estão embutidos no novo Fedora, com destaque para:

  • Aeolus Conductor – Interface web para gerenciamento de ambientes de nuvem de vários fornecedores, públicos e privados, por exemplo Amazon EC2, Rackspace, VMWare VSphere e Eucalyptus.
  • OpenStack e Condor Cloud – Duas opções que fornecem infraestrutura completa para criação nuvens privativas.
  • HekaFS – Antigo GlusterFS, é um sistema de arquivos de cluster com recursos de multitenancy para nuvem e criptografia OpenSSL.
  • pacemaker-cloud – Extensão do pacemaker (para do Red Hat Cluster Suite) para gerenciar disponibilidade e fail-over de aplicações e recursos em nuvem.
  • Matahari – Coleção de APIs e agentes para monitoramento e gerenciamento de sistemas.

Virtualização e mudanças para o administrador de sistemas

O Fedora é a base para o desenvolvimento do RHEL (Red Hat Enterprise Linux) e suas distribuição derivadas, como o CentOS. Assim o administrador de sistemas corporativo (também conhecido como sysadmin) tem no Fedora uma prévia do que virá em versões futuras destas distribuições; por exemplo:

  • Capacidade de inspecionar o conteúdo de arquivos em imagens de VM (read-only), e o conteúdo do Windows Registry armazenado nestas imagens.
  • Suporte a Dom0 do Xen (parte do kernel 3.1), de modo que não é mais necessário usar um kernel modificado com o Xen Server da Cytrix, Oracle VM e outros produtos baseados no Xen. O Dom0 é o domínio que realiza todas as operações de entrada e saída, para os demais domínios (VMs); ou seja, é ele quem fornece os drivers para o hypervisor.
  • Mudanças no processo boot, que agora usa Grub2, permite particionamento utilizando GPT em lugar do antigo MBR do MS-DOS (fim dos limites de tamanho das partições!) e suporta o Trusted Boot da Intel, quando disponível no hardware. O antigo subsistema HAL para detecção de novo hardware foi descontinuado, sendo substituído pelo udev e serviços relacionados.
  • Chrony, novo servidor NTP mais tolerante a relógios imprecisos de PCs e sistemas que passam longo tempo desconectados da internet, como notebooks e VMs que ficam suspensas frequentemente.
  • Ike (Shrew Soft VPN Client), novo cliente VPN que facilita o uso do IPsec.

Também há suporte ao compartilhamento de dispositivos USB 2.0 do host com máquinas virtuais KVM. Isso, somado ao suporte a SPICE, torna o Fedora Linux uma plataforma melhorada para virtualização de desktop. Um dispositivo USB também pode ser compartilhado com outras máquinas em rede.

Novidades para o desenvolvedor

O Fedora Linux traz recursos importantes para o desenvolvedor corporativo. É a distribuição do Linux com suporte mais abrangente ao Eclipse e outros recursos para desenvolvimento Java, PHP, Python e Ruby.

Entre as novidades do Fedora 16 para desenvolvedores, podemos destacar:

  • BE (Bugs Everywhere) – Um bug tracker integrado a sistemas de controle de versões distribuídos, para simplificar a gerência e o rastreamento de mudanças.
  • btparser – Ferramenta para análise de backtraces do gdb.
  • D2 – Nova linguagem que tenta reunir as vantagens de Java e C++.
  • WSO2 – Framework de Web Services SOA e WS-* para C++.

O OpenJDK 7 também é oferecido, mas apenas como Technology Preview. O Eclipse, o Tomcat e outras aplicações Java continuam sendo compiladas com o Open JDK 6. O motivo é a falta de um TCK (kit oficial de testes de compatibilidade/aderência) para o Java 7, de modo que empresas que usam o Fedora em produção podem preferir usar os downloads (proprietários) da Oracle. (Também foram descobertas diversas pequenas incompatibilidades entre bibliotecas Java populares e o Java 7, que não puderam ser resolvidas a tempo para o lançamento do Fedora 16.)

Novidades para usuários finais

Para usuários finais, a grande novidade é a inclusão do Gnome 3.2, que continua despertando reações ame-ou-odeie pela sua nova interface com desktop limpo e suporte a tablets. Um destaque é o gerenciamento integrado de contas de serviços internet (Google, Facebook, Jabber etc.) e de serviços de armazenamento em nuvem.

Entre as novas aplicações inclusas no Fedora 16, podemos citar:

  • Routino – Navegação via OpenStreetMaps.
  • WriteType – Ajuda crianças a escrever corretamente, com predição de palavras, autocorreção e suporte a voz para leitura.
  • Ease – Software de apresentações baseado no Cutter, integrado ao Gnome 3 e com interface otimizada para tablets.

Obtendo e instalando o Fedora 16

É possível baixar imagens ISO para mídias live em CD ou pendrive, ou então baixar um DVD (.iso) contendo os principais pacotes para servidores e desenvolvimento. É possível também usar uma mídia para instalação a partir da internet. Além disso, já estão disponíveis imagens prontas para nuvens Amazon.

Quem já tem o Fedora 15 ou versões anteriores, pode fazer uma atualização diretamente pelo gerenciador de atualizações gráfico da distribuição, ou pela ferramenta preupgrade.

É importante lembrar que o Fedora não inclui softwares proprietários, como alguns drivers para placas Wi-Fi e vídeo NVidia, ou codecs para MP3. Mas estes são facilmente instalados usando o EasyLife (que em breve estará atualizado para o Fedora 16), ou então o repositório RPM Fusion (já atualizado). Usuários habituados ao Debian e Ubuntu podem consultar este Guia de Transição do Ubuntu para Fedora.

Fonte: Fernando Lozano/InfoQ

Tags | , , , , , , , , , , , , , ,

07

set
2011

Sem Comentários

Em Blog

Por Allison

Maior Segurança para Empresas com Cloud DDoS Protection

Em 07, set 2011 | Sem Comentários | Em Blog | Por Allison

A Imperva anunciou o lançamento do Cloud DDoS Protection, um seguro de serviços baseados em nuvem que protege as empresas contra ataques DDoS. Ao subscrever este serviço, as organizações podem proteger-se contra os danos downtime, e potenciais perdas de receita causadas por ataques DDoS.

Os principais recursos incluem maior rapidez, proteção abrangente, devido ao Imperva Cloud DDoS Protection Service fornecer um mecanismo de defesa contra todos os tipos de ameaças DDoS, incluindo ataques baseados em rede, como SYN ou UDP floods e ataques a aplicações que tentam dominar os recursos do servidor. As escalas de serviço on-demand freiam os ataques multi-gigabit de negação de serviço.

Centralized Attack Analysis (análise de ataque centralizado): a Imperva Security Operations Center (SOC), de maneira granular, utiliza políticas de conhecimento coletivo sobre ameaças DDoS, incluindo novos e emergentes métodos de ataque e conhecidos usuários mal-intencionados. Quando sob um ataque, o SOC Imperva monitora o desempenho das aplicações, a fim de manter os sites protegidos.

Acessível e fácil de implantar: como um serviço gerenciado, Imperva Cloud Protection DDoS evita hardware caro e os custos indiretos para os clientes que querem garantir o desempenho máximo da aplicação uptime. Os clientes podem prestar o serviço simplesmente alterando a configuração do DNS do seu website.

Fonte: Under-Linux

Tags | , , ,

27

ago
2011

Sem Comentários

Em Blog

Por Allison

Amazon ElastiCache: cache distribuído e escalável no AWS

Em 27, ago 2011 | Sem Comentários | Em Blog | Por Allison

Foi anunciado hoje mais um serviço dentro da plataforma de cloud computing da Amazon também conhecido por AWS. O serviço ElastiCache provê uma uma forma robusta e escalável de adicionar caches distribuídos em aplicações na nuvem.

No desenvolvimento de aplicações web, é comum reduzir o processamento e o acesso do banco de dados, direcionando para algum cache em memória, eliminando a carga adicional imposta por operações de acesso ao banco de dados (abrir conexão, enviar instruções, receber resultados etc.).

Lembrando que o cache em memória, que usa geralmente uma estrutura de armazenamento chave-valor, funciona como um repositório de dados de acesso muito mais rápido que um banco de dados relacional. Em uma aplicação web convencional, a lógica de acesso a dados poderia ficar desta forma:

1 – A aplicação verifica se determinada informação está armazenada no cache

2 – Caso o cache não possua tal entrada, é feita uma busca no banco de dados e posteriormente populado o cache com o retorno do banco de dados

3 – Em um próximo acesso, a aplicação retorna a informação anterior diretamente do cache, sem a necessidade de uma busca no banco de dados.

4 – O tempo que será armazenada uma determinada informação, ou a quantidade armazenada, devem ser implementados utilizando algum algoritmo de cache de acordo com o contexto da aplicação. (Outras técnicas para invalidação de cache, ou de sincronismo com as informações com o banco de dados podem ser utilizadas em processos em paralelo.)

O Amazon ElastiCache implementa um dos sistemas de cache mais utilizados, o Memcached. Com ele, é possível criar clusters de caches, para que sejam replicáveis entre os diversos servidores da Amazon, além de criar nós com tamanhos variáveis, de até 68 Gigabytes que representam sua estrutura de cache. A lógica de acesso no AWS poderia ficar como a seguir:

1 – A aplicação verifica se determinada informação está armazenada em um nó específico do cache dentro de um cluster

2 – Caso o cache não possua tal entrada, é feita uma busca no banco de dados e posteriormente populado os nós do cache nas diferentes localidades da Amazon, com o dados obtidos do banco de dados. A replicação entre os diferentes nós pode ser feita de forma assíncrona com os serviços Simple Notification Service ou Simple Queue Service.

Aqui, a detecção de falhas e a recuperação dos nós são feitas de forma automática. E é possível aumentar ou diminuir a quantidade de nós do cache automaticamente, conforme a necessidade da aplicação. Pode-se ainda restringir acesso aos clusters de cache através de um firewall, além de fazer o monitoramento detalhado de métricas, como memória e processamento utilizados, número de acessos ao cache, elementos não encontrados ou adicionados, e o número de conexões – usando a ferramenta CloudWatch.

Fonte: InfoQ

Tags | , , , , , ,

12

ago
2011

Sem Comentários

Em Blog

Por Allison

Nuvem privada ganha status de tecnologia madura

Em 12, ago 2011 | Sem Comentários | Em Blog | Por Allison

A computação em nuvem privada ganhou maturidade de um ano para cá, figurando entre as tecnologias com “Pico de grandes expectativas” no relatório 2011 Emerging Technologies Hype Cycle do Gartner. Embora este seja um estágio em que a tecnologia passa por uma fase do que o mercado chama de hype (ou febre, na tradução para o português), o Gartner acredita que as tecnologias de cloud alcancem sua plenitude em dois a cinco anos.

Anualmente a empresa de análises de mercado avalia o nível de maturidade de tecnologias emergentes. São 1.900 tecnologias analisadas, divididas em 76 ciclos. O gráfico Hype Cicle vem sendo usado pelo Gartner desde 1995 para destacar tendências de super entusiasmo, desencantamento e eventual realismo que acompanham cada tecnologia e inovação.

O “Pico de grandes expectativas” é um estágio inicial no ciclo quando, de acordo com o Gartner, a publicidade gera um grande número de histórias de sucesso, que muitas vezes vêm acompanhadas por resultados de fracasso.

Segundo a análise de 2011, as cloud privadas tomaram o lugar das tecnologias tradicionais de computação em nuvem no topo da lista de “Picos de expectativas”. Enquanto isso, as plataformas de cloud/web caíram para a categoria de desencanto (Trough of Disillusionment) de 2010 para cá.

Jackie Fenn, vice-presidente do Gartner, disse em relatório que os temas em destaque este ano incluem o grande interesse e adoção de mídias sociais, cloud computing e mobilidade.

As tecnologias transformacionais que atingirão suas metas em menos de cinco anos incluem tablets e cloud computing, bem como sistemas in-memory de gerenciamento de bancos de dados, sistemas de processamento e gerenciamento de grandes dados.

No longo prazo, o Gartner acredita que impressão 3D, a “Internet das coisas”, TV por internet e soluções de respostas naturalmente humanas a perguntas estarão entre as principais forças tecnológicas. As expectativas para além de dez anos incluem bioimpressão 3D, robôs móveis e computação quântica à frente de mudanças transformacionais.

Fonte: Convergência Digital

Tags | , , ,