Image Image Image Image Image
Scroll to Top

Topo

sharepoint

18

ago
2011

Sem Comentários

Em Blog

Por Allison

Cinco técnicas para reduzir o storage

Em 18, ago 2011 | Sem Comentários | Em Blog | Por Allison

Saiba qual das técnicas para reduzir o volume de dados armazenados é a mais indicada para a sua empresa.

No cenário atual de economia ainda instável e demanda gigantesca por armazenamento, praticamente todos os fornecedores de storage prometem reduzir o volume de dados que é preciso armazenar. Esse enxugamento, além de permitir o corte de custos associados a hardware, software, energia e espaço no data center, minimiza a pressão sobre as redes e as janelas de backup.

Mas você sabe qual é a técnica mais adequada ao seu caso? Antes de tudo, procure entender de que forma a empresa utiliza os dados e determine em que situação a economia possibilitada pela redução do volume compensa a queda de performance resultante. A técnica ideal depende não tanto do setor de atuação de uma companhia, mas dos tipos de dados armazenados. Muitas vezes a desduplicação, por exemplo, não proporciona economia significativa, mas reduz expressivamente o custo do backup de máquinas virtuais utilizadas como servidores.

As cinco técnicas a seguir ajudam a reduzir o volume de dados armazenados em uma organização.

1 – Desduplicação

A desduplicação, processo de identificar e eliminar dados repetidos armazenados em diferentes data sets, reduz a necessidade de storage em até 90%. Graças a ela, é possível assegurar que somente uma cópia de um arquivo anexado e enviado a centenas de funcionários será armazenada. A desduplicação é quase um pré-requisito para backup, arquivamento e qualquer outra forma de armazenamento secundário em que a velocidade de acesso seja menos importante do que a redução do volume de dados.

Com o uso dessa técnica, a fornecedora de serviços de armazenamento em nuvem i365 está alcançando reduções de dados de 30:1 a 50:1 em uma carga de trabalho mista de arquivos de máquinas virtuais VMware, Microsoft Exchange, SharePoint e SQL Server, revela o CTO da companhia, David Allen.

Os dados podem ser desduplicados no nível do arquivo ou do bloco. Os diferentes produtos oferecem capacidade de examinar blocos de tamanhos variados. Na maioria dos casos, quanto mais detalhada a avaliação, maior a economia de espaço. Por outro lado, a desduplicação detalhada às vezes consome mais tempo e, portanto, retarda a velocidade de acesso aos dados.

A desduplicação pode ser feita pré- -processamento, isto é, inline, à medida que os dados são gravados no destino; ou pós-processamento, depois que os dados foram armazenados no destino. O pós-processamento é mais apropriado se for fundamental cumprir janelas de backup com deslocamento veloz dos dados, explica o analista sênior do The Server and StorageIO Group, Greg Schulz. O pré-processamento deve ser cogitado por quem tem tempo sobrando e precisa reduzir custos.

A desduplicação inline reduz o volume de dados armazenados em cerca de 20:1, não é escalável e pode afetar a performance e obrigar os usuários a comprar mais servidores, criticam alguns. Já na opinião de Schulz, a desduplicação pós-processamento exige mais storage para buffer, inviabilizando este espaço para outros usos. As organizações que implementam grande número de servidores ou de plataformas de armazenamento beneficiam-se da redução de custos da desduplicação corporativa ao eliminar cópias duplicadas de dados armazenados nos vários locais.

Isso é fundamental porque a maioria das organizações chega a criar 15 cópias dos mesmos dados para serem usadas por aplicações como data mining, ERP e CRM, entre outras, ressalta Randy Chalfant, vice- -presidente de estratégia da Nexsan, fornecedora de storage em disco. As organizações também podem optar por um único sistema de desduplicação para facilitar que qualquer aplicação ou usuário “re-hidrate” os dados (retorne-os à forma original) sempre que necessário e para evitar incompatibilidades entre múltiplos sistemas.

Alguns produtos de desduplicação primária, segundo Schulz, podem fazer desduplicação no modo pré-processamento até que um determinado patamar de performance seja atingido e, a partir daí, mudam para pós-processamento. Há, ainda, a desduplicação baseada em políticas, na qual os arquivos a serem duplicados são escolhidos de acordo com critérios como tamanho e importância, entre outros.

2 – Compactação

A compactação, provavelmente a tecnologia de redução de dados mais conhecida, identifica e elimina modelos de bytes repetidos. Funciona bem com bancos de dados, e-mail e arquivos, porém é menos eficaz para imagens. Vem incluída em alguns sistemas de storage e também está disponível em appliances ou sob a forma de aplicações autônomas. A compactação em tempo real, que não retarda o acesso ou a performance exigindo que os dados sejam descompactados antes de serem modificados ou lidos, é apropriada para aplicações online como bancos de dados e processamento de transações online, define Schulz. A potência de computação dos modernos processadores multicore também faz da compactação baseada em servidor uma boa opção para alguns ambientes.

Para Allen, da i365, os benefícios da compactação variam. Esta técnica reduz os dados na razão de 6:1 ou mais em bancos de dados SQL, mas em servidores de arquivo está mais próxima de 2:1. O vice-presidente de marketing da FalconStor, Fadi Albatal, considera a compactação mais eficaz para backup e armazenamento secundário ou terciário, reduzindo as necessidades de storage em 2:1 a 4:1 para aplicações de e-mail ou banco de dados “extremamente ativas”. Quando a empresa de serviços de gerenciamento de informação Iron Mountain arquiva aplicações, as técnicas de compactação e desduplicação reduzem o storage em 80%, segundo o chief marketing officer da companhia, T.M. Ravi.

A IBM optou pela compactação do storage primário quando adquiriu a Storwize, fornecedora de um appliance que grava os arquivos compactados de volta no dispositivo NAS do qual se originaram ou em outra camada de armazenamento. A Storwize é usuária beta de um appliance baseado em blocos, conta Doug Balog, vice-presidente de armazenamento da IBM.

Os arquivos compactados por aplicações do pacote Microsoft Office ou formatos populares de imagem como JPEG não podem ser reduzidos com muitas técnicas de compactação comuns e, às vezes, até aumentam de tamanho.

A Neuxpower Solutions afirma que seu software é capaz de encolher arquivos do Office e JPEG em até 95%, sem perda de qualidade da imagem, apenas removendo informações desnecessárias como metadados ou detalhes que não podem ser vistos a menos que a imagem seja ampliada. A Ocarina, que está sendo adquirida pela Dell, defende que seu produto oferece capacidades similares porque utiliza múltiplos algoritmos de otimização ajustados para diferentes tipos de conteúdo. Eles são capazes de testar e escolher entre os vários métodos de compactação para oferecer a melhor eficiência de runtime.

A desduplicação e a compactação são complementares. Schulz aconselha: use a compactação quando a velocidade, a performance e as taxas de transferência forem prioridade; use a desduplicação onde houver muitos dados redundantes e o objetivo for economizar mais espaço. “Se”, “quando” e “em que ordem usar” tanto a compactação quanto a desduplicação são escolhas que dependem de determinados fatores, como se a compactação facilitará ou dificultará a tarefa do software de desduplicação de vasculhar redundâncias, qual camada (primária ou secundária) se quer otimizar e a rapidez com que o produto pode retornar os dados a uma forma utilizável quando necessário.

3 – Tiering

A movimentação de dados inteligente, baseada em políticas, consiste em transferir dados para classes de storage diferentes segundo critérios como a “idade” dos dados, a frequência com que são acessados ou a velocidade em que devem estar disponíveis. A menos que as políticas adotadas determinem a eliminação total de dados desnecessários, esta técnica não reduz as necessidades gerais de armazenamento, mas diminui os custos porque move alguns dados para mídia mais barata (apesar de mais lenta).

A Hewlett-Packard atua nesse mercado com o StorageWorks X9000, que oferece gerenciamento incorporado de políticas e migração automatizada de arquivos. Outros produtos também suportam tiering: Storage Center 5, da Compellent Technologies, HotZone e SafeCache, da FalconStor, Policy Advisord, da 3Par, FAST, da EMC, e a série de appliances de virtualização de arquivo ARX da F5 Networks. Muitos deles só estão disponíveis nos Estados Unidos.

4 – Virtualização de storage

Da mesma forma que a virtualização de servidores, a virtualização de armazenamento envolve a “abstração” de vários dispositivos de storage em um único pool de armazenamento, possibilitando que os administradores movam dados entre camadas (tiers) na medida da necessidade. Para muitos especialistas, trata-se de uma tecnologia, antes de tudo, capacitadora, mas outros veem uma ligação mais direta com a redução dos dados.

Os sistemas de gerenciamento de dados da Actifio, fornecedora norte-americana de soluções nesse mercado, recorrem à virtualização para dispensar o uso de diferentes aplicações em funções como backup e disaster recovery. Com os appliances da companhia, os clientes podem escolher os acordos de nível de serviço que vão ditar o gerenciamento de diferentes data sets a partir de uma série de modelos.

Políticas de gerenciamento adequadas, então, são aplicadas a uma única cópia dos dados, defi nindo, por exemplo, onde ela é armazenada e de que modo é desduplicada durante tarefas como backup e replicação.

5 – Thin provisioning

No método de thin provisioning (provisionamento fi no), um servidor de aplicações é confi gurado para utilizar um determinado volume de espaço em um drive, mas só o fará quando for absolutamente necessário. Como acontece com o storage baseado em políticas, o provisionamento fi no não elimina o volume total de dados, porém adia a necessidade imediata de adquirir mais drives.

Quando a demanda por storage aumenta rapidamente, é preciso agir com extrema rapidez para ter espaço físico sufi ciente, alerta Allen, da i365. Se uma companhia adota o provisionamento fi no, quanto mais imprevisíveis são estas demandas, melhores têm que ser as ferramentas de medição e gerenciamento. Para o analista sênior Schulz, o ideal é optar por produtos capazes de identificar os dados e as aplicações que precisam ser rastreados e monitorar não só o uso do espaço, mas também as operações de leitura/gravação para evitar gargalos.

A IBM, um dos fornecedores deste mercado, estendeu o provisionamento fi no a todos os controladores de storage da companhia. A HP, que disponibiliza thin provisioning em suas SANs P4000, deverá adquirir a 3Par, o que permitirá que seu produto Utility Storage reduza as necessidades de storage dos clientes em 50%. A Nexsan fornece provisionamento fi no com seus arrays SATABeast.

Antes de escolher uma estratégia de redução de dados, estabeleça políticas que ajudem nas difíceis decisões de quando pagar por performance e quando economizar dinheiro reduzindo o volume de dados, ensina Schulz. Não enfoque exclusivamente as taxas de redução, mas lembre-se de que talvez obtenha mais economia com uma taxa de redução mais baixa em um data set maior.

E não fique confuso com a terminologia usada pelos fornecedores. Compactação, desduplicação de dados, backups somente das mudanças e single instancing não passam de maneiras diferentes de reduzir o volume de dados redundantes. Quando estiver em dúvida, escolha as ferramentas tomando como base os benefícios para o negócio e uma análise detalhada dos seus dados.

Fonte: CIO

Tags | , , , , , ,