Image Image Image Image Image
Scroll to Top

Topo

ti

27

abr
2012

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Nuvens públicas: selecionando o melhor provedor

Em 27, abr 2012 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Fonte: Cezar Taurion/IMasters

Quando ouvimos o termo “cloud computing”, fazemos de imediato uma associação com o conceito de nuvem pública, baseada em IaaS. Essa percepção começou quando a Amazon anunciou o seu serviço AWS. Claro que ainda é um mercado que não está maduro – e nem poderia, pois o AWS surgiu em 2002, ou seja, há apenas dez anos -, mas esse processo de amadurecimento está se acelerando. Sua cosolidação fica mais forte quando empresas, como a IBM, também lançam sua nuvem pública. A da IBM se chama SCE – Smarter Cloud Enterprise.

Vamos lembrar que uma nuvem é basicamente a combinação de virtualização + padronização + automação, o que nos permite oferecer portais de acesso self-service aos usuários. No modelo IaaS, o provedor fornece basicamente servidores virtuais e seus sistemas operacionais. A partir daí, a responsabilidade de conteúdo, como middleware e aplicativos, é da empresa que contrata a nuvem, e não do provedor. Portanto, o IaaS é um serviço bem diferente do PaaS e do SaaS. Não podem e nem devem ser considerados como serviços similares. Sendo assim, entende-se que uma nuvem não é igual à outra.

O uso da nuvem pública começa, aos poucos, a ser comum, mas ainda encontramos alguns receios e desinformações circulando pelo mercado. Muita gente pensa que uma nuvem pública é para ser usada apenas para coisas mais periféricas, como sites e aplicações que não sejam críticos para as empresas. Mas já vemos muitos negócios baseados inteiramente nesse tipo de serviço, como o site brasileiro Peixe Urbano, e Netflix e FourSquare, dos EUA – e isso para citar apenas alguns exemplos. E esses são negócios que dependem de TI para funcionar e conseguem demonstrar na prática que uma nuvem pública é confiável.

Empresas de pequeno e médio porte tendem naturalmente a colocar seus data centers em nuvens públicas. E não só pelo menor custo, mas pela própria necessidade do negócio. Por que gastar recursos que são escassos, como tempo e dinheiro, mantendo servidores dentro de casa, se existe uma outra opção mais adequada? Na verdade, uma nuvem pública pode oferecer um nível de segurança e disponibilidade bem maior do que a oferecida hoje em muitos dos data centers das pequenas e médias empresas.

O que começa a mudar?

Adotar uma nuvem pública IaaS deixa de ser uma discussão técnica para ser uma decisão estratégica, de negócio. Mas, ao subirmos o patamar das decisões, a escolha do provedor de nuvem se torna algo mais complexo. Além disso, a governança de TI da empresa continua com a empresa. Não é terceirizada totalmente.

O modelo IaaS tende, aos poucos, a se tornar comoditizado, pois as ofertas, com o amadurecimento do mercado, tenderão a ser bastante similares em termos de segurança, disponibilidade, desempenho e suporte. Uma analogia simples pode ser feita com o mercado de PCs, quando praticamente não vemos diferenças marcantes entre os vários PCs disponíves no mercado. Mas hoje, com um mercado ainda em fase de amadurecimento, as ofertas dos diversos provedores são diferentes e, portanto, a escolha do provedor de nuvem não pode ser feita de forma superficial.

O que verificar quando analisar provedores?

Primeiro, se você for colocar seu negócio em uma nuvem, é importante que o provedor tenha um ou mais data centers que sejam adequados aos seus requisitos de segurança, disponibilidade, desempenho e suporte. À primeira vista todos oferecem, mas, quando você vai conferir, vê-se que a localização do data center de um provedor pode não ser a mais adequada em termos de garantia de segurança e acesso em momentos críticos. Há também a questão do suporte. Um bom suporte exige uma equipe técnica treinada e eficiente e custa dinheiro para manter isso. Além do mais, a nuvem tem que dispor de ferramentas tecnológicas que garantam a excelência na automação da operação. E, claro, sustentar o crescimento de sua base de clientes sem afetar os já existentes, oferecendo condições de escalabilidade. Novamente entram em cena os requisitos de expertise e capital.

Bem, vamos listar alguns requisitos que devem ser considerados quando analisamos potenciais provedores de nuvens públicas:

  1. Disponibilidade e SLA (Service Level Agreement): Qual o nível de disponibilidade oferecido? Quando analisamos mais detalhadamente o portfólio de aplicações de uma empresa, observamos que a maioria delas não é estratégica ou crítica, com um perfil de dados que não é sensível em termos de segurança. Também observamos que a maioria dessas aplicações pode operar em um ambiente de disponibilidade menor que 95%. Ora, essas aplicações podem ser deslocadas para nuvens públicas sem maiores sustos. Mas e se as aplicações precisarem de 99,9% de disponibilidade? O provedor oferece esse nível?
  2. Política de preços: O custo de hora de computação tende a ser bem barato, mas olhe com atenção os custos de armazenamento e comunicação. Veja também o nível de flexibilidade da política de preços. Por hora? Por dia? Contratos mensais? Veja quanto custa a capacidade adicional que você inicialmente requisitou.
  3. Em uma nuvem pública IaaS, você continua responsável pela governança da sua TI, mas veja o que o provedor pode oferecer em termos de serviços adicionais, como backup, ferramentas de monitoramento do desempenho, planejamento de capacidade etc. Essas ferramentas estão disponíveis para você analisar o desempenho dos seus servidores virtuais?
  4. Quais são os recursos de segurança implementados pelo provedor? Por exemplo, eles têm defesa contra ataques do tipo DoS (Denial of Service)? O provedor está compliance com certificações, como PCI, SAS 70, SSAE 16, ISO 27001 e FISMA, apenas para citar as mais comuns? Há um estudo muito interessante que aborda segurança em provedores de nuvem, acesse.
  5. O data center está localizado no território brasilerio? Se não, a que leis ele estará sujeito? Em caso de auditoria e eventual investigação forense, como você terá acesso a seus dados?
  6. Qual o background do fornecedor em lidar com clientes corporativos? O mercado voltado para usuário final e o corporativo são bem diferentes em demandas de suporte e preparo da equipe técnica. Um provedor que não tenha fortes raízes no atendimento ao mercado corporativo poderá encontrar muita dificuldade em atender às demandas específicas dos seus clientes.
  7. Suporte: Como é o suporte? 24 x7? Via e-mail, telefone ou chat? Qual a política de preços para níveis de suporte diferenciados?
  8. Billing: A fatura é fácil de entender e abrangente o suficiente para não gerar dúvidas?
  9. Contrato: Quais são as garantias contratuais? Como é a rescisão? Existem facilidades para você migrar para outro provedor? Quais e quanto custam? Existe garantia de que os dados serão apagados após o fim do contrato? Além disso, observe que na maioria das empresas a auditoria exige um contrato, diferente de uma nuvem de uso pessoal, em que com um simples cartão de crédito você abre uma conta e obtém servidores virtuais.
  10. O provedor é financeiramente estável? Tem condições de investir e acompanhar a evolução do mercado e das tecnologias de cloud? Tem condições de ampliar sua capacidade?
  11. Qual é a estratégia de cloud do provedor? Quão importante é para o negócio dele?
  12. Existe um ecossistema em torno do provedor que ofereça aplicativos, educação e consultoria que possam ajudá-lo a usar melhor a computação em nuvem?

Como vemos, existem vários requisitos que devem ser analisados. Fale com os representantes de vendas do provedor, visite o data center, ligue para outros clientes e veja o grau de satisfação deles. E não esqueça que a governança de TI continua com você. Assim, analise as licenças de software que você tem e valide-as com relação ao seu uso na nuvem. Mantenha uma equipe que interaja com o provedor para resolver problemas e manter um SLA adequado às suas necessidades. E concentre-se no seu negócio, deixando a tarefa de gerenciar os seus servidores e seus sistemas operacionais (puro overhead, que não agrega um centavo ao seu faturamento) por conta do provedor.

Bem-vindo às nuvens!

Tags | , , , ,

27

abr
2012

Sem Comentários

Em Blog
Cloud Computing

Por Allison

Pesquisa da HP revela que futuro da computação em nuvem é híbrido

Em 27, abr 2012 | Sem Comentários | Em Blog, Cloud Computing | Por Allison

Fonte: IMasters

Uma pesquisa global da HP, conduzida pela Coleman Parkes Research e divulgada ontem, revelou a necessidade de as organizações implementarem uma estratégia híbrida de delivery para acelerar a inovação, aumentar a agilidade e melhorar o seu gerenciamento financeiro durante a migração para a computação em nuvem.

De acordo com o levantamento, mais de 80% dos executivos de negócios e tecnologia acreditam que o cloud computing será pelo menos tão impactante para o cenário da tecnologia como foram a virtualização ou a internet. A pesquisa também mostrou que, apesar de a perspectiva de crescimento na adoção de serviços de nuvem pública e privada até 2020, a tecnologia tradicional continuará fazendo parte das companhias.

Atualmente, somente 24% dos modelos de delivery corporativos são baseados em nuvem, apontou o estudo. A expectativa dos principais executivos de negócios e tecnologia é que, até 2020, os modelos de fornecimento de nuvem pública e privada praticamente dupliquem. Além disso, as organizações estão priorizando investimentos em nuvem, e a expectativa é que 43% das empresas invistam de US$ 500 mil a US$ 1 milhão por ano em cloud computing, de hoje até 2020, e quase 10% planejam gastar mais de US$1 milhão por ano.

Diante disso, os executivos de negócios e de TI reconhecem que os projetos de cloud serão essenciais para a promoção de resultados bem sucedidos e inovação. Um em cada dois CEOs e diretores financeiros já está elaborando estratégias de nuvem para suas empresas.

A pesquisa também apontou os principais impulsionadores da adoção de cloud computing: rápido desenvolvimento de aplicativos (50%), maior agilidade para responder a mudanças no mercado (32%) e custos menores de operações (18%). Por outro lado, revelou as três principais barreiras para a adoção em massa de serviços de nuvem: preocupação com segurança (35%), preocupação com a transformação de seu ambiente de TI (33%) e preocupação com conformidade e governança (17%).

Segundo empresas e executivos entrevistados, com a aceleração na adoção de serviços de nuvem, cresce a necessidade por estratégias “holísticas” de conformidade e governança a serem aplicadas em toda a empresa para controlar e gerenciar ambientes de TI. Quase 50% dos participantes admitiram que suas empresas estão usando soluções de nuvem que não são autorizadas pelo departamento de TI, enquanto 18% não tinham uma perspectiva clara sobre as soluções de computação em nuvem que “rodam” sem autorização da área de TI.

A expectativa é que esse problema continue aumentando, o que pode ser observado pela resposta de 69% dos principais executivos de negócios e de 54% dos executivos de tecnologia, que estimam que o uso de soluções de cloud não homologadas pela TI chegue à casa dos 50% até 2020.

A pesquisa foi feita com de 550 entrevistas com executivos de negócios e executivos de tecnologia dentro de grandes e médias empresas. As regiões incluídas: América do Norte (Estados Unidos e Canadá), Europa e Oriente Médio (Reino Unido, França, Alemanha, Dinamarca, Rússia, República Tcheca e Emirados Árabes Unidos), Ásia/Pacífico (Índia, China, Japão, Austrália e Coreia) e América Latina (Brasil e México).

Tags | , ,

13

nov
2011

Sem Comentários

Em Blog

Por Allison

Gartner lista dez tendências tecnológicas para 2012

Em 13, nov 2011 | Sem Comentários | Em Blog | Por Allison

De acordo com estudo recém-divulgado pelo Gartner, das dez áreas de TI que merecem mais atenção das empresas, mobilidade está em primeiro lugar. Isso porque ela força as empresas a prepararem o seu software de modo a disponibilizarem acesso às aplicações de todas as formas possíveis e promover a consumerização das TICs ou a abordagem “Bring Your own Device” (BYOD) ou “Bring Your own Technology” (BYOT).

Não por acaso, a segunda maior preocupação para a estratégica dos CIOs centra-se nas aplicações e interfaces e sua adaptação ao novo ambiente de mobilidade. O Gartner observa que os parâmetros válidos há 20 anos (baseados em janelas, menus e ícones) devem ser substituídos por tecnologias com enfoque na mobilidade, que incluem sistemas de interação por toque, por vídeo ou por voz, priorizando novos padrões como o HTML5.

A experiência do usuário de redes sociais e as tecnologias contextuais também serão um ponto extremamente importante na agenda dos líderes de TI para o ano de 2012, na lista da consultoria, junto com a chamada Internet das Coisas, que ocupa a quarta posição na lista. Nesse sentido, as tecnologias de comunicação em proximidade ou Near Field Communication (NFC), para pagamentos móveis, começará a ter projetos concretos.

Também relacionada com a mobilidade, está a quinta tendência a ser considerada pelos CIOs no próximo ano: as lojas on-line de aplicações. A App Store e o Android Market, em conjunto, deverão distribuir cerca de 70 mil milhões de aplicações móveis até 2014. Da perspectiva do ambiente corporativo, isso significa passar de um planejamento mais centralizado para uma abordagem na qual é necessário ter em conta um mercado onde existem vários fornecedores e aplicações. Assim as empresas terão de avaliar melhor os riscos e o valor que cada uma traz para a organização como um todo.

BI e análise de dados

Muitas empresas já usam plataformas de Business Intelligence e soluções de análise de dados. Mas na verdade, diversos estudos têm mostrado que nem todas conseguem extrair o máximo de benefícios a partir delas. Por isso, existe ainda um longo caminho a percorrer nessa área. Considerando a conjuntura econômica, as empresas não podem deixar de investir em soluções capazes de permitir conhecer em profundidade as necessidades e o comportamento dos seus clientes.

Isso permite a cada uma delas responder de acordo com as necessidades de seus clientes, melhorando assim os negócios. Face à contenção nos orçamentos de investimento em TI, as empresas devem procurar extrair o máximo das soluções de BI que já têm. Nesse ponto, o enfoque no Big Data pode ser enganador.

A expressão Big Data é usada para reconhecer o crescimento exponencial de dados, a disponibilidade e o uso da informação em ambientes futuros. Esse conceito dá um peso indevido ao volume de informações a ser gerido, segundo o Gartner.

Muitos CIOs focaram-se simplesmente na gestão de grandes volumes de dados, esquecendo-se muitas outras dimensões relacionadas com a gestão da informação. Deixam no ar, assim, muitos desafios a serem abordados mais tarde, muitas vezes com maiores dificuldades. Questões de acesso e classificação de dados não podem ser negligenciadas. Caso contrário, segundo os analistas do Gartner, a empresa se verá obrigada a um novo investimento massivo – em dois ou três anos – para resolver problemas negligenciados quando da implantação de infraestrutura.

Nova fase para o modelo de cloud computing

Completam a lista compilada pelo Gartner as tecnologias in-memory, e os servidores de baixo consumo energético para cloud computing – a tendência mais comentada no mundo das TIC, desde que apareceu há cinco anos.

Apesar de ser um importante fator no setor das TIC, cloud computing ainda não está produzindo os resultados esperados. De acordo com estudo da Symantec, organizações que já investiram em tecnologias de virtualização e em plataformas de cloud, híbridas ou privadas, tendem a seguir um caminho semelhante: evoluir da virtualização de aplicações menos críticas para as mais importantes (como o e-mail e as aplicações de colaboração, de comércio eletrônico e da cadeia de abastecimento, bem como as de planejamento de recursos empresariais e de gestão das relações clientes).

Nesse sentido, mais da metade (59%) pretende virtualizar as aplicações de bases de dados ao longo dos próximos 12 meses. Cerca de 55% pretende virtualizar aplicações Web e 47% consideram virtualizar aplicações de correio electrónico e calendário. Apenas 41% tencionam virtualizar aplicações ERP, segundo o Gartner.

E, à medida que as tecnologias de virtualização e as clouds privadas são cada vez mais adotadas, o custo e o desempenho dos sistemas de armazenamento crescem de importância na hora de escolher um ou outro sistema. Mais da metade dos entrevistados pela Symantec (56%) afirmou que os custos de armazenamento aumentaram com a virtualização de servidores.

Portanto, as três principais razões para a implementação de virtualização de sistemas de armazenamento, incluem redução dos custos operacionais (55%), melhorias de desempenho dos sistemas de armazenamento (54%), e melhorias do potencial de recuperação de desastres (53 %). Embora a tendência seja imparável, a implantação real de cloud computing nem sempre satisfaz os critérios previamente estabelecidos. O estudo observa ainda que os projetos de virtualização de servidores são os mais bem sucedidos.

Normalmente, existe uma diferença média de 4% entre os objetivos propostos e os alcançados. É uma diferença muito menor do que a registada para os sistemas de virtualização de armazenamento, em torno de 33%, com grandes decepções em termos de capacidades de escala, flexibilidade e redução dos custos operacionais.

Informações publicada originalmente em Computer World

Fonte: IMasters

Tags | , , ,

31

ago
2011

Sem Comentários

Em Blog

Por Allison

VKernel Lança vOperations Suite 4

Em 31, ago 2011 | Sem Comentários | Em Blog | Por Allison

VKernel lançou o vOperations Suite 4, um sistema projetado para fornecer clareza operacional para os operadores de nuvens, e para centros de dados empresariais. Esta versão traz uma integração completa com o Hyper-V, um novo motor de visualização, e um índice de custos de VM que proporciona clareza na capacidade de desempenho e de custos em data centers, recursos e hypervisores em ambientes virtualizados.

Devido ao avanço no desenvolvimento das plataformas, os ambientes estão cada vez mais heterogêneos. Este movimento está sendo conduzido pelo desenvolvimento de alternativas de credibilidade para o vSphere; restrições ISV em hypervisores suportados; fusões e aquisições, a partir das quais os departamentos de TI herdam novos ambientes.

Fonte: Under-Linux

Tags | , , ,

21

ago
2011

Sem Comentários

Em Blog

Por Allison

Linux Foundation publica especificação do padrão SPDX

Em 21, ago 2011 | Sem Comentários | Em Blog | Por Allison

O objetivo é facilitar a identificação das diversas licenças usadas no desenvolvimento open source, para avaliações de conformidade.

A Linux Foundation e FOSSBazaar lançada em 17/8, uma especificação que tem o objetivo de aliviar as dores de cabeça dos desenvolvedores com a conformidade das licenças de código aberto. O Software Package Data Exchange (SPDX) é baseado em nesa especificação padrão para o rastreamento de informações sobre licenças, abarcando toda a cadeia de fornecimento de software.

Como o software de código aberto é, por natureza, colaborativo, qualquer novo projeto muitas vezes inclui pedaços de outros projetos open source cobertos por licenças diferentes. Ao usar e modificar esses pedaços é praticamente impossível para o profissional de TI saber todas as licenças envolvidas.

A nova especificação permitirá às empresas saber sobre as restrições de licenciamento antes da adoção de um projeto. Isso não é fácil de fazer com mais de 2 mil licenças de software disponíveis gratuitamente na Internet. Cada licença carrega dentro de si a definição do desenvolvedor de como o software criado por ele pode ser usado e distribuído.

Várias empresas já oferecem ferramentas ou serviços de auditoria de código para que que os desenvolvedores as licenças em uso e garantam estar em conformidade com elas. Entre elas, a Black Duck Software, a OpenLogic, a FOSSology HP e a Patologia. Mas mesmo que o código tenha passou por uma auditoria, e cada contribuinte para um projeto tenha sido cuidadosamente documentado, com as informações de copyright para cada pedaço de software incluídas corretamente, não havia ainda nenhuma maneira padrão de documentar os dados para que eles pudessem ser transferido para outros usuários.

A especificação SPDX resolve este problema, diz Dave McLoughlin, auditor de código aberto da OpenLogic. Depois de listar todos os componentes de software utilizados numa aplicação, o arquivo SPDX é anexado ao projeto de software, passando a integrá-lo. A especificação usa um formato específico para coleta de dados sobre cada projeto, incluindo número da versão e licença.

Eventualmente, ferramentas serão criadas para permitir que os arquivos SPDX possam ser transferidos de outros formatos de arquivo também. Por exemplo, se a equipe de uma empresa de desenvolvimento já tem o hábito de usar uma planilha para rastrear as informações de licenciamento, tais ferramentas permitirão que a planilha seja convertida para o fotrmato SPDX.

O grupo de trabalho SPDX espera que, eventualmente, todos os fornecedores de software comercial comecem a usar a especificação SPDX. Agora que a versão 1.0 da especificação está disponível, as empresas devem pedir aos seus fornecedores de software comercial de código aberto o suporte ao padrão SPDX e como eles será aplicado.

O trabalho de especificação do padrão SPDX contou com pesos pesados da indústria, incluindo Alcatel-Lucent, Antelink, Black Duck Software, Canonical, HP, Micro Focus, Motorola Mobility, Inc. nexB, OpenLogic, Palamida, Protecode, Auditor Fonte, Texas Instruments e Wind River.

A especificação está disponível no site do padrão Software Package Data Exchange.

Fonte: CIO

Tags | , , , ,

19

ago
2011

Sem Comentários

Em Blog

Por Allison

Linux Foundation publica especificação do padrão SPDX

Em 19, ago 2011 | Sem Comentários | Em Blog | Por Allison

Nesta semana, a Linux Foundation e a FOSSBazaar lançaram uma especificação com o objetivo facilitar a vida dos desenvolvedores em relação à conformidade das licenças de código aberto. O Software Package Data Exchange (SPDX) é baseado em nessa especificação padrão para o rastreamento de informações sobre licenças, englobando toda a cadeia de fornecimento de software.

Pelo fato de o código aberto ser colaborativo, qualquer novo projeto inclui pedaços de outros projetos open source cobertos por licenças diferentes. Portanto, quando o profissional de TI usa e modifica esses pedaços, encontra enorme dificuldade para saber que licenças estão envolvidas.

Com a nova especificação, as empresas saberão a respeito das restrições de licenciamento antes da adoção de um projeto. A tarefa não é fácil, já que há mais de 2 mil licenças de software disponíveis gratuitamente na internet, e cada uma carrega a definição do desenvolvedor de como o software criado por ele pode ser usado e distribuído.

Além disso, a especificação SPDX, depois de listar todos os componentes de software utilizados numa aplicação, anexa o arquivo SPDX ao projeto de software, passando a integrá-lo. A especificação usa um formato específico para coleta de dados sobre cada projeto, incluindo número da versão e licença. Entretanto, ferramentas serão criadas para permitir que os arquivos SPDX possam ser transferidos de outros formatos de arquivo.

De acordo com o grupo de trabalho SPDX, a expectativa é que todos os fornecedores de software comercial comecem a usar a especificação SPDX. Com a disponibilidade da versão 1.0 da especificação, as empresas devem pedir aos seus fornecedores de software comercial de código aberto o suporte ao padrão SPDX e como eles será aplicado.

O trabalho de especificação do padrão SPDX teve a colaboração de várias empresas, como Alcatel-Lucent, Antelink, Black Duck Software, Canonical, HP, Micro Focus, Motorola Mobility, Inc. nexB, OpenLogic, Palamida, Protecode, Auditor Fonte, Texas Instruments e Wind River.

Fonte: Imaster

Tags | , , ,

04

ago
2011

Sem Comentários

Em Blog

Por Allison

Cloud e a TI invisível

Em 04, ago 2011 | Sem Comentários | Em Blog | Por Allison

Um fenômeno bem interessante que ocorre em muitas das médias e grandes empresas é a chamada “TI invisível”. Em resumo, são as tecnologias e os serviços adquiridos pelos usuários das áreas de negócio, com seus próprios budgets, à sombra de TI.

O fenômeno na prática

Esse fenômeno surgiu com o advento do modelo client-server, que permitiu que áreas usuárias comprassem pequenos servidores e aplicativos departamentais. Sem que TI soubesse, o processo se acelerou com o advento da Internet e agora o vemos potencializado pela computação em nuvem.

Vamos imaginar um cenário hipotético. Um executivo da linha de negócios precisa de um sistema de gestão de frotas. A resposta que ele ouve do CIO provavelmente será: “Não tenho budget para desenvolver esse sistema internamente, mas vá ao mercado e selecione um aplicativo que seja adequado e depois volte aqui”.

Ele assim o faz. Pesquisa o mercado e seleciona um dentre vários aplicativos. Volta ao CIO, mostra o aplicativo e ouve: “Muito bem, mas o aplicativo roda em Windows e meu ambiente é Linux. Terei que adquirir um servidor, banco de dados e outros softwares que serão necessários para operar o sistema. Além disso, terei que contratar um administrador para esse novo ambiente. Tudo isso vai demorar uns 3 meses”.

Resultado: ele vai gastar o dobro do planejado e terá que esperar muito tempo após aportar seu budget para usufruir da funcionalidade oferecida pelo aplicativo na sua empresa.

Buscando soluções

Outra coisa que ele poderá fazer: buscar aplicativos oferecidos na modalidade SaaS e adquirir um diretamente, bypassando por completo TI. Caso a empresa tenha o CRM da Salesforce, ele poderá ir ao AppExchange e selecionar um dentre vários aplicativos.

Hoje o AppExchange funciona apenas para aplicativos que rodem na nuvem do salesforce, mas nada impede o surgimento de outros mercados como vemos no setor de aplicativos móveis com Android market, Appstore etc.

O que o CIO deverá fazer? Lutar contra? Será quase impossível ganhar a guerra, pois o apelo econômico do modelo de computação é extremamente atrativo para ser ignorado. Além disso, com mais e mais disponibilidade de ofertas em nuvem, os usuários buscarão atender suas próprias demandas passando por cima das barreiras impostas por TI.

Usuários e seus perfis

A área de TI deve compreender que ela e os usuários têm prioridades diferentes quando estão adquirindo serviços e produtos de tecnologia. TI se preocupa primeiramente com questões de segurança e compatibilidade do novo aplicativo com o ambiente operacional. Os usuários priorizam a funcionalidade do aplicativo e deixam em segundo plano estas questões “técnico-mundanas”.

O atual modelo on-premise cria algumas barreiras, pois mesmo que o usuário adquira um aplicativo de forma independente, muitas vezes TI tem que entrar no circuito para instalar o servidor e seu ambiente operacional.

Em nuvem, TI não é necessária. O usuário interage diretamente com o provedor da nuvem e adquire o serviço com cartão de crédito. O acesso a vastos e baratos recursos computacionais como servidores virtuais em nuvens IaaS ou aplicativos SaaS, usando-se um simples cartão de crédito, tornam as coisas mais fáceis para o usuário bypassar TI.

Adaptando-se ao mercado

À medida que esse hábito se espalhar pela organização, teremos uma bomba relógio. Provavelmente, muitos desses aplicativos deverão interoperar com outros que estejam em outras nuvens ou mesmo on-premise em servidores gerenciados por TI. Como fazer essa interoperabilidade acontecer? Além disso, até que ponto os usuários se preocuparão com questões como backup ou aspectos legais quanto a privacidade e soberania dos dados?

Portanto, TI não pode e nem deve abdicar da responsabilidade de manter as tecnologias operando de forma segura e sempre disponível. Mas, na minha opinião, o atual modelo de controle de TI, extremamente restritiva e baseado no modelo de aplicativos e recursos computacionais on-premise, terá que ser flexibilizado.

Em tempos de mídias sociais, smartphones e tablets não dá para esperarmos muitos meses por um aplicativo. A velocidade do negócio exige que TI responda cada vez mais rápido e assim ao invés de lutar contra. A TI deverá se colocar como facilitador do processo de adoção da “TI invisível”. Esta já está acontecendo mesmo…

Conclusão

A área de TI deverá liderar o processo de adoção de cloud pelos usuários, propondo critérios e modelos de aquisição de recursos em nuvem, de modo a mitigar riscos para o negócio, aumentar economias de escala e garantir a integração e aderência às regras e legislações do setor.

TI deve, na verdade, “legalizar” a “TI invisível” e portanto deverá atuar de forma cada vez mais integrada e aderente às demandas do negócio. Suas prioridades deverão ser as mesmas do negócio.

Fonte: iMasters

Tags | , , , , , , ,