Tópicos | Data Center

As empresas sentem um enorme receio em realizar mudança de data centers por ser um equipamento delicado, sensível e ser de extrema importância para a estrutura de um departamento de TI de uma empresa.

Sendo assim, é necessário que o data center moving seja realizada por uma empresa de consultoria em TI, que junto com a empresa realizará um planejamento detalhado para a mudança desse equipamento de forma segura.

##RECOMENDA##

Existem três etapas para o transporte desse equipamento:

Pré Moving

O planejamento dessa ação é a peça chave para evitar erros no percurso, por isso, o profissional vai verificar o funcionamento do seu data center, mapeamento e inventário dos equipamentos que compõe esse sistema.

Em uma reunião, o suporte de TI vai verificar o tempo que a empresa pode parar os sistemas que dependem desse equipamento, a estrutura do local antigo e do novo local, realização de registro fotográfico do data center, posicionamento de equipamentos, acessórios e largura de corredores e escadas.

É necessário que a empresa de TI especializada em gerenciador de rede faça todo um estudo sobre o caminho que o equipamento vai passar, o transporte que vai utilizar, a quantidade de pessoas que será necessário para realizar a mudança e conhecer muito bem a nova estrutura.

Moving

Quando chegar o grande dia do moving do data center, é necessário que o planejamento seja realizado a risca conforme estudo realizado e principalmente, conforme acordado com o cliente.

Caso aconteça algo que esteja fora do planejamento, como, trânsito, falta de funcionários ou atrasos, avise o cliente e tenha sempre outras alternativas para poder atender com agilidade e não danificar o equipamento.

Pós Moving

Após a instalação de todo equipamento e da finalização do processo, é importante que uma equipe técnica fique em prontidão caso aconteça qualquer problema referente a instalação.

O moving data center é sempre diferente um do outro, tanto na questão de equipamento, quanto na questão da mudança, por isso é de extrema importância que se cumpra o planejamento inicial.

Este processo necessita muita atenção e cuidado, os equipamentos e os acessórios são delicados, sendo necessário uma equipe especializada  para mais garantia de eficácia e a correta infraestrutura para TI. Realizar essa mudança por pessoas não especializadas, podem ocasionar problemas nos sistemas que são irreversíveis.

A Microsoft submergiu um centro de dados no mar das Ilhas de Orkney, ao norte da Escócia, em um projeto para economizar a energia usada para resfriar os servidores em terra, afirmou a empresa nesta quarta-feira (6).

O centro de dados consiste em um cilindro branco de 12,2 metros de comprimento contendo 864 servidores - o suficiente para armazenar cinco milhões de filmes - e pode ficar no submerso no mar por até cinco anos.

##RECOMENDA##

Segundo a Microsoft, o mar oferece resfriamento gratuito. Estes equipamentos geralmente geram muito calor, e grandes provedores tentam transferi-los para países mais frios para economizar nas contas de energia.

O centro de dados da Microsoft será alimentado por um cabo submarino, que também conectará os servidores à internet. A desvantagem é que, se os computadores a bordo quebrarem, eles não poderão ser reparados.

A Microsoft tem realizado experimentos com centros de dados submarinos por cerca de cinco anos e, anteriormente, afundou um equipamento na costa californiana por cinco meses em 2015.

LeiaJá também

--> Microsoft anuncia compra do GitHub por US$ 7,5 bilhões

Os pacientes que utilizam os serviços do Hospital das Clínicas da UFPE - filial da Empresa Brasileira de Serviços Hospitalares (Ebserh) - poderão começar a contar com serviços mais avançados de radiologia. Foi inaugurado nesta terça-feira (3) o aparelho de tomografia e o Container Data Center (CDC). 

Foi investido o valor de R$ 1,6 milhão para a implantação do tomógrafo que será utilizado no diagnóstico de doenças de diversos segmentos, pois se trata de uma das máquinas mais modernas do mercado. O equipamento é capaz de produzir 30 exames por dia, de forma veloz e em alta resolução de imagem, o que vai proporcionar maior rapidez no atendimento dos pacientes.

##RECOMENDA##

De acordo com o superintendente do HC, Frederico Jorge Ribeiro, o antigo equipamento apresentava problemas várias vezes e possuía uma tecnologia já obsoleta. 

Até a próxima terça-feira (6), será realizado um treinamento ministrado por um profissional da Toshiba a dois médicos do Serviço de Radiologia e quatro técnicos em Radiologia do HC. Já no início da próxima semana, será realizado treinamento do uso da bomba de infusão de contraste. 

Essas medidas são para que o tomógrafo atenda a população a partir do próximo dia 11 de novembro. 

Data Center

Tendo seu investimento sido de R$ 2 milhões, o Container Data Center (CDC) deve armazenar em forma de gestão estratégica de modo seguro, inteligente e moderno os dados informatizados da unidade hospitalar. 

O espaço possui 20 metros quadrados e conta com esquema especial de segurança reforçada, como resistência a incêndio, monitoramento de câmeras, controle de acesso por biometria, grupo de gerador e no-break modular que garantem o fornecimento ininterrupto de energia e alarmes. 

O superintendente do HC disse que outras ações de melhorias do hospital já estão sendo realizadas como a recuperação dos elevadores que estão em pleno funcionamento, a drenagem do subsolo do hospital e a implantação do tratamento de esgoto.  

 O Google inaugurou hoje o site "Onde vive a internet" (em português). No projeto é possível explorar detalhadamente onde estão e como são os servidores que apoiam o funcionamento da empresa. 

Além disso, também é possível explorar no serviço Google Street View (em inglês) o interior do prédio que armazena o data center da empresa na cidade de Lenoir, Carolina do Nordeste (Estados Unidos). Um dos vários locais que o Google utiliza para o armazenamento de dados dos usuários da empresa. 

##RECOMENDA##

Na galeria abaixo e no site do projeto é possível visualizar as instalações da empresa, onde está parte das máquinas responsáveis pelos serviços do Google, desde uma busca a o upload de um vídeo no Youtube.

[@#galeria#@]

 

A empresa também lançou um vídeo de apresentação do projeto (em inglês):

 

 

Depois da Oi e da Telefônica, agora é a vez de a Embratel anunciar a sua oferta de serviços em nuvem. Para explorar esse mercado, a operadora de telecomunicações, ligada ao grupo mexicano América Móvil, inaugurou na manhã desta quarta-feira (26/09), seu mais moderno data center, localizado na cidade de São Paulo.

A obra foi inaugurada pelo ministro das Comunicações, Paulo Bernardo e os presidentes da Agência Nacional de Telecomunicações (Anatel), João Rezende; e da Embratel José Formoso.

##RECOMENDA##

O empreendimento recebeu um investimento de 100 milhões de reais e foi erguido para funcionar conectado com a plataforma de cloud computing da companhia do bilionário Carlos Slim já em operação em outros três países: Colômbia, Argentina e México.

Instalado em uma área de 7 mil metros quadrados no bairro da Lapa, na capital paulista, o novo data center está interligado aos outros quatro centros de processamento de dados da Embratel no Brasil. São dois no Rio de Janeiro e dois em São Paulo (um na capital e outro na cidade de Campinas).

Segundo a Embratel, o novo data center foi projetado para ser um Tier 3 e já nasce preparado para atender a demanda de processamento de dados que será gerada pela Copa do Mundo de 2014 e Olimpíadas de 2016.

Ofertas de serviços
Durante a inauguração, José Formoso, presidente da Embratel, destacou que o novo data center é um dos mais modernos do mundo e foi construído para sustentar o crescimento dos negócios da companhia.

O site da Lapa vai oferecer duas linhas de serviços: a primeira contempla as ofertas de data center (hosting gerenciado e monitorado) e a segunda engloba as aplicações de computação na nuvem. A unidade terá a modalidade de infraestrutura como serviço (IaaS) e software como serviço (SaaS).

“É uma nova etapa na vida da Embratel. Vamos vender serviço de nuvem pelo nosso portal. Nosso público alvo são as pequenas e médias empresas”, informa Formoso.

Para João Rezende, presidente da Anatel, o novo investimento da Embratel reforça a infraestrutura de tecnologia da informação e telecom no Brasil para atender empresas que não possuem data center próprio. Ele aproveitou para espetar a Claro, operadora móvel do grupo América Móvil, dizendo que espera que a empresa melhore seus serviços.

Já o ministro das Comunicações, Paulo Bernardo, comentou que o Brasil tem muito espaço para prestação de serviços em nuvem. Porém, reconheceu que o País precisa desenvolver uma política pública para que esse modelo ganhe força aqui.

“Estamos conversando com o BNDES [Banco Nacional de Desenvolvimento Econômico e Social] e indústrias que política pública podemos adotar”, disse Paulo Bernardo. Mas afirmou que antes disso precisa ouvir os prestadores de serviços, como a Embratel e universidades para saber como esse processo será realizado no País.

Em 2011, o País apresentou crescimento de 14,3% em serviços de data center, com destaque para a evolução de hosting dedicado e serviços de armazenamento. Perspectivas de crescimento nos curto e médio prazos são otimistas, atingindo expansão média anual superior a 10% até 2017, indica a consultoria Frost & Sullivan.

A vantagem financeira ao terceirizar soluções de tecnologia da informação (TI) é um dos principais impulsionadores do mercado de serviços de data center no Brasil, indica a Frost & Sullivan. Com o crescente amadurecimento desse segmento em países como Estados Unidos, Inglaterra e Alemenha, o Brasil torna-se prioridade para participantes globais, de acordo com a consultoria.

##RECOMENDA##

Segundo Fernando Belfort, analista de mercado sênior da Frost & Sullivan, hoje, é muito difícil observar casos de empresas globais que não consideram a América Latina e especialmente o Brasil como prioridade de investimentos.

Entre as principais tendências estão consolidação do mercado, ofertas mais competitivas com foco no segmento de médias empresas e contratação de serviços de infraestrutura como serviço (IaaS), uma das modalidades de cloud.

“Vimos anos de intensas consolidações no setor. Hoje, o mercado brasileiro cresce a taxas três ou até quatro vezes superior a mercados mais maduros. O País é vitrine para investimentos em novas infraestruras de data center que visam prover serviços à aquecida demanda nacional”, finaliza Belfort.

Do conforto do seu sofá, talvez a partir de um tablet, já é possível ligar e desligar um gerador de energia de um data center tão grande quanto um prédio. Essa nova capacidade não é surpresa. O acesso remoto para executar funções do ambiente de dados, incluindo operações de rede, são rotina em muitas instalações. Qualquer pessoa que usa um serviço de nuvem para gerenciar ambientes pode fazê-lo remotamente.

Mas a capacidade de gerenciar a distância os sistemas críticos de um data center usando megawatts de energia – e também fazer backup desses sistemas com geradores enormes – ainda deixa algumas pessoas desconfortáveis. Eles veem a capacidade como um potencial risco para a segurança.

##RECOMENDA##

A Emerson Network Power, que atua no setor de continuidade de negócios, tem inserido capacidades semelhantes em seus produtos. Exemplo está na tecnologia Asco Powerquest, que, por meio de telas sensíveis ao toque e suporte a múltiplos dispositivos móveis, realiza o monitoramento e o controle de energia do data center.

O sistema pode ser ligado e desligado por meio da internet, uma capacidade que está sendo impulsionada. Essas mudanças exigem testes de gerador para as indústrias que prestam serviços críticos, observa Bhavesh Patel, diretor de Marketing para a linha Asco.

De acordo com ele, os usuários desse sistema, muitas vezes, conduzem testes do gerador fora do horário de pico e têm sistemas de geração espalhados em várias instalações para garantir disponibilidade e não interferir nas rotinas diárias do data center e demais funcionários da organização.

Mesmo assim, Philip Berman, ex-CIO, líder da prática de data center da PricewaterhouseCoopers, não se sente confortável com a gestão remota do ambiente por meio da web. “Prefiro ter o controle bem a minha frente”, diz.

Yves Carriere, gerente de um data center [que ele não quis revelar o nome], é contundente em relação à prática. “Se você pode desligá-lo remotamente, significa que alguém pode invadir o sistema”, preocupa-se.

Carriere e Berman não descartam a utilização de gerenciamento remoto em um futuro próximo, mas apontam que precisariam de mais informações sobre a segurança para que possam ser convencidos de que a prática não é arriscada.

Sobre o tema, Patel cita a operação do ATM [caixas eletrônicos], que hoje é amplamente usada pela internet, e até mesmo a cirurgia remota como prova de que um alto nível de confiança pode ser criado até para os sistemas mais críticos.

O diretor de Marketing para a linha Asco diz que é possível usar criptografia de 128 bits e que um dispositivo móvel com software de segurança instalado pode ser o primeiro nível de autenticação.

Keith Chapman, gerente de Arquitetura de Rede e Segurança da Stewart & Stevenson, especializada na fabricação de equipamentos para a indústria petrolífera e militar, tem um data center pequeno e o controle remoto de sistemas de potência crítica não é algo que a companhia precise. Mas ser capaz de monitorar as operações tornou-se algo vital.

Há dois anos, o data center passou a contar com uma ferramenta que notifica remotamente quando o gerador é ligado, ou se os suprimentos de bateria ou de combustível estão baixos. A tecnologia pode até mesmo verificar os níveis de combustível. Todas as mensagens colhidas são enviadas via e-mail para o administrador do data center.

Antes, o funcionário responsável pela segurança do edifício em que o data center está instalado ligaria para Chapman para dizer-lhe que o gerador foi executado. Agora, essa atividade não é mais necessária, já que os dados são enviados por meio da internet. Uma atividade simples, que segundo o executivo, passou a fazer grande diferença nas operações. E o que pensa a sua empresa sobre esse recurso?

Sua empresa tem um plano de recuperação de desastres? Em 51% das companhias brasileiras a resposta para essa pergunta é não. Os dados são de um estudo global realizado pela Regus, fornecedora de soluções de TI, com 12 mil executivos em 85 países.

Divulgado no final do ano passado, o levantamento aponta ainda que 57% das companhias que atuam em solo nacional não têm qualquer estratégia de continuidade dos negócios em relação ao local de trabalho, quando afetados por desastres naturais.

##RECOMENDA##

A Regus alerta que os números mostram que muitas empresas colocam em risco ativos de acionistas por não tomarem as devidas precauções para inverter situações de catástrofes. Outro dado relevante do estudo aponta que as companhias brasileiras estão menos propensas a perceberem o custo da recuperação de desastres como algo proibitivo, citado por 31% dos entrevistados.

Apesar de as grandes organizações no Brasil estarem melhor preparadas do que as de menor porte para eventos de recuperação de desastres, em média, 49% delas ainda não contam com instalações dedicadas a continuidade dos negócios, aponta o levantamento.

“Aqui no País, o cenário de contingência está restrito a empresas de grande porte, ainda assim, não de forma ampla”, afirma Marcelo Safatle, diretor-executivo da Hostlocation. Ele acrescenta que, por esse motivo tem muito a crescer, especialmente neste momento de aquecimento.

“Mas os modelos comerciais dos serviços ainda são muito primitivos, se comparados ao mercado norte-americano. Estamos sempre pensando em alternativas flexíveis”, aponta Safatle.

Na opinião de Anderson Figueiredo, gerente de Pesquisa e Consultoria da IDC, o momento nacional, com o crescimento dos negócios, impulsiona a expansão das operações empresariais e a necessidade de disponibilidade, de muitas delas, especialmente as atuantes no mercado financeiro. Essa movimentação deve aquecer a busca por serviços de contingência, segundo ele.

“Os bancos nos Estados Unidos são obrigados por lei a ter contingência. No Brasil, não, mas todos têm. Afinal, depois do 11 de setembro, muitas decisões foram tomadas nesse sentido. E não adianta querer contingenciar fora do País, pois os dados financeiros não podem ficar além do território nacional”, diz Figueiredo. “O serviço é uma boa opção, visto que não é nada fácil construir um data center para contingência. Além de ser caro, consome entre dois e três anos.”

Por outro lado, o estudo da Regus identificou que dois terços [ou 66%] dos profissionais ouvidos no Brasil declararam que investiriam em recuperação de desastres se o serviço tivesse preço mais acessível.

Mas não é somente uma questão de preço, de acordo com Figueiredo. Ele argumenta que o provedor do serviço precisa deixar claro o retorno do investimento (ROI). “Cada vez mais essa ação está sendo necessária. Quem vende tem de mostrar isso para quem contrata. A própria empresa não sabe quantificar quanto ela gasta”, alerta.

Serviços mais atraentes

E o cenário parece estar mudando e se tornando mais atraente. Data centers estão-se empenhando no oferecimento de modelos comerciais mais interessantes. “É como se fosse um seguro de carro. Ninguém quer usar. Mas paga-se pela prontidão e pela paz de espírito”, diz Alexandre Siffert, presidente da Ativas.

Para tornar um pouco mais atraente o modelo de contratação, ele diz que a empresa criou o serviço site backup on demand, em que o cliente paga efetivamente pela infraestrutura quando, de fato, a estiver usando em caráter de contingência. O cliente contrata um espelho da estrutura atual dele, que está em produção [chamado de primário] e só quando declara contingência é que usa o site backup. “Está sendo muito bem aceito.”

Ricardo Barone, vice-presidente da Unidade de Serviços da Sonda IT, destaca que, na empresa, o modelo comercial também reproduz o de seguro de veículos. O cliente só paga a franquia, quando usa o serviço em uma situação de desastre real. “Enquanto nada acontece, é uma assinatura que cobre apenas os custos em stand-by, de prontidão do ambiente, para provisionamento de capacidade.”

O executivo tem observado expansão dessa demanda em todas as verticais, não somente de empresas do setor financeiro. Mas ele acredita que ainda vai demorar um pouco para a modalidade aquecer de verdade por aqui.

Contudo, ele já se prepara para a ebulição. Barone relata que ganhou reforço com a expansão da operação em solo nacional. Antes, os serviços de disaster recovery contavam com a participação de parceiros no oferecimento de infraestrutura. “Agora, provemos internamente”, afirma e acrescenta que em junho irão inaugurar no Chile uma unidade de 1,5 mil metros quadrados, que estará interligada à existente em solo nacional. “Teremos ainda mais recursos, reforçando atuação em cloud, com modelos mais flexíveis e atraentes.”

A saída para um plano de contingência seguro e elástico virá da nuvem, na opinião de José Geraldo Coscelli, COO da Globalweb Outsourcing. Ele destaca os data centers nos Estados Unidos, com os quais a empresa mantém parceria. “Lá, existem quatro entradas de energia e, portanto, também temos contingência energética”, afirma o executivo para quem a efervescência por serviços de contingência ainda não foi percebida.

A Alog tem sido procurada para o serviço e acredita que ele deverá crescer na movimentação dos negócios. “Batem à nossa porta, especialmente instituições financeiras, que têm ações em bolsa. Alugamos espaço para a criação do ambiente de redundância e também para que os funcionários possam operar o negócio no site da Alog”, relata Peter Catta Preta, diretor de Infraestrutura da Alog.

Bruno Arrial dos Anjos, analista sênior de Mercado da Frost & Sullivan, também aposta em cloud computing como alternativa viável para contingência, mais simples, flexível e barata. Mas ele é cuidadoso: “É possível contingenciar servidores para não interromper a operação da empresa. Mas, primeiramente, o conceito terá de ganhar a confiança corporativa e amadurecer, juntamente com a infraestrutura de telecom do País”, ressalta. “Quando isso acontecer, vai causar impacto no mercado.”

O analista revela que tem ouvido muito pouco sobre contingência quando conversa com os CIOs. “Ao menos, não tanto como cloud, disponibilidade e até colocation.”
A contingência hoje é claramente uma necessidade, segundo Flávio Duarte, executivo de Serviços da IBM. “Isso porque, dependendo do setor de atuação da empresa, a parada pode gerar prejuízo de milhões para companhias como operadoras de cartão de crédito e de e-commerce.”

Duarte destaca que muitas formas têm sido orientadas para que o cliente reduza o custo com esse serviço. Virtualizar somente a parte crítica é uma delas. “A IBM tem andares vazios para abrigar empresas que não conseguem operar em seus sites em casos de incidentes. Além disso, a nuvem é uma saída rápida e confortável”, diz e informa: “Nos Estados Unidos, 80% das startups iniciam suas atividades na nuvem.”

A Tivit descobriu uma maneira de o preço pago pela contingência não incomodar tanto pelo fato de não ser usada [desejo de todo CIO]. Adotou um modelo comercial em que o cliente não mais paga por uma estrutura parada, esperando acontecer algum desastre para ser utilizada.

“Todo o tempo, além da garantia de prontidão de contingência, colocamos em funcionamento os ambientes considerados não produtivos, ou seja, os de desenvolvimento de aplicações, testes, homologação etc”, descreve. “Dessa forma, essas produções são redundadas no Rio de Janeiro, reproduzindo a estrutura de São Paulo, no caso de um de nossos clientes.”

A questão colocation

O serviço já foi alvo de várias discussões sobre seu futuro, especialmente em razão da força e aceitação que vem ganhando o conceito cloud computing. Este que pode sentenciar a modalidade ou mesmo impulsioná-la. Mas com o aquecimento do setor de data center, analistas estimam que ele ganhará fôlego. Ainda assim, opiniões e estratégias dividem-se no mercado.

“Somos uma empresa de gestão de serviços, ou seja, o chamado Managed Service Provider (MSP). E não um data center puro sangue. O que entrego para o cliente é gestão de serviço. Fazemos a tradução da infraestrutura no negócio do cliente”, diz Siffert, presidente da Ativas. Por essa razão, o executivo afirma que colocation não faz parte da sua estratégia.

E argumenta: “Um rack ocupa em torno de três metros quadrados. Se pegarmos 5 mil reais e dividirmos por essa metragem, vamos achar o preço mensal por metro quadrado. Multiplicando isso por 12, teremos algo em torno de 20 mil reais. Então, uma solução de colocation, hoje, gera uma receita média de 20 mil reais por metro quadrado”.

Sendo assim, o ticket médio da Ativas por metro quadrado, prossegue o executivo, com base na receita bruta obtida no ano passado, dividida pela área consumida de data center, vai dar cerca de cinco vezes esse valor. “O que isso quer dizer? Significa que quando pensamos em ter um data center Tier 3, não é para ter colocation. Porque colocation destrói o valor”, afirma.

De acordo com Siffert, não se pode imaginar vender data center por metro quadrado como se aluga uma sala comercial. “Com toda a certeza não é nosso business. Só tem um jeito de ganhar dinheiro com colocation: com escala.”

“O planejamento de um data center que vai oferecer colocation não é o mesmo para hosting. A expectativa de faturamento por metro quadrado é realmente diferente e também a sua estrutura”, explica Figueiredo, gerente de Pesquisa e Consultoria da IDC.

Victor Arnaud, diretor de Marketing, Processos e Produtos da Alog, defende o colocation, acredita no seu crescimento e afirma que muitas das avaliações desse mercado são distorcidas. “Se fosse um mau negócio, a Equinix não teria registrado faturamento de 1,6 bilhão de dólares nos Estados Unidos, com colocation puro em 2011”, rebate, referindo-se à fornecedora norte-americana de serviços de data centers que comprou a empresa
em 2011.

Segundo ele, é notória a preocupação de empresas de operações críticas como as do mercado financeiro e de e-commerce com o controle e disponibilidade. “Por isso, precisam da gestão nas mãos. Sem contar que é muito mais fácil, rápido e barato contratar espaço do que construí-lo.”

“Estamos prontos e torcendo para a expansão do serviço, que já está acontecendo . Somos muito procurados”, alfineta e avisa: “O cenário está altamente positivo e estamos atentos às possibilidades com cloud, conceito que também não está fora da nossa estratégia”.

A IDC indica colocation como uma das alternativas viáveis para empresas que estão lutando para garantir que seus data centers estejam em linha com a demanda dos negócios. Chris Ingle, vice-presidente associado da IDC, constata que parte desse cenário foi causada pelo crescimento da computação em nuvem.

Ingle aconselha que as organizações considerem o uso de capacidade externa com mais frequência. “Colocation e projetos de hospedagem na nuvem pública são alternativas de abastecimento, que fazem sentido para algumas organizações”, afirma.

Na visão de Cecci, diretor de Pesquisas do Gartner, apesar de as empresas não gostarem muito de colocation, porque querem maximizar suas margens e o fazem por meio de serviços, é um mercado que vai crescer. “Ele não estava muito popular, mas com o aquecimento do setor, deverá ganhar impulso. Até porque, não deixa de ser uma porta para o oferecimento de serviços.”

“A IBM não trabalha com colocation porque é um serviço de muito baixo valor agregado. Não alugamos metro quadrado. E a tendência para prover infraestrutura em cloud vai abalar ainda mais essa modalidade de serviço”,  avalia Duarte, executivo de Serviços da IBM.

“A expectativa de expansão deve ser rápida e temporária. Não vejo essa estimativa de boom de colocation. Penso que ele serve apenas para atender a uma necessidade pontual de um cliente.”

Provedora de serviços de outsourcing e data center (cloud privada), a CorpFlex, sediada na cidade de Barueri (Alphaville), conta com 90 colaboradores e apresenta uma carteira de clientes corporativos e ativos com mais de 450 nomes. E optou por operar em colocation.

“Não está em nossos planos ter uma estrutura própria e, portanto, colocation é uma modalidade perfeita para nossa estratégia”, diz João Alfredo Andrade Pimentel, diretor da CorpFlex.

A empresa possui a operação em dois data centers no Brasil, que não quis divulgar os nomes. No último ano, investiu mais de 6 milhões de reais na infraestrutura para torná-la ainda mais disponível e também em contingência. Mas não pensa em largar o colocation. Assim como ela, há várias outras corporações que acham mais prático e seguro manter a gestão do negócio sob total controle. É uma questão de escolha estratégica, avaliam os consultores.

 

Uma solenidade realizada na tarde desta quinta-feira (5), no Palácio do Campo das Princesas, situado na Praça da República, área central do Recife, marcou o anúncio da instalação de um Data Center na capital do Estado, capaz de armazenar e processar grandes quantidades de dados. A aparelhagem, voltada para Cloud Computing (Computação em Nuvem), será implantada na Universidade Federal de Pernambuco (UFPE), com o objetivo de auxiliar em pesquisas para melhorar o desempenho dos alunos de escolas públicas do Brasil através da inclusão digital, apoiando o Ministério da Educação e o da Ciência, Tecnologia e Inovação.

“Um dos equipamentos com maior capacidade ficará na UFPE e irá trabalhar nas áreas de pesquisa e educação, distribuindo informações para todo o país. Já o outro, será implantado na zona franca de Manaus, e deve trabalhar na área da biodiversidade”, explica o ministro da ciência e tecnologia, Aloísio Mercadante, que esteve presente no anúncio. O equipamento foi doado ao país pela empresa chinesa Huawei, depois de um acordo firmado com a presidenta Dilma Rousseff, durante visita aquele país, em abril de 2011. 

##RECOMENDA##

No evento, também estiveram presentes o governador do estado, Eduardo Campos, o senador Humberto Costa, secretários e deputados locais e representantes da Huawei, que fez a doação dos equipamentos. “Os centros de dados poderão impulsionar a computação em nuvem no país, método inovador na fronteira de tecnologia da informação”, relatou o ministro.

Segundo ele, este equipamento estará entre os cinco maiores do Brasil, no ramo da ciência e tecnologia. “Só para se ter uma ideia: a capacidade de armazenar e processar informações é de dois quadrilhões bits, ou seja, cerca de 1.200 computadores, em linha, trabalhando simultaneamente para atingir a velocidade deste datacenter”, completou Mercadante.

Os investimentos nos dois datacenters giram em torno de US$ 20 milhões e deverão chegar ao Brasil, no Porto de Santos, em São Paulo, no mês de março. A previsão é de que o centro de dados comece a funcionar na UFPE a partir de abril.

Muitos data centers esbarram na potência máxima disponível. Outros enfrentam desafios de gestão. Entre as dificuldades se destracam falta de tempo para implementar novas capacidades e administrar sistemas existentes. Além disso, os ganhos obtidos com a virtualização ou com a consolidação de servidores frequentemente se perdem com a instalação de novos equipamentos.

A demanda por mais hardware e petabytes de armazenamento não vai acabar. Nem as preocupações com orçamento, custo de energia, refrigeração e espaço. Veja a seguir alguma dicas dos especialistas sobre a escolha do local ideal e como diminuir custos com energia.

##RECOMENDA##

Localização

Os espaços físicos precisam de muita energia com preço competitivo. Necessitam de refrigeração, já que toda a energia direcionada para equipamentos de TI, eventualmente, se transforma em calor.

Esse cenário requer refrigeração e mais energia. Uma medida de eficiência energética de um data center é o seu PUE (Power Usage Effectiveness), que é a razão entre a potência total consumida pela instalação de TI – refrigeração, iluminação etc – dividida pela eletricidade consumida pelos equipamentos de tecnologia. O melhor PUE é o mais próximo possível de 1,0.

O data center deve estar em um lugar fresco e seco, com energia a custos reduzidos. E um exemplo são os sites do Facebook em Prineville, Oregon (EUA), menciona o principal analista e vice-presidente da consultoria Forrester Research, Rich Fichera. Ele destaca que locais com essa característica possibilitam  mais eficiência com resfriamento evaporativo.

Empresas como Apple, Google e Microsoft, juntamente com companhias que têm data centers de hospedagem, buscam áreas com fácil acesso a energia e que obedeçam algums critérios para refrigeração (como não serem propensas a terremotos ou eventos climáticos perigosos, boa conectividade de rede etc).

O Google, com cerca de 900 mil servidores, dedica atenção considerável à eficiência do data center e a outras práticas, entre as quais saber como e quando é possível utilizar resfriamento evaporativo para minimizar a utilização de energia.

Resfriamento evaporativo requer menos energia. As novas instalações do Google em Hamina, na Finlândia, utiliza a água do mar para necessitar de menos resfriamento. De acordo com a empresa, "a Google projetou data centers que utilizam cerca de metade da energia de um data center típico".

Energia neutra em carbono

Além de localização, muitos planejadores de data centers estão olhando para as fontes de energia que não consomem combustível.

Por exemplo, a Verne Global possui um projeto de data center com carbono neutro na Islândia, com previsão para ser concluído em novembro de 2011, alimentada por uma combinação de fontes de energia hidrelétrica geotérmica, de acordo com Lisa Rhodes, vice-presidente de marketing e vendas da Verne Global.

A energia na Islândia também é abundante, aponta Lisa. "A atual rede da Islândia oferece cerca de 2,9 mil Megawatts (MW) de capacidade e a população do país é de aproximadamente 320 mil pessoas. O abastecimento é mais do que suficiente para atender o setor de data centers.” Segundo a executiva, o ambiente de baixas temperaturas da Islândia permitem refrigeração gratuita.

Além do calor, a umidade

Ambiente seco não precisa estar necesariamente em locais mais frescos. O data center Phoenix da I/O Data Center, que segundo a própria empresa é um dos maiores do mundo, está localizado, como sugere o nome, em Phoenix, no estado norte-americano do Arizona.

"Um dos benefícios do deserto é que é muito seco", diz o presidente da I/O, Anthony Wanger. "É mais fácil para tirar o calor em um ambiente seco, o que torna o Arizona um lugar adequado."

Segundo a companhia, o data center em Phoenix emprega uma série de técnicas e tecnologias para reduzir o consumo e melhorar a eficiência energética. "Fazemos o possível para sermos energeticamente eficientes em todos os nossos data centers”, diz Wanger.

Um número crescente de fornecedores, como HP e Microsoft, têm oferecido módulos de data centers que incluem, além dos equipamentos de computação e armazenamento, os relacionados à refrigeração, energia, conectividade, e todo o resfriamento necessário.

E não são apenas fornecedores e provedores de hospedagem, como o I/O data center, que oferecem esses módulos. Entre os exemplos estão a HP, que oferece o Performance Optimized Datacenter 240a, conhecido como "o EcoPOD HP". A Amazon tem seu módulo próprio Perdix, e a Microsoft oferece o data center ITPAC (IT Pre-Assembled Components).

O EcoPOD da HP não precisa de água gelada. "Basta adicionar energia e interligar a qualquer ambiente", diz João Gromala, diretor de marketing de produto da HP. Segundo ele o EcoPOD otimiza a eficiência e atinge um PUE entre 1,05-1,30, dependendo das condições do ambiente.

De acordo com o executivo, isso ocorre porque os módulos EcoPODs são autônomos e podem ser implementados rapidamente, em cerca de três meses. "Os clientes estão adotando EcoPODs em suas instalações existentes", finaliza.

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando