Seagate compra divisão de HDs da Samsung

Seagate Storage Solution Provider
Finalmente a Seagate pode afirmar que finalizou a compra da divisão de discos rígidos da Samsung.
Mesmo tendo anunciado o negócio em abril desse ano, a Seagate ainda aguardava a aprovação por parte dos órgãos reguladores (semelhante ao que ocorre aqui no Brasil com o CADE).

Através do acordo a Samsung entrega seu negócio de HDs para a Seagate e recebe 9,6% de participação em ações da Seagate.
Após o acordo, a Samsung passa a fornecer chips de memória flash NAND para a Seagate utilizar em seus drives SSD e passa a encomendar HDs da Seagate para seus computadores e produtos eletrônicos.
Seagate Storage Solution Provider
O que muda por aqui?
Pensando globalmente a Seagate ganha mais músculos e amplia sua linha e oferta de produtos, já que a Samsung tinha um glorioso reconhecimento no desenvolvimento e produção de discos rígidos para dispositivos domésticos (como TVs, gravadores de vídeo, dispositivos de segurança etc)

Pensando localmente a Seagate passa a ter fábrica em Manaus !
Nós vimos a Seagate absorver a Conner em 1996 e comprar a Maxtor em 2006! Como já vimos no passado, a migração da linha de montagem é muito dinâmica e, em poucos meses, a marca passa a oferecer seus produtos enquanto a marca subordinada desaparece.
Como a fábrica de Manaus é uma montadora, o processo deverá ocorrer em tempo recorde.
Além da montagem local, maior inventário de produtos e melhor disponibilidade de pós-venda, a fábrica de Manaus traz vantagens tributárias sobre os discos importados!

Seagate continuará a vendendo HDs com a marca Samsung durante 12 meses.

No cenário atual, todos saímos ganhando!





Visite Sinco.net

Recesso de Final de Ano

Recesso de Final de Ano

Recesso de Final de Ano
Comunicamos a nossos usuários, clientes, fornecedores e colaboradores que estaremos em recesso entre os dias 23 de dezembro de 2011 e 02 de Janeiro de 2012.
Retornaremos nossas atividades normais em 03 de Janeiro de 2012 (terça-feira).


Durante o recesso é possível que ocorram atrasos às respostas de suporte, cotações online e/ou dúvidas comerciais. Pedidos online serão processados a partir de 03 de Janeiro de 2012 (terça-feira).
Pedimos desculpas por eventuais inconvenientes e contamos com sua compreensão.


"A simplicidade é o último grau de sofisticação"
Leonardo da Vinci

Desejamos a todos um 2012 mais simples, repleto de felicidade nas coisas mais simples da vida!

Visite Sinco.net

Gordon, o primeiro supercomputador baseado em Flash SSD

Em janeiro entrará em operação Gordon, o primeiro supercomputador baseado em armazenamento SSD.
Com um investimento de U$20milhões (financiado pela National Science Foundation) o supercomputador chama a atenção por seus números surpreendentes e, sobretudo, por ser pioneiro na adoção de armazenamento em memórias Flash (daí o nome Gordon, Flash Gordon!).

Quando for apresentado oficialmente ao trabalho, o projeto da SDSC (San Diego Supercomputer Center) ajudará pesquisadores a resolverem complexos desafios de data-intensive, desde o mapeamento de genomas para fins específicos da medicina até o cálculo de milhares de cenários "what-if" que afetam desde os padrões de tráfego até mudanças climáticas.

"Gordon é um recurso extremamente importante porque estará dedicado a resolver problemas científicos e sociais críticos, atualmente sobrecarregados pela grande quantidade de dados gerados pelos dispositivos digitais da nossa era"

"Assim como o SDSC, Gordon será um ponto central de colaboração. Desafios globais de hoje estão cada vez mais interdisciplinares por natureza, e requerem uma abordagem interdisciplinar para serem resolvidos"
"Flash" Gordon em números:
300 Terabytes em armazenamento Flash SSD (algo como 1.200 SSDs de 250GB juntos)
4 Petabytes em armazenamento tradicional (Hard Disks)
64 Terabytes de RAM (2.000 vezes a memória de um belo servidor de 32GB)
280 Teraflops de poder computacional (baseados nos novos processadores Xeon® E5 Sandy Bridge)
36 milhões de IOPS (operações de I/O por segundo)

A título de curiosidade, cada SSD Intel® da série 510 atinge 20.000 IOPS nominalmente.
Somente com uma engenharia de milhares de unidades SSD é possível obter a surpreendente marca de 36 milhões de IOPS deste novo supercomputador.

Referências:
SDSC Welcomes 'Gordon' Supercomputer as a Research Powerhouse
"Flash" Gordon set to be first SSD-based supercomputer


Visite Sinco.net

Alerta: S5520HCR e S5500HCVR usam a mesma serigrafia

Intel Server Board S5500HCVRIntel Server Board S5520HCR
Consegue notar a diferença entre as placas acima?
Os modelos de placa mãe de servidor S5500HCVR e S5520HCR (Hanlan Creek) compartilham o mesmo PCB, ou seja, a "placa" é a mesma. O que muda são os componentes aplicados em cada modelo.
No modelo S5500HCVR o chipset empregado é o Intel® 5500 e há 9 slots de memória (note na imagem que o segundo processador agrega apenas 3 slots.
Já no modelo S5520HCR, o chipset é o Intel® 5520 (Tylersburg) e estão presentes 12 slots de memória (note que há 6 slots para cada processador).
Como o PCB é o mesmo, em ambos os modelos a placa vem serigrafada como S5520HC!
Intel Server Board S5500HCVR
S5500HCVR com apenas 3 slots no segundo processador

Intel Server Board S5520HCR
S5520HCR com 6 slots em cada processador
Muita atenção !
Como o PCB é o mesmo, em ambos os modelos vem serigrafado S5520HC na placa!
Veja nas imagens abaixo a foto aproximando a área do segundo processador, onde é possível ler a serigrafia S5520HC em ambos os modelos, com 3 ou 6 slots de memória ao lado do segundo processador:

Serigrafia em Detalhe - S5500HCVR
Detalhe da Foto : 03 slots de memória

Serigrafia em Detalhe - S5520HCR
Detalhe da Foto : 06 slots de memória
Alerta !
Queremos alertar aos usuários que um revendedor mal intencionado pode montar seu servidor com a placa S5500HCVR e "mostrar" como sendo uma S5520HCR!
Infelizmente a prática de vender gato por lebre é um pouco frequente em nosso país e, se o usuário não prestar atenção ao produto, pode ser lesado por revendas desonestas!
Se o seu pedido foi por uma placa S5520HCR, olhe o número de slots de memória. Sua placa tem de ter 12 slots (azuis e pretos). Havendo apenas 9 slots, NÃO acredite na argumentação do lojista! Denuncie para a Intel do Brasil!
Visite Sinco.net

A Intel já tem circuitos de 14nm rodando em seus laboratórios, revela executivo

Pat Bliemer - Managing Director Intel Northern Europe
"A Intel já tem circuitos de 14nm rodando em seus laboratórios", revelou Pat Bliemer, executivo da fabricante para o norte da Europa.
A Intel foi a primeira fabricante de semicondutores a empregar tecnologia de 32 nanômetros para produção em massa de microprocessadores e, até o final do primeiro trimestre do próximo ano, vai apresentar processadores sob a nova arquitetura Ivy Bridge, com litografia de 22 nanômetros e suporte dos revolucionários transistores 3D (Tri-gate).
Com o lançamento da família Ivy Bridge a Intel estará uma volta e meia à frente dos concorrentes - que ainda enfrentam grandes problemas para estabilizar seus processos abaixo dos 20nm.

"Eu não diria que temos problemas, mas não há como negar que vai ficando mais complicado quanto menor você faz algo, então estamos gerenciando as limitações... Nossa equipe de pesquisa e desenvolvimento, sob o ponto de vista de arquitetura, são as mesmas pessoas que cuidam da fabricação e isso tudo dentro de uma mesma empresa, o que torna a Intel única, pois a mesma equipe tem os caras que vão fabricar as peças e os que vão projetar as partes"

Pat Bliemer - Managing Director Intel Northern Europe
"Precisamos seguir em frente e você pode acreditar que já temos a próxima geração após os 22nm rodando, então temos que seguir em frente... Eu realmente não posso revelar mais sobre isso, mas em nossos laboratórios, absolutamente, nós temos o caminho... Nossos engenheiros têm o caminho para realmente ir e produzir produtos de 14nm."

Bliemer ainda garantiu que a estratégia Tick-Tock segue como planejada e que não é o encolhimento do processo produtivo que move a Intel, mas a introdução de novas soluções no design dos transistores.


Visite Sinco.net

Intel anuncia queda de receita devido à escassez de HDs

Stacy Smith - Intel CFO
As enchentes na Tailândia que afetaram a produção de HDs começam a causar reflexos em outros segmentos da indústria de TI.
Hoje foi a vez da Intel anunciar uma redução das receitas para o quarto trimestre de 2011, reflexo da escassez de HDs causada pelas enchentes de outubro na Tailândia.
Segundo Stacy Smith (foto), CFO da Intel, a fabricante espera faturar cerca de U$13,7 bilhões (as expectativas anteriores ao desastre apontavam para U$14,7 bilhões).

Os efeitos da escassez de discos rígidos desencadearam perdas por toda a cadeia de suprimentos de computadores, não só na Ásia, mas por todo o mundo.

"Se a escassez de discos rígidos se mantiver nos níveis em que se encontra os fabricantes de computadores serão forçados a baixarem seus inventários, refletindo na demanda por microprocessadores" - afirmou a Intel.

Ainda segundo Stacy Smith, a empresa reforça que a expectativa de queda nas vendas de microprocessadores reflete apenas os problemas da escassez de HDs e não uma queda de demanda dos usuários.
“Isso é um problema de distribuição de discos rígidos, não uma questão de demanda”
“Nossa visão sobre a procura de produtos contínua está intacta”.

REUTERS: Intel says sales hit by hard drive shortage


Visite Sinco.net

Custos muito próximos nos SSDs das séries 320 e 510 da Intel®

Intel SSD 510 Series
Muitos usuários já perceberam que os SSDs Intel® de 120GB e 160GB tem custos próximos, assim como os modelos de 250GB e 300GB.
Qual a vantagem de escolher um SSD menor, já que o custo é praticamente o mesmo?

Um detalhe que tem passado despercebido para alguns usuários é a série desses SSDs! Um detalhe que pode significar muita diferença no desempenho.
Intel SSD 510 Series
As duas principais famílias de SSDs da Intel® são as séries 320 e 510.

Intel® SSD 320 Series
Os SSDs da série 320 apresentam taxas de 270 MB/s para leitura e 165 MB/s para gravação.

Intel® SSD 510 Series
Já os SSDs da série 510 apresentam taxas de 450 MB/s para leitura e 210 MB/s para gravação no modelo de 120GB e, no modelo de 250GB, são atingidas as fantásticas taxas de 500MB/s para leitura e 315MB/s de gravação!
Agora ficou mais fácil...
Agora que o usuário percebeu que existem diferenças (brutais) entra as duas famílias de SSDs Intel®, fica mais simples a compreensão de que os modelos maiores - aparentemente mais vantajosos - são, na verdade, uma escolha pouco interessante!
O usuário que optar por modelos menores receberá, em compensação, bem mais desempenho (afinal, não existe almoço grátis).

SérieCapacidadeMB/s LeituraMB/s Gravação
320 160 GB 270MB/s 130MB/s
510 120GB 450MB/s 210MB/s
320 300GB 270MB/s 165MB/s
510 250GB 500MB/s 315MB/s



SSD vs. HD de alto desempenho
No vídeo abaixo a Intel apresenta um comparativo de desempenho entre um SSD da série 510 e um HD de 10.000RPM rodando Adobe Photoshop Elements:



Fonte:
Intel® SSD 320
Intel® SSD 510

Visite Sinco.net

Por onde andam os servidores Apple Xserve?

Apple xserve RAID
Poucos usuários chegaram a conhecer, mas a Apple lançou uma linha de servidores em 2002 e, após 8 anos, retirou os produtos do mercado em novembro de 2010.
Apesar do reconhecimento mundial da marca, da admiração de uma legião de seguidores e dos incontestáveis sucessos comerciais - como os iMacs, MacBook Pro, MacBook Air e, sobretudo, o iPhone - o fabricante não conseguiu replicar esse sucesso no segmento de servidores.

Há muito tempo defendemos que o segmento de servidores deve ser atendido por especialistas.
O fato de uma indústria como a Apple ter saído do mercado demonstra que os fabricantes sem foco nesse segmento estão fadados a abandoná-lo e, uma vez abandonando o mercado, seus usuários serão abandonados também!

Servidores tem um ciclo de vida mais longo que um tablet ou notebook!
Em geral servidores são equipamentos com amortização prevista para 36 meses e, muito frequentemente, alongada para 60 meses. Todavia, não são raros os casos onde um servidor continua operando, mesmo após 5 anos de vida.
Nesse segmento, com um ciclo de vida mais longo, usuários de servidores precisam contar com peças de reposição, itens para upgrade, controladoras, placas de expansão etc.
Se o fabricante descontinua um produto, só é obrigado a ter inventário de peças por 30 dias!

Falta especialização...
Percebemos diariamente que a grande maioria dos fabricantes e integradores estão "mirando em qualquer coisa que se mexa". Independente do porte, tempo de mercado ou renome, é difícil acreditarmos que uma empresa que forneça de tudo seja especialista em algo.
Muitos usuários mencionam algumas multinacionais como marcas "especializadas" em servidores. Será que esses usuários sabem quanto o segmento de servidores representa no faturamento dessas empresas?
É difícil acreditar que um segmento que represente menos de 2% do faturamento de uma empresa seja tratado como "estratégico" ou "foco" pelos tomadores de decisão.
E, quanto mais esses fabricantes investem em propagandas de notebooks e desktops nas maiores emissoras e jornais do país, mais esses departamentos crescem e MENOS o segmento de servidores representa na receita dessas empresas.
Mais cedo ou mais tarde o usuário vê a marca descontinuar a divisão de servidores e focar nos itens de consumo, posto que são um excelente mercado no Brasil.
Apple Xserve 1U
O maior vendedor de carne do Brasil é ...
A cadeia de "restaurantes" que mais vende carne no Brasil é daquela lanchonete americana que começa com "Mc" (sim, eles são classificados como restaurantes).
O fato de uma empresa ser líder em volume significa que ela seja especialista?
Será que o fast-food com o maior volume de carne do país pode ser comparado a um especialista de carnes?
Aquele restaurante argentino excepcional que funciona há décadas na sua cidade deveria ser comparado a essa lanchonete? Eles entregam carnes com o mesmo nível de conhecimento do assunto?
Ou aquela rede de churrascarias reconhecida em todo o Brasil (e com filiais nos EUA) não chega a uma fração tímida do volume de carnes processado pela rede de fast-food. Deveríamos desqualificar a churrascaria porque ela não tem volume?
Pois é isso que vem acontecendo no mercado de servidores... Grandes fast-foods estão apregoando pelo mercado que seus volumes são enormes e, por isso, são especialistas!
Muitos usuários, por não entenderem que a indústria está falando de volumes totais - e não de volumes segmentados em servidores - acabam acreditando que uma divisão que responde por menos de 2% do faturamento de uma empresa possa ser foco estratégico para qualificação, desenvolvimento, inventário, prioridade fabril, etc...

Vale a pena ler: Ter servidores para entrega imediata é o mínimo que se pode esperar de uma empresa especializada em servidores.

Apple Xserve - Wikipédia
Busca por xserve no site da Apple
Página de suporte da linha Xserve (Apple)



Visite Sinco.net

Mesmo fora de linha, fabricantes insistem em oferecer processadores obsoletos no Brasil

Xeon 5600 Westmere
Estamos praticamente em 2012 e o número de cotações solicitando servidores com processadores Xeon® 5500 "Nehalem" ainda nos causa espanto!
Mesmo tendo migrado dos antigos processadores Xeon® 5500 para os atuais Xeon® 56xx (Westmere) em junho de 2010, diariamente ainda recebemos usuários que especificam servidores baseados na família antiga.
Identificamos dois principais motivos para essa insistência nos modelos antigos. Uma entendemos... A outra repudiamos...

Licitações com modelos antigos...
Mesmo não atendendo a compras governamentais, atendemos uma efervescente gama de revendas atuantes nesse segmento. Nesse caso entendemos que as especificações dos editais tenham sido desenhadas há quase 2 anos e, portanto,  basta evoluir a especificação para a família Xeon® 5600 Westmere, pois são processadores superiores e atenderão a todos os requisitos da família anterior com sobra de vantagens.

Multinacionais sugerindo processadores encalhados...
Já em usuários de empresas privadas e projetos corporativos, temos notado que a especificação com modelos obsoletos tem origem em multinacionais que oferecem no Brasil seus processadores encalhados no primeiro mundo.
Pode parecer incrível, mas o brasileiro sabe que as indústrias automobilísticas, eletrônica e de eletrodomésticos usam dessa prática há décadas.
Quando um produto sai de linha no mercado do primeiro mundo, essas indústrias trazem seus modelos obsoletos para venda no Brasil.
Pelo o que temos notado algumas multinacionais da área de TI vem adotando essa mesma prática, trazendo para o Brasil seu inventário de processadores "encalhados" e vendendo-os por aqui como produtos de ponta!
É lamentável, mas a prática tem se tornado muito comum, principalmente após o declínio do volume de vendas de 2008/2009.

Tabela comparativa com processadores Intel Xeon E5520 Nehalem, E5620 Westmere, X5550 Nehalem e X5650 Westmere
Argumentos pelo preço...
Clicando na tabela acima o usuário pode perceber o comparativo entre processadores Xeon® 5520/5620 e 5550/5650.
É fácil perceber que os modelos 5500 foram lançados em 2009 e os modelos 5600 em 2010.
É fácil notar, também, que os processadores 56xx são superiores em clock, tamanho do cache, número de núcleos (cores), litografia, etc...
Todavia, prestando atenção na última linha, o usuário notará que os PREÇOS são praticamente idênticos.
Essa prática é bem antiga por parte da Intel® e, quando um processador sai de linha, a fabricante preserva o último valor de venda para atender a pedidos específicos por uma arquitetura obsoleta.
Até aí tudo bem... Desde que as multinacionais não estivessem usando essa informação para fundamentarem a defesa de que NÃO são processadores fora de linha, posto que CUSTAM o mesmo que os novos!

A prática é condenável e, no mínimo, subestima o mercado nacional ao oferecer seu encalhes no Brasil.
Continuaremos alertando aos usuários!

Junho/2010 - Sai o Xeon® E5520, entra o Xeon® E5620!
Tabela Comparativa Intel® - Xeon® 5520 / 5620 / 5550 / 5650


Visite Sinco.net

Hoje é Dia de Backup

Backup
Mais um mês acaba e, como sempre, lembramos a importância de manter um backup confiável e protegido!
Confiável porque o backup, apesar de ser uma rotina automatizada, precisa ser checado e testado regularmente. Há caminhos que mudam, novas pastas são criadas, outras deixam de ser importantes... Por isso é preciso estruturar um mapa consistente de conteúdo e certificar-se que todas as informações importantes estão cobertas pela cópia de segurança.
Testado, porque não são raras as vezes em que os dados não chegam íntegros ao backup e, quando realmente são necessários, a decepção é arrasadora!


RAID, fontes redundantes e balanceamento de carga não substituem o backup...
As tecnologias que asseguram o uptime dos servidores facilitam muito a gerência de TI, mas não substituem o backup!

RAID, como já comentamos em postagem anterior, é uma tecnologia fantástica. Permite que um servidor mantenha-se acessível mesmo durante uma falha de I/O.

Fontes redundantes também visam manter um servidor operante, mesmo que uma das fontes de alimentação (uma das origens de energia) venha a ser desligada.
Esse recurso é crucial em modelos onde a energia seja fornecida por duas vias distintas, em especial por dois no-breaks alimentados por concessionárias diferentes.

Balanceamento de carga, além de manter o servidor online no caso de pane em um dos links, ainda traz ganhos quando ambos estiverem ativos, pois permitirá distribuir o tráfego de rede por caminhos físicos individualizados.

Nenhuma dessas tecnologias assegura a integridade das informações no caso de acidentes, sabotagens, desastres naturais e tantos outros riscos que envolvem a disponibilidade de uma aplicação.

Desastres acontecem...
Em geral cultivamos um pensamento otimista e acreditamos que problemas nunca afetarão nossas operações. Porém, se considerarmos que as informações de uma empresa são seu ativo mais precioso, é preciso prever o pior e planejarmos um processo de backup para que essas informações estejam seguras fora do nosso ambiente de trabalho.

Chuvas na região serrana...
No verão de 2011, quando deslizamentos de encostas assolaram a região serrana do RJ, diversas empresas foram afetadas e, muitas delas, tiveram suas instalações inundadas e destruídas.
As empresas que mantinham um backup consistente enfrentaram problemas, mas conseguiram restabelecer o acesso aos dados em pouco tempo.
Adquirir um novo servidor e providenciar um link em outra cidade é algo simples de se obter em poucos dias. Se o gestor dessas informações configurar um novo servidor e restaurar um backup atualizado, terá alcance às suas informações em tempo.

Até o Cloud da Amazon caiu...
A computação em nuvem vem ganhando cada vez mais destaque e, como toda tecnologia que ganha ares de celebridade, é alardeada como a cura para todos os problemas!
É notório que o serviço de cloud da Amazon está entre os melhores do mundo e, mesmo assim, em abril de 2011 o serviço ficou cinco dias fora do ar, afetando centenas de clientes e acarretando perda de informação para alguns (o número de clientes prejudicados não foi divulgado e há um grande esforço em manter esse número em sigilo).
Vale lembrar que o serviço EC2 da Amazon segue a filosofia de distribuir a nuvem entre datacenters geograficamente independentes (veja o exemplo a seguir para entender o que acontece quando a nuvem inteiro fica em apenas 1 datacenter) e, mesmo assim, o serviço caiu!
Os clientes que mantinham cópia de seus dados em local seguro tiveram a opção de aguardarem o sistema voltar e, se o problema persistisse, poderiam injetar seus dados em uma nuvem concorrente e restabelecerem seus sistemas. Já quem não tinha...

Pane elétrica na Alog-RJ...
Mesmo contando com no-breaks inteligentes e geradores plenamente funcionais, em julho de 2011 o datacenter da ALOG no RJ sofreu uma pane elétrica que acarretou em 2 dias de desligamento e inúmeras perdas de dados com corrupção de bancos de dados!
Diversas empresas mantinham infraestrutura no datacenter e, durante 2 dias, somente aquelas que possuíam um backup confiável conseguiram levantar seus serviços em outro datacenter e sustentarem suas aplicações online.
Nós mesmos passamos por essa situação!
Alguns de nossos serviços rodam em servidores que ficam nesse datacenter e, quando ocorreu o desastre elétrico, migramos os sites para nossa rede interna e levantamos com nosso backup. Para nossos clientes e funcionários nossas atividades operacionais passaram despercebidas, sendo notada apenas uma lentidão, já que nosso link interno não era tão largo.
Esse exemplo mostra que um servidor com fontes redundantes, diversos no-breaks e balanceamento de carga não valeria de nada em um desastre elétrico como esse!

Explosão em restaurante carioca prejudica 136 salas comerciais...
Em 13 de outubro de 2011, retorno de feriado, um acúmulo de gás provocou a explosão de um restaurante que funcionava no centro do RJ.
O restaurante ocupava o andar térreo de um edifício com 12 andares e 136 salas comerciais.
Desde então o edifício está LACRADO e, segundo a Defesa Civil do RJ, o edifício não será reaberto em 2011.
Nas 136 salas comerciais funcionavam empresas de contabilidade, advocacia, webdesign, representação comercial, etc...
Esse exemplo mostra que a preocupação não deve ser apenas em empresas grandes.
Todos os escritórios e microempresas que mantinham backup de suas informações foram surpreendidas com a explosão na volta de um feriado mas, bastando adquirir novos PCs, levantaram suas operações no mesmo dia.
Já as empresas que não tinham backup dos dados, mesmo não tendo qualquer ligação com o restaurante, viram seu negócio ruir quando não tiveram mais acesso ao prédio.

Prevenir ainda é melhor que remediar...


Visite Sinco.net

Comparar MTBF de marcas diferentes não é uma opção segura

Na postagem de hoje tentamos exemplificar com uma situação prática sobre um assunto mal compreendido: o MTBF de discos rígidos.
Tomando como exemplo que um disco rígido padrão de mercado apresenta MTBF de 500.000 horas, se dividirmos 500.000 por 24 horas chegaremos a 57 anos de ciclo de vida. Algum HD dura 57 anos? Certamente não!

MTBF
Mesmo sendo o artigo Wikipédia sobre MTBF pouco esclarecedor, ele elucida que o cálculo de MTBF envolve (além de incontáveis variáveis), uma metodologia baseada em estatística.
A indústria de discos rígidos, em geral, adotada uma amostragem de 1.000 peças, portanto, se montarmos um cenário de 1.000 HDs com MTBF de 500.000 horas, essas unidades terão uma estatística de 1 falha a cada 500 horas (ou seja, a cada 20,8 dias).

Na prática...
Em um parque de servidores com 1.000 HDs com MTBF de 500.000 horas - ou seja, com uma falha a cada 20,8 dias - e arbitrando um ciclo de vida de 3 anos (tempo de garantia do fabricante), teremos:
3 anos = 1095 dias de uso
1 falha a cada 20,8 dias (500 horas)
Total : 52 HDs falharão ao longo de 3 anos.
Taxa média de falha : 5% no ciclo de vida, ou 1,7% por ano.

Porém... Falha não é defeito...
Olhando a simulação acima o usuário pode pensar que o índice de RMA de HDs é de 5%.
Os índices de RMA da indústria são bem abaixo disso e, como demonstramos no exemplo, o acervo de 1.000 discos rígidos apresentou 5% de falhas no ciclo de vida, mas não de defeitos.
Falhas podem compreender eventos simples - como a perda do fluxo de gravação de um arquivo - até mesmo eventos críticos - como a quebra mecânica, levando à condenação da unidade.

Critérios proprietários
Infelizmente, para fins de comparação, o cálculo de MTBF não segue uma norma padronizada para toda a indústria de HDs.
Cada fabricante define seus critérios para medição de MTBF e, por isso, algumas marcas (menos criteriosas) apresentam estimativas de MTBF bem mais infladas para seus produtos. Isso gera uma expectativa de confiabilidade bem distinta entre modelos e marcas.

Critérios adotados pela Seagate®
Como trabalhamos exclusivamente com discos rígidos da Seagate®, os critérios de cálculo são padronizados pela fabricante para todas as linhas de produtos e, portanto, são válidos para comparação entre modelos diferentes do fabricante.
Todavia, como outros fabricantes adotam parâmetros distintos, não é válido comparar os valores apresentados para MTBF entre unidades Seagate® e unidades fabricadas por outras marcas.

Visite Sinco.net

Fontes com PFC Ativo e certificação 80 Plus

CMPSU1200AX Fonte Corsair PFC Ativo
Fontes com PFC Ativo oferecem grandes vantagens sobre fontes com retificação normal, principalmente em um país onde o fornecimento de energia não é dos melhores.
A tolerância a um amplo espectro de tensões permite que essas fontes entreguem energia estável aos componentes de um servidor, independentemente da tensão de entrada (full range voltage suporta tensões de entrada desde 90V até 264V sem necessidade de comutação de chave alguma).
Além disso, fontes com PFC Ativo são mais resistentes a espúrios, transientes e surtos de tensão na entrada que fontes "normais".

Certificação 80 plus
Criada em 2004, a certificação 80 Plus regulamenta os limites mínimos de eficiência para que a indústria possa classificar fontes de alimentação.
A eficiência mínima é de 80%, chegando a 92% na categoria Platinum (veja tabela abaixo).
Fontes com retificação normal apresentam eficiência por volta de 50%, ou seja, metade da energia consumida é dissipada na forma de calor!
Tabela de Eficiencia para Certificacao 80PLUS
Fontes de 500W - Curva de Eficiência
No gráfico abaixo demonstramos a curva de eficiência de nossas fontes de 500W e, como se pode perceber, é interessante dimensionar equipamentos que apresentem consumo próximo a 50% da potência da fonte, pois estes estarão no pico de eficiência energética.
Eficiência em fontes 500watts


Fontes de 650W - Curva de Eficiência
No gráfico abaixo apresentamos a curva de eficiência das fontes de 650W e, tal qual no modelo anterior, pode-se notar a mesma necessidade de dimensionar equipamentos que apresentem consumo próximo a 50% da potência da fonte, pois estes estarão no pico de eficiência energética.
Eficiência em fontes 650watts


Quando menos é mais...
Analisando as curvas acima o usuário perceberá que, para um equipamento com consumo de 200W é mais indicado o uso de uma fonte de 500W que uma fonte de 650W, mesmo esse modelo maior ser, aparentemente, mais "confiável".
Como ambas as fontes possuem a mesma construção e, portanto, mesma confiabilidade, é preferível que o consumo se posicione próximo à faixa ideal de eficiência (entre 40% e 60% da carga). Em contrapartida, ao optar por uma fonte de 650W o equipamento demandaria uma carga por volta de 30% da fonte e, portanto, em uma faixa de eficiência mais baixa!

110V ou 220V ?
Muitos usuários já perceberam que os datacenters apresentam rede elétrica com tensão 220 Volts.
O "mito" de que a tensão 110 Volts oferece menos risco ao equipamento é injustificável, uma vez que a tensão nativa das fontes ATX e EPS é 220 Volts.
Ao alimentar servidores com entrada 110V a fonte exigirá trabalho do seu dobrador de tensão, de maneira a resgatar sua tensão nativa de trabalho.
As figuras acima demonstram, inclusive, que a eficiência sob 230VAC é mais alta, uma vez que o trabalho para resgatar a tensão nativa a partir de uma tensão mais baixa apresenta perda de energia, portanto, compromete a eficiência.
Referências de Consumo para Equipamentos Sinco:
Referências de Consumo para Servidores de Virtualização 24HDs
Referências de Consumo para Servidores de Virtualização 16HDs
Referências de Consumo para Workstations Dual Xeon
Referências de Consumo para Workstations Xeon E3-1200


Visite Sinco.net

RAID não é Backup!

Boia
É importante reforçarmos aos usuários que uma solução de RAID não é uma solução de BACKUP em si só! Uma estratégia de backup bem planejada - e cumprida à risca - é fundamental e indispensável em qualquer ambiente, seja empresarial, ou mesmo doméstico.

O que é um RAID?
RAID significa "Redundant Array of Inexpensive Drives" (Conjunto Redundante de Discos Econômicos). Com o tempo, numa tentativa de desassociar o conceito de "discos baratos", a indústria reviu o acrônimo para "Redundant Array of Independent Disks" (Conjunto Redundante de Discos Independentes).

Ou seja, a tecnologia RAID, seja via software ou via hardware, é uma forma eficiente de unificar diversos drives em um volume lógico de forma a atingir uma grande capacidade de armazenagem podendo, inclusive, obter ganho de desempenho (RAID-10, 50 e 60).

Por quê "Discos econômicos"?
O termo não se refere a drives de alta ou baixa qualidade! Refere-se ao fato que, com unidades de capacidades normais de mercado é possível montar um volume com uma capacidade que tornaria um "drive" inviável (financeiramente falando).
Tomemos como exemplo discos rígidos de 2TB, atualmente muito populares no mercado. Ao construirmos um volume RAID-5 com 8 discos rígidos de 2TB atingiremos um drive lógico de 14TB. Se um fabricante de discos rígidos tivesse que fabricar um HD de 14TB seu custo seria muito superior ao custo de 8 HDs de 2TB somados. Por isso o volume consegue obter um custo "econômico".

Se não é para Backup, para quê serve um RAID?
Unidades em RAID são amplamente usadas em volumes virtualizados, bancos de dados, repositórios de arquivos e, sobre tudo, backups!
O conceito que precisa ser quebrado é que RAID é backup! Ou seja, o fato do usuário ter um volume RAID não significa que ele tenha proteção total e não precise de backup!
Backup é a replicação dos dados através de uma cópia de segurança FORA do equipamento, preferencialmente fora do ambiente físico.
Ter um volume em RAID com REDUNDÂNCIA é uma excelente maneira de mitigar problemas no RAID e, na eventualidade de um drive falhar, pode-se reconstruir o volume e resistir à perda momentânea dos dados, mantendo o volume (servidor) disponível por esse período.

RAID nivel 50
RAID em nível 50 (redundância e desempenho)
O risco de colocar todos os ovos na mesma cesta...
Ter uma pasta de backup dentro do mesmo volume de dados não traz nenhuma segurança ao usuário; seria o mesmo que colocar todos os ovos em uma única cesta!
A redundância de discos existe para proteger o RAID, não os dados!
É preciso entender redundância de discos como um paliativo de momento para que o sistema (servidor ou desktop) não fique indisponível.
Imaginemos um carro com estepe. Esse estepe é a REDUNDÂNCIA (uma roda com pneu sobressalente que não serve para nada, até que algo aconteça).
Se um pneu fura, é imprescindível que seja trocado pelo estepe e reparado o quanto antes.
Todavia, se um pneu fura e o condutor não o substitui pelo estepe, ao furar um segundo pneu o fato de ter um estepe não servirá para nada, pois estará com dois pneus furados!
Trocar o pneu furado pelo estepe e não reparar o furo é tão arriscado quanto, pois o veículo estará rodando e, ao furar novamente um pneu, estará sem estepe (pois esse está rodando e o pneu furado no porta-malas).
Volumes RAID-1 ou RAID-5 são como um carro com estepe. O disco espelhado (no caso de RAID-1) ou o disco de contingência (no caso do RAID-5) tem a função de ocupar a posição de um drive falhado e manter o sistema respondendo.
A vantagem é essa, ou seja, não perder o acesso ao servidor no caso de uma falha de HD.
Porém, tal qual o estepe, se o volume não for reparado (RAID rebuild) e o disco sobressalente não for restituído à posição de contingência, as informações contidas nesse volume estarão completamente em risco!
Os dados contidos em um volume RAID precisam estar protegidos por um plano de backup robusto e eficiente. Essas informações precisam ser duplicadas em um servidor distinto e, sobretudo, precisam estar acessíveis no caso de uma pane geral do hardware principal (imaginemos nessa situação um desastre natural, incêndio, roubo, danos elétricos, sabotagem de funcionários, vandalismos, demolição, etc).

A própria Intel® publica em sua página que RAID não é backup:
O texto abaixo foi traduzido da página da Intel® sobre servidores, intitulada: Planejamento para o pior caso: a importância de uma solução de backup.

"O propósito real de uma matriz RAID não é backup de dados de forma nenhuma. RAID foi criado para aumentar a velocidade de acesso aos arquivos (a taxa de transferência de dados), e aumentar o tamanho de discos lógicos. Dado que as unidades de disco rígido são dispositivos mecânicos que podem falhar a qualquer momento, o RAID evoluiu de modo a incluir alguma redundância integrada (por exemplo, RAID 1 e 5). Redundância fornece capacidade de sobreviverem a perda de uma unidade de disco única. Teoricamente isso é bom, mas não fornece acesso aos dados no caso de duas falhas na unidade, ou corrupção dos dados das unidades. NÃO confundir redundância de disco rígido com um verdadeiro backup."
Fonte: Página da Intel em portuguêsPágina da Intel, original, em inglês

RAID na Wikipédia, em português
RAID na Wikipédia, em inglês


Visite Sinco.net

A Wikipédia precisa da sua ajuda para se manter livre? Ou deve ceder à propaganda?

A Wikipédia é grátis, mas custa U$20milhões por ano!
Seu fundador, Jimmy Wales, afirma sua postura contrária a inserir publicidade na Wikipédia:

"O comércio é uma coisa boa. A publicidade não é malvada.
Mas não tem lugar aqui. Não na Wikipédia.
"

Semestralmente fazemos nossa parte, doando para que essa biblioteca de informação continue no ar.

Mas, provocando uma discussão, você acha que a Wikipédia perderia sua credibilidade se incluísse propagandas em seus artigos?

Há maneiras bem discretas - e pouco ofensivas/apelativas - de inserir publicidade e custear esse fantástico serviço.
Na página em que o fundador faz seu apelo por doações, há informações interessantíssimas:

"O Google pode ter perto de um milhão de servidores.
O Yahoo tem cerca de 13 000 funcionários.
Nós temos 679 servidores e 95 funcionários.
"

"A Wikipédia é o 5º site mais visitado na web e serve 420 milhões de pessoas diferentes em cada mês – com milhares de milhões de visualizações de páginas."

Estima-se que a Wikipédia tenha 2,7 bilhões de visualizações mensais! É um número colossal! Um potencial incomparável para que uma publicidade bem feita possa arcar com todos os custos e, sobretudo, alavancar ainda mais esse serviço.

Não seria o momento de ceder (um pouco) ao capitalismo e garantir o futuro de um serviço tão importante?
Você, colaborador da Wikipédia, deixaria de contribuir se soubesse que o serviço é mantido por publicidade?
Você, estudante, deixaria de usar a Wikipédia como referência em seus trabalhos escolares porque o serviço cedeu à propaganda?
Você, internauta, convenceria milhares/milhões de amigos a doarem anualmente para que o serviço não dependesse de publicidade?
Qual de nós, para não cedermos ao marketing capitalista, gostaríamos que a disponibilidade da Wikipédia caísse ou, ainda pior, saísse do ar?

E se a propaganda fosse velada?
Digamos que a Google ou a Microsoft acolhessem a Wikipédia em sua infraestrutura, arcando com todos os custos de servidores, links, energia, refrigeração, administradores, backup, manutenções, etc... e, mesmo assim, fossem proibidas de publicarem banners ou propagandas no serviço.
O serviço não teria nenhuma evidência de estar sob a tutela de um gigante da web mas, ao ceder a uma empresa, isso não seria propaganda?
E se as universidades públicas suportassem a Wikipédia gratuitamente?
Suponhamos que as dez maiores universidades públicas federais do Brasil se oferecessem para suportarem toda a infraestrutura da Wikipédia para uso público e gratuito.
Do dia para a noite essas universidades colocariam 700 servidores e toda a infraestrutura necessária para o serviço (como já citamos acima: links, energia, refrigeração, administradores, backup, manutenções, etc) à disposição da Wikipédia.
Ou seja, quem pagaria a conta de U$20milhões anuais seria o governo brasileiro.
Seria justo que os impostos dos brasileiros arcassem com a manutenção de um serviço apenas para sustentar o dogma de que esse acervo não deveria ceder à propaganda?
E se fossem universidades de outro país?
Seria certo que os impostos de outras pessoas, de outros países, custeassem as suas pesquisas?

Se 2 milhões de pessoas doam US$1 cada um, é doação...
E quando a Google, sozinha, doa US$2milhões, é doação? Ou ação de marketing?
Em 2010 a Google doou US$2milhões para a Wikipédia. Ao aceitar uma cifra desse porte a Wikipédia não estaria cedendo ao marketing?

O tema é controverso e os pontos de vista diversos... Enquanto isso... Para doar, clique aqui.


Visite Sinco.net

Memórias Kingston estão com custos muito oportunos!

Muitos usuários já perceberam que o momento está muito vantajoso para incrementar memórias nos servidores.
Seja na compra de um novo servidor, ou pensando no upgrade do parque atual, esse final de ano está marcado por custos muito interessantes.
O custo para evoluir de 8GB para 32GB de RAM em servidores Dual Xeon® tem se mantido próximo a R$600,00, ou seja, um ônus por volta de 10% do valor do equipamento significa quadruplicar a capacidade de RAM!

Projeções futuras...
Uma série de fatores vem contribuindo para que as memórias estejam com custos muito interessantes e, analisando as tendências, é provável que os primeiros trimestres de 2012 tragam uma elevação dos custos.

Segundo relatório da iSupply referente ao terceiro trimestre de 2011 (Q3/11), os custos de DRAM vem caindo há cinco trimestres, principalmente devido à grande capacidade de inventário dos fabricantes.

Em virtude das enchentes que prejudicaram severamente a produção de HDs no quarto trimestre de 2011, há uma tendência de crescimento no volume de SSDs e, aproveitando o baixo custo das memórias, muitos fabricantes de notebooks e desktops migraram sua chamada de marketing para essas, as memórias.
Já é notado no mercado que os PCs de consumo (notebooks e desktops) reduziram sua capacidade de HD e, para prenderem a atenção do consumidor, dobraram a quantidade de memória. Dessa maneira os fabricantes conseguem atrair o consumidor para seus modelos, sem que esse perceba que o HD diminuiu.
Essa prática está demandando bem mais memórias que os trimestres passados e, aliado ao crescimento dos SSDs, os estoques mundiais começarão a desinchar, levando a um ajuste da commodity.

Aproveitando o momento...
Como os custos ainda não sofreram os reflexos desse aumento de volume e ainda estão no vale da curva de preços, sugerimos fortemente que nossos usuários considerem embarcar o máximo possível de memória em seus equipamentos, aproveitando o momento oportuno e incrementando a capacidade produtiva de seu parque!


Visite Sinco.net