quinta-feira, 25 de abril de 2013

Chegou o #Ubuntu Raring Ringtail

Chegou a mais nova versão do não mais tão amado Linux para seres humanos. Desde o advento do Unity, questionamentos, celeumas e até desavenças têm tornado a vida de Mark Shuttleworth menos fácil, e a concorrência, especialmente o Linux Mint, ganham espaço. Confesso que assim que resolver meu problema com a aquisição de um "notebook as a lab" vou testá-lo.
Aparentemente, entretanto, as desavenças se restringem ao ambiente desktop, o que significa que, do ponto de vista de servidor, a Canonical vai muito bem obrigado, com notícias recentes animadoras sobre parceria com a VMware para melhorar o suporte ao OpenStack, cuja versão mais recente, Grizzy, é uma das novidades de destaque desta versão.
Vamos às novidades.
Desktop
  • O Unity traz o Friends em substituição ao Gwibber, o software de rede social que eu, pelo menos, nunca gostei mesmo;
  • Efeitos gráficos melhorados;
  • Desempenho aprimorado, menor consumo de memória;
  • Novos recursos de sincronização prometem facilitar o acesso a serviços de armazenamento, com destaque para o Ubuntu One (claro!), mas suporte também ao Dropbox e outros;
  • Versões atualizadas dos aplicativos mais importantes, como Libre Office 4 e Firefox 20;
  • Possibilidade de instalar o GNOME mais facilmente;
  • A liberação do cliente Valve Steam para Linux promete tornar melhor a experiência de jogar na nuvem, embora as opções de jogos sejam limitadas;
  • Pesquisa de imagens simplificada;
  • Alguns recursos não ficaram "bons o suficiente", não passaram no teste de qualidade e foram suprimidos desta versão, dentre eles o Smart Scopes, que prometia facilitar pesquisas na Dash (dá pra instalar via PPA), além de recursos de privacidade que ganharam importância depois da polêmica com a exibição de resultados da Amazon na Dash;
  • Vale destacar a redução do período de suporte para versões não LTS, que agora é de 9 meses.
Diante das novidades, não vejo razão significativa para atualizar. Mesmo assim, já estou encaminhando o processo para conferir de perto as melhorias.
Servidor
  • Indiscutivelmente, a maior novidade é o suporte à versão mais recente do OpenStack, Grizzy;
  • Versões do Juju (antigo ensemble) e do MaaS (Metal as a Service) prometem facilitar o deploy de serviços na nuvem;
  • A inclusão do MongoDB deixa claro que o NoSQL chegou pra ficar, se é que alguém tinha dúvida;
  • A inclusão do OpenVSwitch revela a abordagem da Canonical para SDN;

sexta-feira, 12 de abril de 2013

O novo salto da #VMware

Desde 2009 sabemos que a nuvem é livre. A virtualização não. Pelo menos a solução que predomina não é livre. E o que isso significa ? Não vou dar uma de Tadeu Schmidt e dizer "nada". Muito pelo contrário. A VMware está se movendo nos últimos anos para garantir o seu espaço no mercado de computação em nuvem, que é o passo seguinte à virtualização, mas cuja liderança não é da VMware. Até porque a saturação do mercado de virtualização já é uma realidade e tem afetado negativamente os resultados financeiros da empresa.
Voltando à nuvem, a liderança absoluta da Amazon está longe de ser ameaçada, se é que faria sentido ameaçá-la. Afinal, a VMware pode não se posicionar como provedor, mas como fornecedor de soluções para provedores, o que me parece mais sensato e alinhado com o histórico da empresa. Ainda assim, a concorrência é forte, e como não há liderança claramente estabelecida nesta área, o histórico de confiabilidade e robustez da solução da VMware pode fazer diferença na escolha dos clientes. Vejamos então o que a empresa tem feito para garantir seu futuro.
  • suite vCloud representa um passo adiante na direção da nuvem, acrescentando os requisitos mínimos para implementar sua nuvem privada, como automação, escalabilidade e políticas baseadas em níveis de serviço.
  • (atualização) A aquisição da Nicira complementou a solução da VMware acrescentando um componente essencial para viabilizar a criação de nuvens privadas;
  • Foco em SMB - a empresa tem ampliado a oferta de soluções para pequenas e médias empresas, um mercado onde ainda há espaço para crescimento, e que se mostra um bom candidato para a utilização de serviços na nuvem. A oferta da suite vSphere com o Operations Management revela a intenção de ganhar o mercado SMB oferecendo um diferencial de preço e funcionalidade em relação à concorrência.
  • Outra iniciativa relacionada ao mercado SMB foi o lançamento do VMware Data Protection Advanced, que inclui tecnologia da EMC (AVAMAR) e que promete reduzir em até 95% o volume de dados dos backups do ambiente virtualizado da empresa.
  • aquisição da Virsto mostra que a VMware está preocupada com a otimização do armazenamento de dados com foco no desempenho das máquinas virtuais, talvez a área menos "automatizada" dentro da sua filosofia de "Data Center virtual".
  • Uma recente reestruturação administrativa revela que a empresa tem percebido as mudanças do mercado e está se adequando.
  • A VMware está em busca de parceiros, provedores de soluções que poderão utilizar a solução da empresa e pagar à medida que forem crescendo, com promessa de economia em torno de 25%.
  • investimento na Puppet Labs revela que a tendência para a automação dos ambientes de TI, que a VMware está chamando de "Software Defined Data Center (SDDC)", é irreversível.

Em suma, a idéia do Data Center definido por software pode representar o novo salto da VMware, deixando a concorrência, especialmente a Microsoft, que tem alardeado os clientes que "tomou" da VMware, comendo poeira novamente. A concorrência é fortíssima, mas a VMware já mostrou do que é capaz. Vejamos as cenas dos próximos capítulos.

Curta nossa página no facebook!

sexta-feira, 5 de abril de 2013

Ultrabook/Notebook AMD, Core i3, i5 ou i7 ?

Receba dicas imperdíveis:     
RSS E-Mail Icon Icon 

Estou pesquisando opções de ultrabook/notebook para montar um "lab on a chip" (será que inventei o termo ?), e tive algumas dúvidas, principalmente sobre a possibilidade de que um sistema com o processador Intel core i5 fosse suficiente, por isso resolvi buscar mais informações sobre o assunto, e o resumo do que encontrei segue abaixo.

Core i3 - uso "doméstico" (acessar a web e executar programas de escritório, embora possa servir pra jogos com uma boa placa de vídeo)

Os processadores Intel Core i3 3220-3240 são dual-core, construídos em processo de fabricação 22nm, têm Hyperthreading, mas não têm Turbo Boost. Trazem processador gráfico embutido, a maioria deles HD Graphics 2500 (exceto a 3225 que tem HD Graphics 4000).

Core i5 - uso "profissional" (execução de aplicações mais pesadas - 3D, edição de vídeo e execução de máquinas virtuais, com limitações)

Os modelos do processador Intel Core i5 3330-3570 são quad-core, construídos em processo de fabricação 22nm (melhor eficiência de energia), têm a tecnologia Turbo Boost, mas não Hyperthreading. Trazem processadores gráficos HD 2500 e 4000.

Core i7 - uso "hard" (execução de aplicações realmente exigentes - 3D, edição de vídeo, virtualização e jogos em resolução máxima)

Os modelos atuais do Intel Core i7 compreendem duas linhas de produtos diferentes, e assim exigem motherboards diferentes e têm diferentes capacidades. O Core i7 3770 geralmente se encaixa nas placas-mãe do i3 e i5, é construído com o processo de 22nm, tem quatro núcleos, Hyperthreading, Turbo Boost e HD Graphics 4000. Também é relativamente barato quando comparado a outros modelos i7.

Os modelos Core i7 3820-3970 podem ser de quatro núcleos ou seis núcleos, construídos em processo de 32nm, têm Hyperthreading e Turbo Boost, mas não têm placa gráfica embutida.

AMD

Encontrei alguns testes com processadores AMD, especialmente a linha FX, mas eles são entre 10 e 20% mais lentos que os Core i7. Pode valer a pena se não quiser gastar muito e não precisar de tanto desempenho, mas só encontrei um modelo de notebook AMD FX no Buscapé. Em compensação, custava menos de R$ 2 mil.

Conclusão

Pelo que vi dos testes e análises que li, a 3ª geração de processadores da Intel, "Ivy Bridge", não acrescenta muito em termos de desempenho, trazendo apenas pequenas melhorias, por isso pode valer a pena comprar um processador Sandy, especialmente se o preço for convidativo.

O modelo Core i7 3770 representa a melhor opção em termos de custo/benefício se você precisa de alto desempenho, mas o preço é salgado, em torno de R$ 3 mil. Se não tiver esta grana, melhor tentar um Core i5, especialmente se for usar pra jogar, pois aí é mais importante uma placa de vídeo de alto desempenho que um processador.

Se for usar para testes, montar um lab (meu caso), melhor caprichar na memória e no HD, pois máquinas virtuais exigem muito espaço. Estou pensando num Core i7 ou i5 com 8 GB de RAM e 750 GB a 1 TB de HD, se possível com um SSD de 24 ou 32 GB pra "acelerar", mas aumenta bastante o custo.

Bom, é isso. Espero que as informações sejam úteis.

Curta nossa página no facebook!

quarta-feira, 3 de abril de 2013

Big Data: quanto é Big ?

Estou ficando fã da Debra Shinder, do Windows Networking. Este é o segundo artigo dela que me vejo "obrigado" a traduzir, dada a qualidade e relevância do texto.

Big, Bad Data

Meu pai era fã do cantor country Jimmy Dean muito antes de o homem parar de fazer música e começar a fazer salsicha. Minhas memórias de infância incluem as palavras, embutidas para sempre em meu cérebro, da sua canção maior, "Big Bad John". Ela conta a história de um gigante gentil que assustou a todos ao seu redor, mas que acabou salvando o dia ao sacrificar a sua própria vida. 

Big Data lembra-me um pouco desse mineiro de carvão de grandes dimensões. Para aqueles que não entendem o conceito, que é um pouco assustador. O que é o "big data" de qualquer maneira - além de ainda chavão outro projetado para vender "soluções" ? Não há um número restrito de terabytes, petabytes, exabytes, etc, que constitui uma linha que, quando ultrapassada, coloca você no território de big data. Mas o termo evoluiu para se referir a conjuntos de dados que contêm tantas informações que nossas ferramentas de banco de dados tradicionais têm dificuldade de processá-las.

Tudo é relativo, portanto, e uma quantidade de dados que qualificam como "grande" em uma organização pode não ser considerado grande o suficiente em outra. Depende das ferramentas que você usa para processar dados e se elas são capazes de lidar com uma quantidade específica. Um levantamento de CIOs indicou que 36% - mais de um terço deles - consideram 1-9 TB de dados "big data".

Estamos vivendo em um mundo onde a coleta de dados tornou-se onipresente. Houve um tempo em que, para obter informações em um banco de dados, um ser humano devia sentar e introduzir os dados à mão. Hoje, os fluxos de dados em bancos de dados ocorrem automaticamente, através da Internet, em todo o mundo. Dados são coletados a partir de computadores, dispositivos móveis, câmeras, microfones, leitores de código de barras, scanners RFID, e todos os tipos de sensores. Os dados vem em muitas formas: mensagens de e-mail, informações de redes sociais, entrada de formulário web, arquivos de log, documentos, arquivos de texto, PDFs, fotografias, desenhos, vídeos, arquivos de áudio e muito mais. Empresas coletam informações sobre clientes, empregados, fornecedores, indústria, questões jurídicas, contábeis e muito mais. 

Estamos nos afogando em dados - mas de que servem os dados, se não temos uma maneira de tomar ciência de tudo isso ? O valor em ter uma grande quantidade de informações é a capacidade de usá-las para detectar tendências, padrões, anomalias e, finalmente, ser capaz de usá-las como base para decisões de negócios. E isso nos leva à necessidade de um software de gestão da informação ou serviços que possam organizar, classificar e filtrar os dados e também realizar análises sobre eles. 

Dados não estruturados, em particular, são um desafio para as ferramentas de banco de dados tradicionais, pois não se encaixam bem em tabelas de dados relacionais. Isso inclui documentos de texto, áudio, vídeo, e-mails, páginas web, e muito mais. O problema é que uma grande porcentagem dos dados que as empresas recolhem não é estruturado. A percentagem estimada varia, mas mesmo nas estimativas mais conservadoras, compreende uma parte muito significativa de todos os dados.

A Gestão da informação caminha lado a lado com a ideia de Business Intelligence. Há um número de diferentes tipos de tecnologias que podem ser usadas para processar big data e encontrar o caminho certo pode ser um desafio, uma vez que o que é certo para os seus fins depende do objetivo final de sua análise, bem como suas expectativas em relação ao desempenho e confiabilidade da análise preditiva. A pesquisa CIO mencionada acima mostrou que 81% dos CIOs precisam os resultados de consultas analíticas que devem ser retornados em menos de um minuto. 

Grandes soluções de processamento de dados pode ser locais ou baseadas em nuvem. Há soluções projetadas para rodar em qualquer servidor de sistemas operacionais que você possa ter no local, a partir de frameworks open source, como o Apache Hadoop até as caras soluções comerciais. Administradores do Windows provavelmente ficarão felizes em saber que a Microsoft está no jogo do big data (aprender a usar novas tecnologias é difícil o suficiente sem ter que aprender a usá-las em uma nova plataforma). Sua Data Explorer para o Excel 2013 é uma ferramenta recém-lançada e projetada para tornar mais fácil de descobrir, combinar e refinar os dados de fontes diferentes para análise no Excel. A fundação do esforço da Microsoft em big data, porém, é o HDInsight, que curiosamente é uma distribuição Hadoop que pode ser executada em Windows Server ou como um serviço do Windows Azure. A Microsoft também anunciou uma solução de processamento paralelo em banco de dados, o SQL Server 2012 PDW , que integra com Hadoop e muitas soluções de BI populares. Ela oferece uma capacidade de multi-petabytes.

Nem todas as empresas precisam de uma solução de big data, mas se a quantidade de informação que você precisa para processar está excedendo as capacidades dos sistemas que você usa, você pode precisar começar a pensar sobre big data.
Até a próxima, Deb

Por Debra Littlejohn Shinder, MVP

Siga-nos no Twitter!
Curta nossa página no facebook!
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

S Voice do Samsung Galaxy S4 pro S3

O Droid Life indica um link onde é possível baixar o APK da nova versão do S Voice, o assistente pessoal lançado pela Samsung com o Galaxy S3, e que conta com várias melhorias e mais funcionalidades, embora não seja ainda assim um Google. Pretendo testar. E você ?

Curta nossa página no facebook!

Quadrante mágico do Gartner em BI revela cenário de soluções maduras

No mês passado, o Gartner divulgou o seu quadrante mágico para DW e BI, e destaco aqui os principais fabricantes apontados, para que fiquemos de olho nas soluções que oferecem e na evolução da tecnologia, que é a base para o desenvolvimento do Big Data, o sucessor natural do BI.

  • Microsoft, IBM, SAP e Oracle fornecem as soluções mais completas, sendo consideradas as líderes. Importante notar a chegada da Microsoft "com força", graças ao SQL Server 2012 e seus agregados;
  • Teradata, SAS e MicroStrategy são fornecedores de alguma maneira especializados, mas que são também muito relevantes;
  • Tableau, QlikTech QlikView e Tibco Spotfire fornecem soluções bem interessantes para visualização e exploração de dados;
  • Pentaho, Jaspersoft e Actuate são as soluções de código aberto que se destacam. Senti falta do SpagoBI e BIRT, e me surpreendi com o posicionamento da Jaspersoft;
  • E quando se trata de Big Data propriamente dito, o Apache Hadoop domina. Não vejo a hora de colocar as mãos neste bichinho pra testar;
  • Observou-se também um começo de padronização sobre a linguagem de programação R para estatísticas e análise preditiva.

Fico muito feliz em observar que o Big Data, assim como a nuvem, é dominado por soluções livres e abertas, o que revela uma clara tendência de conversão do modelo baseado em licenciamento de software para um modelo baseado em serviços, onde o software é o meio e não o fim.

Siga-nos no Twitter!
Curta nossa página no facebook!
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

Busca e análise de dados para iniciantes

Meus alertas sempre trazem muita coisa interessante, tanto que muitas vezes não consigo compartilhar aqui com vocês as informações, por falta de tempo mesmo. Às vezes dá pra tuitar o link, mas como tem muita coisa em inglês, acaba não sendo tão útil quanto um post. Por isso recomendo que aproveitem o que os alertas podem fazer por você. E nos sigam no twitter (vide rodapé)!

Mas vamos ao tema deste post. Encontrei um artigo bem educativo sobre os passos necessários para fazer "Data Mining" usando apenas seus conhecimentos, sua capacidade de pesquisar e uma planilha pra relacionar os "achados". Como não concordo com o uso do termo Data Mining usado no texto, alterei o título do post. Os passos são os seguintes:

  1. Encontre as referências sobre o assunto, os sites especializados;
  2. Crie termos adequados para realizar buscas, considerando variações de gênero, grau, sinônimos, etc;
  3. Relacione os resultados encontrados numa planilha;
  4. Elimine resultados redundantes;
  5. Organize os resultados, classificando em categorias, temas ou outros métodos que facilitem a análise;
  6. Construa gráficos a partir da análise dos resultados.

E é isso! Simples assim! Lembre deste passo a passo da próxima vez que precisar se aprofundar em algum assunto.

Confira o texto original para mais informações (em inglês).

Siga-nos no Twitter!
Curta nossa página no facebook!
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

Que antivírus oferece melhor proteção contra phishing ?

O NSS Labs comparou 12 dos antivírus mais populares (que agora estão chamando de Endpoint Protection - meh) e testou especificamente o bloqueio para ataques de phishing. Os resultados são surpreendentes, com a Trend Micro vencendo a batalha com 92% de eficácia, seguida de perto pela Kaspersky com 85% eo resto não vai além de um distante 64%. 

E não é só isso, eles foram além, e disseram que o navegador é realmente uma linha de frente melhor contra ataques de phishing, testando quatro navegadores populares, que atualizam a proteção contra phishing duas vezes mais rápido que as soluções Endpoint Protection: cinco horas em vez de 10, em média. 

Uma coisa curiosa é que, segundo o Windows Security, havia 12 produtos testados, um dos quais o Microsoft Security Essentials, mas que está misteriosamente ausente de todos os gráficos. Seria só um erro, ou existem razões mais sinistras para isso ? Olhando agora, o texto indica 11 soluções testadas. Mistério...

Eis algumas das principais conclusões e recomendações:

  • Quase 90% dos consumidores não são adequadamente protegidos contra phishing por produtos Endpoint Protection (EPP). A eficácia dos produtos na proteção de phishing varia de 3(!) a 92%;
  • Os usuários finais devem usar navegadores atuais como uma primeira linha de defesa contra ataques de phishing. Invista tempo na compreensão dos ataques de phishing e mude seu comportamento para evitar se tornar mais uma vítima.

Siga-nos no Twitter!
Curta nossa página no facebook!
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!