quinta-feira, 28 de julho de 2011

14 extensões que vão transformar sua experiência de uso do #Google+

Fiz um levantamento de extensões que podem ser úteis aos usuários da nova rede social da Google, e compilo aqui meus achados. Já vou avisando que não testei a grande maioria das extensões, portanto use por sua conta e risco. Mas pode usar os comentários aqui para deixar sua opinião, será muito útil para todos! Há extensões para chrome (maioria) e firefox.
  • Surplus: permite usar um popup para postar e responder, ativa notificações integradas e é capaz de alternar entre contas;
  • Photo Zoom:  permite fazer o que o nome sugere, ou seja, ampliar fotos;
  • Quer "desgostar" de um post ? A extensão -1 (Minus One) resolve o problema;
  • Notification Count: facilita a identificação dos novos posts, diretamente na barra do nagegador;
  • Responder e mais: acrescenta as opções de responder ao autor ou mencioná-lo na resposta, entre outros melhoramentos;
  • +Comment Toggler: oculta automaticamente todos os comentários em posts e permite visualizá-los se e quando necessário;
  • +Everything: inclui a barra do g+ em todos os sites que você visita;
  • Plus One Anything: acrescenta um botão "+1" no navegador, permitindo compartilhar qualquer site no g+;
  • Move Your Photos: permite migrar as fotos do facebook para o g+, mas é tenha sido bloqueada pelo facebook (não pude testar);
  • Helper for Google+: acrescenta uma opção para retuitar e traduzir posts do g+, entre "otras cositas";
  • Start G+: permite postar automaticamente para facebook e twitter a partir do g+;
  • Google+Facebook: integra a stream do facebook ao g+, permitindo acessá-los "quase" juntos;
  • Google+ Refined: faz ajustes na interface do g+ para deixá-lo mais agradável;

quarta-feira, 27 de julho de 2011

Buscapé na hora, o seu auxiliar pra pesquisar preços na web

Não, isso não é propaganda! Não estou recebendo nenhum trocado do Buscapé. Esta extensão (Firefox e Chrome) foi uma dica do colega Willian que resolvi compartilhar com vocês, pois pode ser muito útil. Quando você acessar a página de qualquer produto em uma loja, como o Submarino ou Americanas, ela automaticamente entra em ação e traz o preço daquele produto em outras lojas.

Eu já usava o Invisible Hand (Firefox e Chrome), mas este só funciona na Amazon, eBay e Deal Extreme.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

terça-feira, 26 de julho de 2011

Você sabe pesquisar no #Twitter ?

Antes que o twitter morra de morte matada pelo g+, como estão dizendo por aí, é bom saber do que ele é capaz, né não ?

Pois então. Como se pode ver na imagem acima, há vários recursos de pesquisa interessantes no twitter, que muita gente pode não conhecer, então vou descrever alguns exemplos:

  • Para saber o que está "bombando" nas redondezas, o operador near pode ser muito útil, pois permite especificar o local de origem das tuitadas. Assim, buscar por "show near:"Salvador" deveria retornar o que os soteropolitanos andam comentando sobre os shows que frequentam. Digo deveria porque não consegui usar este operador com sucesso, infelizmente :( Seria possível inclusive determinar a distância máxima do local usando o operador within.
  • É possível também usar os operadores comuns de pesquisa que já mostramos antes e que podem ser usados no Google, por exemplo, como AND, OR, - (sinal de menos, também conhecido como hífen). Assim, uma pesquisa por "filme -terror" vai trazer todas as tuitadas que façam referência a filmes mas que não contenham a palavra terror, e uma pesquisa por "filme AND (ficção OR terror)" vai trazer tuitadas com a palavra filme e ficção juntas ou filme e terror juntas.
  • Outro operador interessantes é o @, que permite identificar menções a um usuário específico e saber o que andam (re)tuitando dele. Assim, uma pesquisa por @realwbonner ou @ivetesangalo permitiria saber o que estão falando de e com o apresentador do jornal nacional e com a musa do axé, por exemplo.
  • Mais operadores úteis: o to permite identificar mensagens enviadas para um usuário específico e from permite encontrar mensagens enviadas por um usuário específico. Exemplo: quer saber como andam os xingamentos e elogios ao Bolsonaro ? "to:depbolsonaro"! E o que ele anda falando ? "from:depbolsonaro".
  • Mas os operadores que mais me chamaram a atenção foram o :( e o  :), que permitem identificar atitudes positivas ou negativas em relação a determinado assunto. Assim, uma busca por "peugeot :)" vai retornar todas as tuitadas positivas sobre a marca francesa. Nos meus testes, estes operadores me pareceram um pouco "literais" demais, ou seja, as mensagens continham efetivamente as "carinhas" positivas ou negativas, e neste último caso não apareceu nenhum "#fail" nos resultados, por isso acho que estes operadores podem não ser tão eficientes quanto deveriam para monitorar marcas e produtos, por exemplo.
  • Finalmente, achei bem úteis os operadores de data, since e until, que permitem buscar tuitadas anteriores ou posteriores a uma data, respectivamente, e ainda os operadores filter:links e source, que possibilitam encontrar tuitadas que contenham links e identificar a ferramenta que originou a tuitada (tweetdeck, hootsuite, twitterfeed, etc).

É isso, espero que possam fazer bom uso dos operadores e encontrar mais facilmente aquilo ou aqueles(as) que procuram no microblog, afinal já são mais de 200 milhões de pessoas!

Antes de encerrar este post, queria comentar sobre o twitterverse, um infográfico muito bacana que mostra todo o ecossistema de ferramentas que giram em torno do twitter, o que me faz pensar que o Google+ vai ter trabalho para viabilizar todo um conjunto de apps que atendam às necessidades hoje muito bem supridas pelo twitter e seus "agregados". O que vocês acham ?

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

 

sexta-feira, 22 de julho de 2011

Padrão thunderbolt pode superar o #usb ?

O Clube do Hardware informa que a Apple acaba de lançar um monitor com interface Thunderbolt. Será que estamos diante de mais uma batalha de padrões ?

Apple lança monitor com interface Thunderbolt

A Apple lançou o seu primeiro monitor com interface Thunderbolt, um modelo
de 27” com tela LED Cinema.

Thunderbolt é um padrão de conexão desenvolvido pela Intel que utiliza
fibra óptica e que promete oferecer taxa de transferência máxima de 10
Gbps. Para você ter uma ideia, a taxa de transferência máxima do
barramento USB 3.0 é de 4,8 Gbps.

Com o Thunderbolt é possível transferir um filme Blu-Ray em menos de 30
segundos. Outra vantagem do Thunderbolt é a possibilidade de executar
vários protocolos ao mesmo tempo, permitindo conectar periféricos,
computadores, monitores de vídeo, discos rígidos, etc.

O monitor da Apple tem resolução nativa de 2560 x 1440 pixels, sensor de
luz ambiente, webcam de alta definição integrada, caixas acústicas,
conector Gigabit Ethernet, três portas USB 2.0, uma porta FireWire 800 e,
é claro, a porta Thunderbolt. O monitor deve chegar ao mercado
norte-americano nos próximos dias custando US$ 999.

Mais informações:
http://bit.ly/aSedGe

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

quinta-feira, 21 de julho de 2011

Inventory Snapshot permite recriar definições do #vSphere em outro host ou #VMware #vCenter

Imagine que você levou dias, semanas ou mais tempo até configurar todos os detalhes do ambiente do VMware, desde datacenters, clusters, distribuição de hosts, resource pools, etc. Não seria terrível perder tudo isso em caso de comprometimento do servidor vCenter ? E se precisasse recriar parte desta estrutura em ambiente de laboratório ? É nessa hora que o Inventory Snapshot pode ser útil.

O Inventory Snapshot é um fling, o termo usado pela VMware para indicar ferramentas desenvolvidas como laboratório, pelos engenheiros da empresa, para efeito de prova de conceito, e que podem se tornar parte da suite de virtualização no futuro. Ou não. Com ele você pode conectar ao vCenter e coletar informações do ambiente que permitirão recriá-lo se necessário. O resultado do trabalho da ferramenta é um script powershell que recria automaticamente toda a estrutura "fotografada" anteriormente, no mesmo ou em outro vCenter.

A ferramenta pode ser baixada no site da VMware, e um passo a passo do uso da ferramenta pode ser encontrado no Virtualization Admin.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

terça-feira, 19 de julho de 2011

A mudança no licenciamento do #VMware #vSphere 5

Como já informamos anteriormente, o vSphere 5 chegou com uma série de novidades. Uma delas, da qual não havia lido nada a respeito até ontem, diz respeito à nova forma de licenciamento, e deve trazer descontentamento a alguns clientes. Talvez muitos!

A mudança

O novo esquema de licenciamento mantém a cobrança de acordo com a quantidade de sockets/processadores, mas inclui uma limitação na utilização da memória, que pode variar entre 24, 32 ou 48 GB conforme a licença (Standard, Enterprise ou Enterprise Plus).

O porquê da mudança

Eu entendo a necessidade de uma mudança para manter a lucratividade e competitividade da solução, uma vez que, com o barateamento do hardware e o acréscimo de um número cada vez maior de núcleos, é fácil imaginar que os clientes necessitariam de um número cada vez menor de licenças, limitado a 2 por questões de recuperação e alta disponibilidade.

Ou seja, bastaria comprar uma licença para ter direito de usar aquele servidor com um processador com 12 núcleos e 128 GB de RAM, por exemplo, alocando facilmente 10, 20 ou até mais máquinas virtuais num único hardware. Uma segunda licença seria importante para garantir que um segundo servidor estivesse disponível em caso de falha, ou para distribuir e equilibrar a carga. Com o novo licenciamento, para ter estes mesmos 2 servidores seria necessário adquirir 10 licenças Standard, ou 6 licenças Enterprise Plus, um acréscimo de no mínimo 150% nos custos de licenciamento.

É por isso que não entendo, ou melhor, não concordo com o efeito que a mudança causa nos clientes atuais, especialmente aqueles que estão com suas licenças recém adquiridas, e com garantia de upgrade, aliás uma garantia que não está sendo honrada por conta da mudança, já que a nova licença implica restrições no uso de memória ou custos adicionais para clientes que possuam recursos além dos limites mencionados anteriormente, como pudemos ver no exemplo.

Assim, acredito que a VMware acaba de criar uma excelente oportunidade para a concorrência, que pode "investir pesado" aproveitando a insatisfação dos clientes que se sentirem lesados pela medida. Felizmente, no caso da instituição em que trabalho, e de muitos outros clientes, acredito, os limites de memória impostos não representam uma restrição significativa.

Afinal, o que a mudança significa na prática ?

Vamos analisar um trecho do documento de licenciamento da VMware:

 

vRAM Entitlement

We have introduced vRAM, a transferable, virtualization-based entitlement to offer customers the greatest flexibility for vSphere configuration and usage. vRAM is defined as the virtual memory configured to virtual machines. When a virtual machine is created, it is configured with a certain amount of virtual memory (vRAM) available to the virtual machine. Depending on the edition, each vSphere 5.0-CPU license provides a certain vRAM capacity entitlement. When the virtual machine is powered on, the vRAM configured for that virtual machine counts against the total vRAM entitled to the user. There are no restrictions on how vRAM capacity can be distributed among virtual machines: a customer can configure many small virtual machines or one large virtual machine. The entitled vRAM is a fungible resource configured to meet customer workload requirements. 

Pooled vRAM Capacity 

An important feature of the new licensing model is the concept of pooling the vRAM capacity entitlements for all processor licenses. The vRAM entitlements of vSphere CPU licenses are pooled—that is, aggregated—across all CPU licenses managed by a VMware vCenter instance (or multiple linked VMware vCenter instances) to form a total available vRAM capacity (pooled vRAM capacity). If workloads on one server are not using their full vRAM entitlement, the excess capacity can be used by other virtual machines within the VMware vCenter instance. At any given point in time, the vRAM capacity consumed by all powered-on virtual machines within a pool must be equal or lower than the pooled vRAM capacity.

 

 Aqui precisamos considerar algumas questões importantes, a partir dos trechos em destaque:

  1. No primeiro trecho, a VMware indica que a memória configurada para uma máquina virtual conta para efeito de limitação;
  2. Entretanto, a restrição só é válida a partir do momento em que a máquina virtual é ligada. Isto permite a flexibilidade de ter um conjunto de máquinas virtuais cujos recursos combinados ultrapassem os limites, desde que todas as máquinas não sejam ligadas simultaneamente;
  3. No segundo trecho, a VMware indica que a limitação vale para o Pool, ou seja, para o conjunto de licenças, o que permite, por exemplo, ter hosts com diferentes capacidades de memória, e aproveitar a memória "sobrando" de um para compensar a "falta" no outro. Isto tem uma implicação importante na preservação dos investimentos dos clientes, pois os servidores já adquiridos com quantidade de memória inferior ao limite da licença podem ser "compensados" com a aquisição de novos servidores com maior quantidade de memória;
  4. Por fim, a VMware indica que o total de memória RAM consumida pelas máquinas virtuais deve ser menor ou igual ao limite da licença, o que conflita com a afirmação anterior, na medida em que consumida é diferente de configurada, especialmente se considerarmos os recursos de overcommitment da solução, que permitem compartilhar memória entre máquinas virtuais e utilizar menos recursos do que o configurado. Fica, portanto, a dúvida: vale a memória consumida ou configurada ?

Conclusão

Evidentemente, a medida tomada pela VMware deve desagradar bastante gente, mas isso é o mercado, e já vimos muitas outras empresas tomarem medidas semelhantes (não é, Microsoft ?) e causar o mesmo tipo de reação antes. Faz parte.

O que os clientes da VMware querem é entender claramente como a mudança impacta no seu ambiente, para se preparar adequadamente para o upgrade, ou avaliar a possibilidade de migrar para outra solução do mercado, conforme o caso.

Quero deixar aqui uma dica que acredito possa ser útil a quem pretender usar a nova versão da suite vSphere. Quando for adquirir servidores para virtualizar, faça a seguinte continha, bem simples: para cada processador, associe 24, 32 ou 48 GB de RAM, conforme a licença que possua ou pretenda comprar. Desta forma você garante que vai poder utilizar todos os recursos do equipamento. É claro que podem haver exceções, caso queira preservar os servidores atuais, por exemplo, ou expandir o ambiente em crescimento, mas esta lógica, acredito, é a forma mais simples de não errar ao licenciar a nova versão do VMware.

Estou à disposição caso queiram usar os comentários para opinar ou tirar dúvidas sobre o assunto.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

quarta-feira, 13 de julho de 2011

A "reformulação" da lei de Moore

Em mais um texto interessantíssimo, o Storage Mojo traz uma reflexão muito pertinente ao momento em que vivemos em termos de evolução computacional.

Ele mostra que, apesar de continuar valendo "ao pé da letra", ou seja, continua mantida a escrita de dobrar a quantidade de transistores num mesmo chip a cada 18 meses aproximadamente, mas isso não significa dobrar o desempenho do sistema. Não mais. Isto porque chegamos a um limite tecnológico no que diz respeito ao aumento na velocidade dos processadores. É fácil notar como a "corrida pelos gigahertz" deixou de ser assunto rotineiro na mídia especializada. Hoje o foco está em outros aspectos.

 

O Robin pontua ainda que 256 bits é o tamanho máximo de palavra/registrador utilizável de forma prática, e que aumentar o cache do processador também esbarra em limites que reduzem os ganhos de desempenho.

Assim, segundo ele, sendo possível colocar mais transistores, mas não sendo possível aumentar o clock do processador na mesma proporção, foi necessário pensar em outras possibilidades. E a mais natural delas foi aumentar a quantidade de processadores num chip, fazendo surgirem os multi-cores que já são commodity hoje. Problema resolvido, certo ? Errado!

A simples adição de mais núcleos não garante mais desempenho, por uma razão muito simples: as aplicações não estavam (e ainda não estão) preparadas para lidar com vários núcleos, exceto em casos específicos. Isso significa que, na prática, o ganho de desempenho que uma máquina com dois ou três núcleos oferece sobre uma "monocore" são relativamente reduzidos, e definitivamente não correspondem ao dobro ou triplo do desempenho, como seria desejável.

Diante deste cenário, observamos, segundo ele, uma mudança na estratégia comercial das empresas, que precisam vender seus produtos e que não podem mais usar o aumento de desempenho como chamariz, ao menos não como faziam antes. Assim, houve um deslocamento do foco para outras características, como consumo de energia, redução do tamanho dos equipamentos e do seu custo.

Entendo que é preciso investir nas aplicações, que devem fazer uso mais efetivo dos recursos de hardware abundantes que hoje dispomos. Pensar que temos hoje no smartphone a mesma capacidade de processamento e armazenamento que um computador de 2, 3 anos atrás, mas que as aplicações continuam limitadas e de certa forma "burras", é frustrante.

Os fornecedores lançam suas aplicações cada vez mais cedo, o conceito de aplicação "pronta" é cada vez mais relativo, e passamos de usuários a beta-testers sem perceber.

Do ponto de vista da infraestrutura, acredito que seja a área que tira maior proveito dos múltiplos núcleos, graças a tecnologias como virtualização e, mais recentemente, a nuvem, fazendo uso otimizado dos recursos de hardware e garantindo a otimização dos investimentos em hardware nas empresas.

Esta infraestrutura otimizada permite inclusive que empresas mantenham seu modus operandi, mantendo um modelo de desenvolvimento tradicional e retardando a mudança de paradigma necessária para criar aplicações mais eficientes e inteligentes no uso do hardware disponível atualmente.

Netbooks, tablets e smartphones ainda precisam de aplicações otimizadas para suas características, no meu entendimento. Sistemas operacionais, frameworks e aplicativos precisam evoluir para viabilizar uma experiência melhor de uso da tecnologia pelas pessoas.

E você, o que pensa de tudo isso ?

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

terça-feira, 12 de julho de 2011

Chegou o #VMware #vSphere 5!

Receba dicas imperdíveis:     
RSS E-Mail Icon Icon 

Chegou! A mais nova versão da melhor suite de virtualização do mercado acaba se sair do forno! E várias das características que já havíamos antecipado estão lá, incluindo as "super máquinas virtuais" e Storage DRS. Aproveite pra lembrar porque o hypervisor da VMware, o ESXi, é o melhor (ah, se eu fosse pago toda vez que elogio a VMware...).

O vSphere 5 traz uma série de novidades, e destaco alguns trechos do anúncio da VMware:
O que há de novo no vSphere 5

Hypervisor ESXi de última geração, que fornece desempenho e dimensionamento líderes do setor, estabelecendo um novo marco de eficiência de gerenciamento, confiabilidade e segurança.
"Super máquinas virtuais" com máquinas quatro vezes mais potentes para dimensionar e lidar com os aplicativos que mais consomem recursos; as máquinas virtuais agora podem ser dimensionadas para até 32 vCPUs e 1 TB de RAM.

Alta disponibilidade e recuperação de desastres simplificadas e mais abrangentes.

Gerenciamento inteligente de políticas dos recursos do data center para automatizar previamente o processo manual (p. ex.: implantação e aplicação de patches de hosts vSphere, distribuição dinâmica, balanceamento e perfis orientados por contratos de nível de serviço para armazenamento).

Gerenciamento flexível de nuvem híbrida a partir de um painel transparente único.

Suporte mais amplo do setor de provedores de software e hardware, incluindo mais de 1.400 parceiros ISVs (Independent Software Provider, fornecedor de software independente), que oferecem suporte à execução de mais de 2.500 aplicativos no vSphere.

O que há de novo no vShield 5

O vShield App with Data Security apresenta detecção dinâmica e classificação de informações comerciais confidenciais, reduzindo o risco de vazamento e roubo de dados. Mais de 80 templates são fornecidos para validar a conformidade com regulamentações do mundo todo, simplificando a identificação e a notificação de dados confidenciais.

Zonas de confiança adaptáveis com firewall de camada 2 para proteção contra detecção de senha, ataques por acesso não autorizado/envenenamento do DHCP (Dynamic Hot Configuration Protocol), falsificação do ARP (Address Resolution Protocol, protocolo de resolução de endereços) e muito mais.

Endereçamento IP flexível, incluindo a capacidade de usar o mesmo endereço IP em várias zonas de locação, para simplificação do provisionamento.

Firewall com suporte a aplicativos para aprimoramento da segurança, que abre sessões (portas) somente quando necessário para aplicativos comuns, como bancos de dados Oracle, Microsoft Exchange e Microsoft RPC (Remoter Procedure Call).

RBAC (controle de acesso baseado em função) para uma separação clara do fluxo de trabalho para a infraestrutura virtual e os administradores de segurança. O RBAC fornece flexibilidade ao delegar a administração entre pools de recursos e grupos de segurança, aumentando a segurança de aplicativos e dados.

vShield Bundle, que inclui o vShield Edge, vShield App com Data Security e vShield Endpoint em um único pacote de fácil organização.

O que há de novo no vCloud Director 1.5

Provisionamento rápido usando a tecnologia VMware Linked Clone, que agiliza significativamente o tempo de provisionamento e reduz os custos de armazenamento.
Suporte ao SQL Server e integração do Cisco Nexus 1000v para maior facilidade de integração com ambientes existentes.

Extensões personalizadas e uma API expandida do vCloud para integração do vCloud Director com os sistemas corporativos existentes (p. ex. CMDB, IPAM).

Integração com a VPN do vShield Edge para ativar a rede segura entre organizações isoladas por várias nuvens.

Internacionalizado para aceitação de caracteres estrangeiros e instalação em sistemas operacionais em seis idiomas.

O que há de novo no Site Recovery Manager 5

vSphere Replication: a primeira replicação baseada em hypervisor do setor fornece replicação econômica para implantações do Site Recovery Manager. O vSphere Replication está incluído em todas as edições do Site Recovery Manager sem custo adicional, e permite o uso de armazenamento heterogêneo entre os sites. O vSphere Replication simplifica a replicação, gerenciando-a diretamente por meio do vCenter Server em um nível de máquina virtual mais granular e flexível.

Migração planejada: execute migrações de rotina com recuperação consistente de aplicativos e sem perda de dados.

Failback automático: o Site Recovery Manager gerencia automaticamente a reversão da replicação e o failback para o site de produção original, a fim de simplificar as migrações de rotina.

Sequência de inicialização de máquina virtual mais flexível: o vCenter Site Recovery Manager agora oferece suporte a uma sequência de inicialização de máquina virtual muito mais flexível com mais níveis de prioridade e dependências de máquina virtual.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

Super disco #SSD, #AMD de volta à briga, #Microsoft quer grana da #Samsung

O boletim do Clube do Hardware traz algumas notícias interessantes, das quais destaco trechos abaixo. Tudo indica que a AMD está de volta na briga pelos processadores de ponta, e a Microsoft achou um caminho pra ganhar dinheiro com o Android.

Teste: Processador AMD FX-8130P

Nossos colegas do site donanimhaber.com tiveram acesso a uma amostra de engenharia do futuro processador AMD FX-8130P (baseado na arquitetura Bulldozer) e o submeteu a alguns testes. Resumindo: O AMD FX-8130P foi mais rápido do que o Core i7 2600K no 3Dmark 11 e no Cinebench R10, mas perdeu para o Core i7 990X. Comparado ao Phenom II X6 1100T, o AMD FX-8130P foi 50% mais rápido na maioria dos testes.

Ainda é cedo para afirmar qual é o processador mais rápido, mas com base nos dados apresentados o AMD FX-8130P é o vencedor, especialmente se ele chegar ao mercado norte-americano custando US$ 320 (o Core i7 2600K custa US$ 317 e o Core i7 990X custa US$ 999).

Para mais informações:
http://bit.ly/pQ9vbF

Microsoft quer US$ 15 por cada telefone Android da Samsung

A Microsoft quer que a Samsung pague US$ 15 por cada smartphone vendido baseado no sistema operacional Google Android, que segundo a empresa do Bill Gates, infringe algumas de suas patentes. A Samsung está negociando com a Microsoft e aceita pagar US$ 10 por aparelho vendido.

Saiba mais em:
http://reut.rs/oRTYvi

Fabricante lança unidades SSD para ambientes industriais

A Super Talent anunciou uma nova linha de unidades SSD especialmente desenvolvida para trabalha em condições extremas, tais como indústrias. As novas unidades DuraDrive AT3 foram desenvolvidas para suporta temperaturas entre -40°C e +85°C. Para você ter uma ideia, unidades SSD convencionais normalmente trabalham entre 0°C e 70°C.

As unidades DuraDrive AT3 da Super Talent são dispositivos de 2 ½”, estão disponível em capacidades de 32 GB, 64 GB, 128 GB e 256 GB, possuem chips de memória flash MLC, interface SATA-300, 128 MB de cache, e oferecem velocidades de leitura e escrita de até 250 MB/s e 170 MB/s, respectivamente. Informações sobre preço e disponibilidade não foram divulgadas.

Para mais informações:
http://bit.ly/nBjr0y

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

segunda-feira, 11 de julho de 2011

#FISL 12: Análise final

Pra finalizar á análise de palestras, relacionei algumas palestras que assisti parcialmente ou que não vale a pena fazer um post exclusivo.

From concepts do production at Google - Michael Hansellman

A maior decepção do evento deste ano. Passou a impressão de que o Michael estava lá por obrigação, meio que inventando o que falar. Isso me decepcionou muito, por duas razões principais: primeiro porque a palestra do Michael no FISL 9 sobre o Ganetti (que ele até citou, talvez tentando animar um pouco a coisa) foi muito legal, e segundo por ser uma palestra da Google, que faz tanta coisa com software livre, e poderia certamente ter encontrado um conteúdo mais interessante pra abordar.
A idéia era falar sobre o processo de desenvolvimento e implantação de soluções na Google, mas o Michael não trouxe nada de novo, falando de questões básicas como a necessidade de redundância, mas sem abordar como a Google faz a redundância, deixando aquela sensação de que das duas uma: ou ele não podia entrar em detalhes ou não havia se preparado direito pra palestra. Em qualquer hipótese, um erro grave. A palestra foi tão sem graça que terminou antes do previsto e ninguém fez pergunta. Google #fail, sem dúvida!

O formato ePub

O destaque da parte que assisti desta palestra foi o suporte a HTML5 na mais nova versão do formato, o que deve ampliar bastante os recursos de interação nos livros eletrônicos que estão por vir, e o comentário do palestrante de que o responsável pelo aumento do crescimento da venda de ebooks é o formato ePub, pois, segundo ele, os padrões proprietários tinham alcance limitado e trazem problemas aos usuários, como o caso dos livros apagados remotamente pela Amazon junto aos proprietários do Kindle. Aliás, o autor tem uma "birra" com o Kindle, que não suporta o formato ePub, e não citou este leitor na palestra, falando bem do Nook, da Barners and Noble, e de alguns outros que não me recordo.

UI Best Practices for Android

A palestra do Tim Bray, da Google, foi interessante porque mostrou diversas dicas sobre como construir interfaces bonitas e inteligentes em aplicações para android, destacando a importância de pensar nos smartphones mas também nos tablets, já que no futuro muito próximo as versões serão unificadas.

Ele destacou a importância de pensar no design da interface, perguntando algo mais ou menos assim (não foi exatamente essa a pergunta, mas a idéia é a mesma): "Você contrataria um pedreiro como programador ? Não ? Então por que você mesmo faz a interface das suas aplicações ?". E deu alguns exemplos de como fazer e como não fazer interfaces para aplicações no android.

Não consegui achar a apresentação dele, mas ele deixou um link com algumas referências.

Automatizando tarefas com puppet

Fui nesta palestra sem maiores pretensões, já que no ano passado assisti uma palestra semelhante. A palestra foi interessante, mas não acrescentou nada ao que já sabia. Infelizmente não consegui o contato dos palestrantes Ramon e Pedro, então não tenho como indicar outras fontes para maiores informações.

Debian Squeeze - dominação mundial

A palestra do Fernando Ikê (@fernandoike) tratou, pelo menos do que pude assistir, da evolução do processo de tradução do Debian, que já suporta a maior parte dos idiomas falados no mundo, com destaque (negativo) para o continente africano, talvez pelo fato de haver muitos dialetos na região.

Avaliação geral do evento

Apesar de algumas (poucas) decepções, o evento deste ano foi bem interessante. A conclusão que tiro após participar pela 4ª vez do evento é que, num evento deste porte, é impossível não haver falhas, mas também é impossível não encontrar algo de interessante.

São tantas oficinas, encontros de comunidades, stands de empresas, enfim, uma diversidade de eventos paralelos, como robótica livre e o Workshop de Software Livre, que não tem como não achar alguma coisa de útil e interessante.

Eu acho que todo profissional da área de TI deveria ter a possibilidade de participar, ao menos uma vez, de um evento como este, pois, como já falei pros colegas do trabalho, não é um evento de nicho, é um evento geral, sobre tecnologia, pois o software livre está em toda parte. É claro que há a restrição quanto a apresentações sobre softwares proprietários, mas isso não invalida o caráter genérico do evento, na minha opinião. Basta olhar as trilhas: desenvolvimento, banco de dados, administração de sistemas, cultura, filosofia...

Enfim, concluo a análise dizendo que sou muito grato por ter a oportunidade de participar de um evento deste porte, que este ano, considerado fraco em termos de público, contou com quase 7 mil inscritos, permitindo agregar a comunidade e mostrar o quanto o software livre pode ser útil especialmente num país "em desenvolvimento" como o Brasil. Quem dera tivéssemos um evento como este aqui na Bahia.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

quinta-feira, 7 de julho de 2011

#FISL 12: #cloud computing

Assisti a várias palestras sobre computação em nuvem, já resenhei algumas, e resolvi concentrar as demais num post só. Já estou cansado de tanto escrever sobre as mais de 30 palestras que assisti :(

Cloud AWS - Problemas complexos, soluções simples

A palestra so Sérgio A. Pohlman mostrou como montar (e quais cuidados tomar) para usar a nuvem da Amazon gratuitamente. Vamos aos pontos mais importantes.

  • Antes de mais nada, é necessário criar uma conta em aws.amazon.com;
    • Necessário fornecer dados de cartão de crédito!
  • Depois é possível criar uma instância para testes, e escolher a ferramenta com a qual deseja trabalhar para o gerenciamento da AMI (termo usado pela Amazon para instâncias, ou máquinas virtuais);
    • O gerenciamento pode ser feito pelo próprio site, através da AWS API ou do Elasticfox, uma extensão para Firefox.
  • AMIs gratuitas são identificadas com uma estrela, e é bom ficar atento pois a Amazon tenta induzir a escolher uma AMI paga;
  • Instâncias EC2 perdem as atualizações quando são desligadas, instâncias EBS não, por isso é interessante escolher instâncias cujos dados são armazenados no sistema EBS, e não EC2.
  • AMI gratuita, tipo Micro - até 2 ECUs, 1 core, 613 MB RAM. Deve atender para serviços simples, especialmente rodando Linux.
  • Criar um par de chaves para acesso à AMI via SSH;
  • Escolher ou criar grupo de segurança, que vai definir regras de acesso a serviços, funcionando como firewall;

Depois de apresentar o passo a passo para usar as AMIs da Amazon, o Sérgio apresentou scripts desenvolvidos para resolver o problema da mudança de IPs, já que é necesário pagar mais caro por um IP fixo, e assi eles desenvolveram um conjunto de scripts que identifica os IPs em uso atualmente nas instâncias e corrige as configurações das máquinas (servidores web, aplicação, BD, etc).

Web Services e Computação em Nuvem com PHP

 A palestra do Flávio Gomes Silva foi bem legal, especialmente pra mim que não conhecia nada do framework Zend.

Ele mostrou que o Zend tem API pronta pra maioria dos serviços web 2.0 (Delicious, EBay, Flickr, Slideshare, Twitter e muito mais), e tem também suporte às nuvens da Microsoft (Windows Azure) e Amazon, através de uma camada de abstração que possibilitaria a independência de fornecedor, permitindo, por exemplo, portar sua aplicação para outro provedor sem alterações no código.

Depois ele citou o phpfog, um serviço de hospedagem gratuita de php, que ele usou pra fazer testes.

Alta disponibilidade de servidores web com as facilidades da nuvem

 A palestra do Antônio Carlos Pina, da Tecla, mostrou como projetar uma solução de balanceamento de carga pra aplicações web prevendo a utilização de recursos na nuvem. Destaco as informações que julguei mais interessantes.

  • A nuvem permite escalar aplicações horizontalmente sob demanda, garantindo que não seja necessário alocar mais que o necessário prevendo momentos de pico, otimizando assim a alocação de recursos;
  • Ele pontuou o problema da preservação de sessão em aplicações web e BD quando se faz balanceamento Round Robin;
  • Há duas maneiras de implementar balanceamento
    • NAT - usando soluções como LVS/IPS e Ultramonkey
    • Usando soluções de proxy reverso, como HAProxy e Varnish

Finalmente, comentou sobre as empresas nacionais que provêem IaaS:

  • Locaweb - segundo ele, usava VMware e agora é Xen Cloud
  • UOL Host - era Xen Server, e estaria migrando pra VMvware
  • Tecla - usa Xen community

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: shellcodes

A palestra do Leandro Fernando (não consegui o contato dele) foi muito legal. O cara é uma figuraça, pernambucano (acho, pelo sotaque), muito engraçado e fez uma apresentação bem objetiva e informativa. Vamos às informações mais importantes.

  • Um shellcode é um código contido num exploit e que realiza o desejo do criador (criar usuário, alterar senha, criar regras de firewall, ligar webcam, etc).
    • Ou seja, quando um intruso quer atacar um alvo, ele precisa de um código que explore uma vulnerabilidade de um sofware que esteja rodando no sistema alvo. Este código é o exploit.
    • Dentro do exploit, tem o shellcode, que vai fazer, depois de explorada a vulnerabilidade, com o que o objetivo do intruso se realize, seja alterar a senha do root para ele ter acesso ao sistema, seja abrir uma porta através de um backdoor pra ele ter controle sobre o alvo remotamente, por exemplo.
    • Atualmente é chamado de payload, um termo mais abrangente mas que, segundo o palestrante, pode designar coisas que não são shellcodes.
  • Ele comentou que há o meio fácil de fazer shellcodes, que é através de ferramentas como o exploit-db, metasploit, shell-storm, e outras (ou pesquisar na web), e há o difícil, que é programar em assembly, fazendo manipulação de system calls, registradores e tudo mais. Ou ainda, escrever um código em C e usar um debugger pra analisar o código assembly.

Depois das explicações o Leandro demonstrou um shellcode que realiza uma chamada de uma system call, mostrou o código em assembly e discutiu alguns problemas inerentes ao desenvolvimento de shellcodes, como operações com valores nulos, e os malabarismos que são feitos para contornar algumas situações. O negócio não é nada simples!

Pra quem quiser mais informações sobre o assunto, encontrei este ótimo texto no blog 0xcd80 (criativo, hein ?).

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: #Hardening de servidores #Linux e #Backup com software livre

Resovi juntar neste post as duas palestras que assisti da Marta Vuelma. Os slides estão lá pra quem quiser conferir. Ela é bastante didática, e embora as palestras não tenham acrescentado muito ao que eu já sabia, foi interessante rever e revisar alguns conceitos.

A palestra sobre Hardening de servidores abordou os pontos importantes a considerar na segurança de um servidor, que listo a seguir.

  • Instalação - garantir que as fontes dos pacotes sejam confiáveis, e checar chave GPG.
  • Fazer imagem do sistema de arquivos para detectar alterações posteriores (rootkits, etc), checando com ferramentas como tripwire e aide. Nestes tempos de ataques pra todo lado, ferramentas desse tipo são essenciais. Já usei o aide e recomendo.
  • Logs remotos com rsyslog - mesmo que um intruso comprometa/apague os logs locais, você ainda terá informação pra analisar.
  • Checar serviços com nmap para verificar se não há nenhuma porta ativa indevidamente. Isso é básico, né pessoal ?
  • Organizar o sistema de arquivos de modo a restringir operações de gravação em pontos de montagem como /bin, /sbin, etc. Essa foi nova pra mim, nunca pensei nesse nível de segurança, mas é uma idéia bem interessante para sistemas mais visados. Vai dar mais trabalho na hora de atualizar, mas faz parte.
  • Checar arquivos SUID, SGID e sem dono. Isso também é básico, né ?
  • Utilizar ferramentas de conformidade como Bastille. Já testei ele e achei bem legal também.
  • Usar firewall, se possível de camada 7 (patch L7-filter para o netfilter). Firewall em cada servidor ? É segurança "de verdade".
  • Colocar serviços críticos "enjaulados" com chroot. Não lembro em que palestra vi que isso não será mais necessário na próxima versão do Debian ou Ubuntu. Vai ter algum recurso que vai ajudar nisso, mas não tô lembrando. Foi mal.
  • Monitorar login no servidor - incluir no .bashrc envio de e-mail automático a cada login do root. Achei esta sacada ótima, e já vou providenciar nos meus servidores. Dá pra pensar em várias outras idéias legais quando o root logar.
  • Utilizar ferramentas de monitoramento como Nagios, Shinken ou Zabbix. Mais um da série "Isso é básico, né ?".

A palestra sobre Backup citou ferramentas conhecidas, algumas bem velhinhas e outras nem tanto. Vamos a elas.

  • Dump - confesso, confesso. Vergonhosamente eu não conhecia esta ferramenta, que segundo ela é uma das mais antigas no mundo *nix. Faz backup de arquivos e até de devices, inclusive incremental, e preserva permissões, data/hora e dono.
  • rsync - a conhecida ferramenta de sincronização de pastas pode ser uma poderosa ferramenta de backup, especialmente no que se refere a desempenho, já que tem a capacidade de transferir apenas os dados modificados (eu disse dados, não arquivos).
  • Bacula - solução poderosíssima, de nível corporativo mesmo, traz uma série de conceitos importantes para a definição de uma política de backup, como jobs, volumes, mídias, agendas, etc. E ainda faz o gerenciamento da execução dos backups. Utilizamos esta solução há alguns anos e, apesar de alguns problemas, a ferramenta funciona bem. Recomendo.
  • A Marta citou ainda ferramentas como Amanda, Mondo Rescue, Star e algumas comerciais, mas sem dar detalhes.

Ela se concentrou no bacula, que é a solução que mais conhece, e destacou uma série de pontos positivos da solução: backup do Exchange 2003/2007, Expresso, Xen e VMware. Ela deu a entender que a ferramenta faz backup desses ambientes "a quente", mas preciso investigar melhor isso, pois nas conversas que tive com o Heitor Farias (especialista na solução) me pareceu que este suporte ainda não estaria disponível. De todo modo, não deixa de ser interessante saber que eles estão caminhando na direção de suportar as soluções de mercado.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: Globo.com - portais com software livre

A palestra do Igor Macaúbas (@igor), da Globo.com, foi muito legal, ele mostrou como utilizam diversas soluções baseadas em software livre, algumas desenvolvidas internamente, para suportar um dos maiores portais do país. Um número impressionante citado na palestra foi o volume de tráfego no período da transmissão da copa: incríveis 500 TB (TERABYTES) de dados!

Vamos às soluções usadas:

  • Globo.cms - CMS da Globo baseado em software livre, desenvolvido internamente e de contribuição aberta à comunidade, mas controlada, feita através de patches, para permitir testes mais rigorosos visando evitar impactos negativos no ambiente da Globo, já que se trata da solução que suporta sites como do Globo Esporte, Esporte Espetacular e diversos outros.
  • libby - biblioteca de componentes web (previsão do tempo, etc) que é utilizada nos muitos portais da Globo, e que também permite contribuições da comunidade e está hospedado no github.
  • mugshot - servidor de imagens simples, foi desenvolvido para resolver aquele problema de redimensionar imagens conforme a página a ser exibida, seja um thumbnail numa barra de ferramentas ou uma versão 1024x768 para colocar como papel de parede. Basta solicitar a imagem e informar o tamanho que o servidor providencia.
  • thumbor - um servidor de "smart imaging service",  faz crop, resize e flipping de imagens, detectando pontos importantes da imagem para evitar "cortes" indevidos (cortar a cabeça da Fátima Bernardes, por exemplo - foi um caso real citado pelo Igor). Também está no github.
  • nginx-push-stream - módulo desenvolvido para o servidor web nginx que permite atualizar a página sem F5, é usado na transmissão de jogos ao vivo no globoesporte.com.
  • splinter - ferramenta de teste de interfaces web, foi objeto de outra palestra. É um framework simples para testes de comportamento de interfaces web, e pode ser usado para automatizar operações via web. Foi usado por um dos desenvolvedores para votar na banda System of a Down "infinitamente" e conseguir que a banda viesse ao Rock in Rio 2011.

No final, o Igor mostrou alguns números: mais de 30 projetos de software livre nasceram na Globo, seus funcionários contribuem com mais de 100 projetos, e 30% dos desenvolvedores contribuem para algum projeto baseado em software livre.

Encontrei uma apresentação que, se não é a mesma, é muito parecida com a feita no FISL 12.

 

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: Zabbix API and Related Tools

A palestra do Takanori Suzuki, desenvolvedor de patches para o Zabbix e membro do grupo no Japão, mostrou que, desde a versão 1.8, é possível ter acesso a informações dos itens monitorados pelo Zabbix, hosts, alertas e muito mais a partir de outras aplicações, utilizando a API nativa do software.

Ele demonstrou o recurso através de uma ferramenta chamada zabcon, uma espécie de shell, que foi desenvolvida em ruby e permite coletar dados sobre o monitoramento com comandos simples como "get host" ou "get item".

Esta foi a parte da apresentação que vi, pois estava bem complicado entender o inglês do japa ;-)

Observando a apresentação dele que está disponível no slideshare (link no início do texto), notei que depois ele enveredou por uma série de operações mais avançadas, aparentemente utilizando a API através do curl (ainda vou fazer um post sobre este poderoso comando), simulando um navegador e fazendo chamadas JSON. Não me aventuro a explicar mais nada, pois não é a minha praia.

Como já mencionei antes, o Zabbix parece estar se consolidando como a principal ferramenta de monitoramento baseada em software livre, com recursos cada vez mais avançados e facilidades para o administrador.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

quarta-feira, 6 de julho de 2011

#FISL 12: Automatizando tarefas ao máximo com #expect

A palestra do Leandro Nunes (@nunesleandro, http://leandronunes.org) foi interessante, mais informativa que a do ano passado, quando me decepcionei. Não que desta vez não tenha me decepcionado, mas pelo menos o Leandro usou o tempo melhor, e falou um pouco mais do expect, embora *pra mim* ainda não tenha sido o suficiente. Ele poderia, por exemplo, ter mostrado um exemplo de código ocultando textos sensíveis como senhas, que por padrão são enviados em texto plano pelo expect.

Bom, mas vamos às informações importantes da palestra.

O Leandro mostrou a sequência básica spawn/expect/send, deixando claro que o uso da ferramenta é bastante simples. O spawn faz a execução do comando desejado, o expect aguarda por uma sequência de caracteres para acionar o send, que envia o texto desejado (comandos, senhas, etc). Abaixo segue o exemplo demonstrado na apresentação:

#!/bin/bash
spawn ssh localhost
set timeout 5
expect "% password:"
send "minha senha\r"
expect "%"
send "ls -lsa\r"
expect "%"
send "exit\r"
expect eof

O Leandro explicou ainda que o script pode ser iniciado com a linha "#!/usr/bin/expect" para acionar diretamente a execução sem a necessidade de acionar o expect na linha de comando. Nos testes que fiz foi necessário adicionar um parâmetro "-f" na linha indicada, de forma que o resultado seria "#!/usr/bin/expect -f". Assim é possível executar o script diretamente (./script).

Outra informação importante é o fato de que scripts para o expect devem ser feitos em TCL, portanto esqueça variáveis de ambiente como $1 para pegar parâmetros da linha de comando. É necessário utilizar a variável argv, através de comandos como "set user [lindex $argv 0]", o que faz com que o primeiro parâmetro indicado na linha de comando seja colocado na variável $user.

A apresentação está disponível no site do Leandro, mas para quem quer mais informação sobre o expect, recomendo uma olhada na Wikipedia, e para informações sobre como criptografar senhas para uso com o expect, este artigo pode ser útil.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

segunda-feira, 4 de julho de 2011

#FISL 12: Ensemble, o maestro dos teus servidores

Esta palestra foi uma das mais interessantes que vi no FISL deste ano. O ensemble promete ser o APT do futuro, lidando não com pacotes, mas com serviços. O Gustavo Niemier, da Canonical, é o desenvolvedor do projeto e foi o palestrante.

Ele começou falando sobre a evolução dos "pacotes":

  • No início, havia apenas o tarball;
  • Depois surgiu o conceito de dependência, que viabilizou os gerenciadores de pacotes deb e rpm, entre outros;
  • Mas a solução de dependências era manual, então vieram o apt, yum e outros para resolver as dependências automagicamente;

Depois ele mostrou uma pirâmide, onde havia, da base para o topo:

  • Edição manual de arquivos de configuração;
  • Execução remota distribuída - softwares como o fabric permitem realizar operações de configuração remotamente;
  • Gerenciadores de configuração - software como cfengine e puppet permitem gerenciar a configuração de diversos equipamentos de forma centralizada;
  • Plataformas - aqui se encontra o ensemble, que de acordo com o Gustavo, é algo novo, diferente de tudo que existe atualmente, podendo representar uma verdadeira revolução na forma como gerenciamos serviços.

Definição

O Gustavo definiu o Ensemble como uma "plataforma para controle de serviços com flexibilidade", que permitiria fazer deployment e gerência através da criação, configuração e acompanhamento do ciclo de vida do serviço (incluindo VMs necessárias).

Mudança de paradigma

Para o Gustavo, máquinas são efêmeras, serviços é que importam, e portanto devemos migrar das relações entre pacotes para relações entre serviços.

Funcionamento do ensemble

O ensemble vai estar disponível na próxima versão do Ubuntu nativamente (hoje podemos instalar via PPA), e espera-se uma versão "completa" para a próxima versão LTS. Ainda assim, as capacidades atuais do software já impressionam.

O funcionamento do software é baseado na definição de fórmulas, que contém metadados descrevendo os serviços, regras baseadas em eventos (hooks), e flexibilidade que permite que seja usada qualquer linguagem para especificar as operações para a instalação e operação do serviço e suas dependências. Estas fórmulas determinam as regras para instalação de serviços, bem como suas dependências.

A idéia é que, no futuro breve, as fórmulas estejam disponíveis em repositório (atualmente são locais), de forma que fique facilitada a utilização da ferramenta a a disponibilização de novas fórmulas pela comunidade.

Atualmente, o ensemble é compatível com ambientes baseados no padrão Amazon EC2. Isto significa que o software é capaz de interagir com a API da Amazon e criar VMs com os serviços necessários para disponibilizar o ambiente que se deseja. Segundo o Gustavo, isso vai funcionar também em ambientes Ubuntu não hospedados na Amazon, seja uma nuvem privada com Eucalyptus ou mesmo em ambientes "não-cloud". 

O Gustavo exibiu um vídeo que demonstra a capacidade da ferramenta, utilizando como exemplo a disponibilização de um blog wordpress. Para isso ele executou os seguintes passos:

  • ensemble bootstrap - cria uma instância (AMI/VM) de gerenciamento para controle do ensemble na nuvem da Amazon;
  • ensemble deploy wordpress - cria uma instância com o wordpress instalado;
  • ensemble deploy mysql - cria uma instância com o mysql instalado;
  • ensemble add-relation wordpress mysql - cria um relacionamento entre wordpress e mysql (o blog precisa de um banco);
  • É feito um acesso à instância do wordpress via web para demonstrar que o serviço está funcional.

A idéia é que, no futuro, não sejam necessários os passos do mysql, pois o ensemble identificaria automaticamente as dependências do wordpress e faria a instalação dos softwares adicionais necessários.

Estou ansioso para ver a próxima versão do Ubuntu, já que, como não tenho acesso à nuvem da Amazon, não tenho como testar a versão atual.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: #Firefox, navegadores modernos e o futuro da web

A palestra do Chris Hoffman, da Mozilla, foi bem interessante!

Ele começou comentando sobre a história do Mozilla Firefox, e lembrou que o Internet Explorer tinha 98% de market share quando Firefox foi lançado. Apesar disso, a raposa fez sucesso e foi determinante ao estabelecer o início de uma nova geração de navegadores.

O Chris comentou ainda a estagnação dos ambientes web depois do HTML e Javascript, e citou uma série de tecnologias que estão disponíveis ou em desenvolvimento atualmente (não consegui anotar todas, mas no site da Mozilla tem bastante coisa), citando CSS, HTML5, Open Video, e muitas outras.

Ele comentou ainda sobre algumas iniciativas da Google, como o arrastar e soltar dos mapas (antes era clicando em botões, e recarregava toda a página) e o uso de XMLHTTPRequest no GMail (vulgarmente conhecido como Ajax).

Falou ainda do novo ciclo de desenvolvimento do navegador, e dos "canais" Aurora e Beta, o primeiro destinado aos early adopters e o outro àqueles que querem um pouco mais de garantia de estabilidade, mesmo para um beta.

Fez também um contraponto, lembrando que em 2000 a preocupação era impedir a integração de um navegador ao S.O., e hoje não importa mais, pois o navegador se tornou a plataforma para execução de serviços web, independente das camadas inferiores da arquitetura de hardware e software.

Pontuou então que o software livre está ficando pra trás em relação à Apple e Google, cujas iniciativas (iCloud, GMail, etc) buscam o controle dos dados e do acesso à informação dos usuários. Uma excelente ferramenta de Data Mining, segundo ele.

Lembrou o programa do governo americano em 2001 que pretendia armazenar todos os dados dos usuários em servidores do governo, e que foi rechaçado com veemência à época. Hoje, segundo ele, o controle está travestido em logos bonitos (Google, Twitter, Facebook) e serviços que coletam dados, e ninguém se importa.

Uma frase muito legal que destaco: "O market share das empresas não devia ser medido pela quantidade de informações pessoais que elas detém".

Lembrou também frases de Eric Schmidt (Google): "Se há algo que ninguém pode saber, você não devia estar fazendo" (ou algo assim :), e de Mark Zuckerberg (Facebook), que disse que "em algum momento os usuários vão superar sua ansiedade por privacidade".

O Chris se posicionou contrário a este pensamento dizendo "Eu quero me comunicar com meus amigos, não com o Facebook", e completou: "sites não deveriam coletar mais informações do que o necessário".

Informou também que a Mozilla está preocupada em prover portabilidade de dados para os usuários, e destacou que o Firefox Sync criptografa seus dados antes de armazenar na nuvem. Disse também que um milhão de usuários configuraram a opção "Do not track" no Firefox 5, que faz com que o navegador inclua uma informação no cabeçalho HTTP indicando que o usuário não quer que suas informações sejam rastreadas. Infelizmente, é necessário que o sites levem em conta este cabeçalho.

Pra finalizar, destaco um slide da palestra que mostra o tamanho da comunidade do Mozilla Firefox. Impressionante!

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: novidades do #MySQL 5.5 e 5.6

A palestra do Davi Arnaut, engenheiro da Oracle, revelou algumas ferramentas bem interessantes, como o MySQL Cluster e o Workbench, e parece refletir uma tentativa da Oracle de mostrar que está comprometida com software livre (pelo menos o MySQL).

Ele começou mostrando as funcionalidades da versão atual, 5.5, e algumas da próxima versão, 5.6, com destaque para melhorias de desempenho (> 300% em relação à versão 5.1), disponibilidade e usabilidade. Recursos como replicação e clusterização agora funcionam muito melhor, e há mais estatísticas disponíveis para monitoramento.

Falou ainda sobre mudanças no time de desenvolvimento para aumentar a integração, e sobre o compromisso da Oracle em atender às reivindicações da comunidade, que, segundo ele, é quem direciona o desenvolvimento do produto.

Uma característica importante e destacada da versão 5.6 será a possibilidade de acessar o MySQL através de uma "interface" NoSQL. Segundo o Davi, os dados já são armazenados seguindo a lógica chave-valor, e ao disponibilizar este tipo de acesso o MySQL oferece o melhor dos dois mundos, pois não compromete as garantias ACID dos bancos de dados relacionais. E tudo isto pode ser combinado em cluster! Se o pessoal do NoSQL concorda, aí é uma outra história :)

Outra informação muito interessante foi sobre a ferramenta workbench, que eu particularmente não conhecia, mas que, segundo o Davi, oferece uma série de recursos de administração muito úteis, e pode ser estendida com plugins. Vou testar pra comprovar.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: SQL, NoSQL, NewSQL



Uma das palestras mais legais deste ano foi, sem dúvida, a do Alexandre Porcelli (@porcelli) sobre SQL, NoSQL e NewSQL.
Numa apresentação muito bem feita (visualmente), e com uma didática muito boa, ele explicou as principais características dos bancos NoSQL.
  • Armazenar dados pensando em facilitar a leitura e não em economizar espaço (desnormalização);
  • Armazenamento chave-valor;
  • Modelos
    • Família de colunas - Big Table da Google (hashmaps aninhados, garante maior escalabilidade);
    • Orientado a documento (JSON - sem esquema pré-definido, mais flexível) - finalmente aprendi o que é o tal de json!
    • Grafos - nós e relacionamentos, muito usado em redes sociais;
  • Consistêncai eventual - significa que o banco vai estar consistente em algum momento, e não que o mesmo fica inconsistente indefinidamente! A "janela de inconsistência", segundo ele, é geralmente em torno de 500 ms;
  • ACID x BASE - brincadeira com as garantias dos bancos tradicionais;
  • Dados em constante modificação - idéia de fluxo;
  • Armazenamento de dados em memória ao invés de disco
    • Garante a velocidade necessária no acesso para determinadas aplicações;
    • Replicação + distribuição para evitar SPOF e garantir durabilidade dos dados (ACID);
  • Fusão entre apps e dados - hoje há uma linha tênue, segundo ele, separando as aplicações dos dados que acessam;
    • Este cenário implica na mudança de perfil dos desenvolvedores - surge o devops (mistura de desenvolvedor e DBA);
  • ORM - mapeamento objeto-relacional (overhead) é um problema para grandes aplicações;

Como se pode observar a partir da comparação das duas imagens acima, o NewSQL é o resultado do aproveitamento do que há de melhor no mundo SQL e NoSQL. Seria esse o caminho que o MySQL estaria trilhando ? Vamos aguardar os acontecimentos.

Uma curiosidade que ele mencionou foi o fato de que o Twitter não previa uso de hashtags, e foi necessária uma mudança grande na aplicação para viabilizar seu uso, requerendo bastante flexibilidade e velocidade no acesso aos dados.

Outro ponto interessante foi a menção ao Drizzle, um fork do MySQL que o "transforma" num banco NoSQL.

Leitura recomendada (fonte de diversas informações da palestra): "The End of an Architectural Era" - Michael Stonebraker.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: libvirt, o canivete suiço da #virtualização

 

Em mais uma palestra interessantíssima deste ano, o Sérgio (http://cioban.cc/site/) mostrou a utilidade da libvirt, uma biblioteca de virtualização que pode facilitar muito a vida de quem gerencia ambientes virtualizados, especialmente de fornecedores distintos.

Ele começou a palestra falando sobre virtualização, conceitos básicos, classificação, onde destaco os exemplos de containers de virtualização, como FreeBSD Jails, User Mode Linux, OpenVZ e Virtuozzo.

Depois explicou o que é a libvirt, uma biblioteca em C que pode ser usada através do daemon libvirtd, com suporte a diversas linguagens e que suporta os principais hypervisors/containers do mercado (Xen, KVM, VMware, VirtualBox, QEmu, etc). Assim, esta biblioteca pode ser considerada uma camada de abstração para as diversas tecnologias e soluções de virtualização.

Citou então diversas ferramentas que fazem uso da libvirt: oVirt, virsh, virt-manager, abiCloud, Virt-P2V, Virttool.

 

E finalizou mostrando exemplos de código e indicando referências para começar a usar a biblioteca.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!

#FISL 12: gestão de conexões seguras com ssh

O pessoal da F13 (@f13tecnologia) fez uma apresentação interessante sobre a ferramenta F13-CN, desenvolvida para resolver um problema que eles tiveram, e que é comum a muitas empresas que fornecem suporte a ambientes Linux via ssh a diversos clientes.

A solução que permite acesso a máquinas remotas via proxy sem necessidade de conhecimento das senhas no destino, e é usada para controlar acesso de funcionários a máquinas de clientes.

A idéia é, através de um proxy ssh, intermediar as conexões aos servidores dos clientes, de forma que não haja acesso direto aos servidores destino, e eliminando a necessidade de conhecimento das senhas pelos técnicos que fazem o acesso. Desta forma, quando um funcionário é desligado, não é necessário "se desesperar" e correr para trocar as senhas de todos os clientes, especialmente se este funcionário estiver muito insatisfeito :)

A solução apresenta uma série de desafios, e há alguns problemas ainda não resolvidos, como a transferência de arquivos, que tem sido a maior queixa dos usuários do sistema. Ainda assim, a solução cumpre bem seu objetivo, segundo o pessoal da F13, de permitir um maoir controle sobre as conexões dos técnicos às máquinas dos clientes e permitir auditoria.

Tecnicamente, a solução é baseada no uso do comando screen, que permite estabelecer, desconectar e reconectar a sessões ssh remotas sem interromper o andamento das operações. Em torno do uso do screen, foi desenvolvida toda uma camada de gerenciamento e controle que viabiliza, entre outros recursos, acompanhamento em tempo real do que um técnico está fazendo num cliente, armazenamento de logs das ações para auditoria e definição de ACLs para determinar que técnicos têm acesso a que servidores.

Mais informações podem ser obtidas no site da F13.

Siga-nos no Twitter! ou Buzz
Receba os textos via e-mail ou RSS!
Confira outros textos sobre o tema!