Ubuntu é a nova distro inovadora?

Sou usuário do Ubuntu Linux desde a versão de outubro de 2005 (5.10 Breezy Badger) e me identifiquei com ela desde o primeiro momento. É engraçado como até o famigerado tema marrom me agradava, pois sempre achei este tema (e todas suas seguintes atualizações) com bastante personalidade. Sou músico e sempre procuro ser uma pessoa criativa e admiro muito a criatividade e a inovação dos outros. E neste ponto sempre houve uma outra distro que me chama atenção que é o Fedora.

O Fedora trouxe diversas inovações para o mundo Linux. PackageKit, PolicyKit, DeviceKit e Plymouth são alguns exemplos de softwares que foram popularizados por ela. Claro que sempre houve inovação fora do Fedora, mas ela sempre foi conhecida por esta característica e seus usuários sempre foram pessoas que queriam estar na “crista da onda” da tecnologia Linux! Apesar de eu também ser um pouco assim, nunca me acostumei muito com ela.

No entanto, me parece que a distribuição da Canonical está mudando isto. Desde que seu fundador, Mark  Shuttleworth, pronunciou que estava contratando vários dos melhores técnicos disponíveis no mundo software livre para transformar o Ubuntu no desktop mais agradável existente, cada nova versão sua interface vem com uma inovação.

Começaram devagar, colocando o status de presença do chat junto com controle de sessão do sistema (já que ambos são relacionados a presença – um na web e outro no PC) e logo após com novas notificações, consistentes entre diferentes desktops (Gnome ou KDE) que parece ser  um detalhe, mas foi muito bem pensado e acabou sendo adotado por outras distros. Depois foi introduzido o “Software Center,” que traz uma forma muito mais agradável e intuitiva para instalar e remover programas no sistema (o que já era fácil, ficou mais ainda).

Na última versão da distribuição mostra uma forte integração com serviços sociais (Twitter, Facebook, mensagens instatâneas, como MSN etc) – algo que eu nunca havia visto antes. O KDE tem alguma coisa de serviços sociais, mas parece que se limitam aos gadgets de desktop (não vou afirmar, porque não uso)., quando no Ubuntu eles estão integrados à barra do sistema junto com outros recursos  afins. Além disso, o tema foi totalmente modificado e continua com bastante personalidade. Sim,  existem algumas semelhanças com o MacOS X, mas, num contexto geral, é um tema completamente diferente (e não há nada de errado em reutilizar boas ideias, né?:P ).

No entanto, algo que me deixou muito animado foi algo anunciado para a próxima versão: os “windicators” ou, numa tradução livre, “indicadores de janela”. Tentando explicar rápido, são indicadores parecidos com aqueles que normalmente ficam ao lado do relógio (isto é igual no Linux, Windows e MacOS X) que representam serviços do sistema (como rede ou áudio) ou programas que estão rodando em plano de fundo. A ideia da Canonical é estender este conceito para os aplicativos e trazer alguns destes indicadores para suas próprias janelas! Isto é uma grande inovação e que deve revolucionar os desktops. de todos os sistemas operacionais.

Antes de terminar, gostaria de deixar claro que este artigo é apenas minha visão do que está acontecendo no mundo Linux e espero não gerar flames (apesar de que comparar distribuições sempre acabam gerando isto). Então, por favor, se você discorda de algo (ou de tudo), não leve para o lado pessoal e faça seus comentários. Comentários construtivos são sempre bem vindos!

A rápida evolução do Dingux

Quando eu comprei o Dingoo, fiquei muito satisfeito com o aparelho, mas tinha plena ciência de suas fraquezas. Na época fiz uma pequena lista do que estava faltando e que eventualmente eu iria estudar para tentar consertar. O tempo passou, a comunidade foi implementando essas coisas e hoje me vi com apenas 1 item faltante na lista! Veja o que a comunidade já se encarregou de criar e consertar no Dingux (versão do Linux para o Dingoo), tornando o aparelho ainda melhor:

  1. Leitor de PDF (lançamento da versão final do Nupdf em 30/04/2010);
  2. Execução de música em plano de fundo (lançamento do port do MPD em 20/05/2010) [agora posso ler PDFs ouvindo música \o/];
  3. Funcionamento da saída para TV (lançamento da correção em 05/06/2010) [a saída de TV só funcionava no sistema nativo];

Além disso, algo que não era uma deficiência do Dingoo em si, mas que considerei sendo uma falha um pouco grave era a falta de uma documentação organizada em português. Muito material em nosso idioma se encontra no fórum Dingoo Brasil, mas um fórum não é exatamente o local mais apropriado para se criar uma base de conhecimento. Então criei uma tradução do DingooWiki para resolver isto (que também era algo presente na minha lista).

Mas o que ainda falta? O Dingoo não tem wi-fi, mas seria muito bom se ele pudesse acessar redes sem fio através de cartões de memória com tecnologia SDIO. Muita gente já pediu, mas os programadores que conhecem o kernel a fundo não vêem muita utilidade nisso e preferem investir tempo em outras coisas. No entanto eu acho que seria muito legal poder jogar online e até mesmo transformar o aparelho numa espécie de “internet tablet” em formato mini-game :) Bem, se até eu começar a me ambientar nos fontes do Dingux isto não estiver sido lançado, estará no topo da minha lista.

Viva o software livre!

WebM: Fim do impasse do HTML5?

Eis que na semana que começou com a perda de um grande ídolo, temos uma ótima notícia: a Google anuncia o lançamento de um codec de vídeos livre para ser utilizado na web! Este é um grande passo na direção de uma web mais aberta, portável e acessível.

Se você está pensando “tá, mas e o que isto tem a ver comigo?”, a reposta simples é TUDO! Isto irá afetar todas as pessoas que acessa a internet atualmente (o que significa quase todas as pessoas do mundo) e irei explicar o porquê agora.

Web2.0 e o Flash Player

Algum tempo atrás, criaram uma palavrinha para denotar uma mudança brusca que estava acontecendo na Internet. As pessoas não estavam apenas acessando web sites quase estáticos apenas para obter informação. Agora elas estavam interagindo através de redes sociais, criando conteúdo em blogs e fotologs, distribuindo e assistindo vídeos e músicas etc. Era a chegada de uma nova era na grande rede: a web2.0.

Todo este movimento veio puxado por sites como Orkut (aqui no Brasil), Blogger, YouTube, Flickr, dentre outros. No caso particular do YouTube, não havia meios de executar vídeos diretamente pelo navegador, a não ser apelando para o uso de plugins. Eles então escolheram o Adobe Flash Player como plataforma de execução de vídeos via streaming.

O Flash Player está presente na web desde o seus primórdios. Mas com a web2.0 ele (antes restrito a banners em sites, pequenas animações ou àqueles pesados sites ricos em recursos gráficos e navegação precária) passou a ser peça fundamental para a distribuição de conteúdo multimídia. Mas isto se tornou um grande problema para o avanço da web por alguns motivos:

  1. É proprietário e suas melhorias são dependentes da vontade da Adobe – alguns grupos tentaram criar implementações livres do plugin, mas elas nunca chegaram ao ponto de poderem substituir o original;
  2. Sites como YouTube não funcionavam bem em plataformas pouco suportadas pelo software (como Linux antigamente) e ninguém podia melhorar isto além da Adobe (problema acima);
  3. Aparelhos móveis, como smartphones, tiveram têm problemas para suportar a tecnologia e com o consumo de bateria (Steve Jobs, da Apple, falou sobre isto há pouco tempo);
  4. Problemas comerciais com empresas que não querem ficar dependentes da Adobe (Steve Jobs também falou sobre isto).

HTML5 e o impasse

Foi então que a W3C, consórcio de empresas que criam e mantém os padrões abertos que todos seguem (menos a Microsoft no Internet Explorer…) para que a web seja aberta e interoperável, percebeu que era hora dos padrões evoluírem para acompanhar toda esta mudança. O carro chefe desta mudança seria a atualização do principal padrão utilizado para criar websites: o HTML. Com a versão 5, o sites poderiam utilizar vários recursos avançados, como por exemplo execução de áudio e vídeo, direto no navegador sem depender de plugins externos (saiba mais sobre HTML5).

Tudo estava muito bom até que se chegou na discussão do codec de vídeo a ser padronizado. De um lado Ogg Theora: livre e gratuito para qualquer tipo de uso, mas pouco difundido e com possíveis problemas de patentes. Do outro o H.264: proprietário e pago, mas amplamente utilizado (inclusive dentro do Flash), suportado por hardware (o que torna mais rápido e com baixo consumo de recursos) e tecnicamente (ou teoricamente) melhor. Empresas proprietárias, como Microsoft e Apple, defendendo o H.264. Empresas e fundações pró-software livre, como Mozilla e FSF, defendendo o Theora. Google em cima do muro suportando ambos no seu navegador Chrome.

Então a FSF teve uma ótima ideia e publicou uma carta aberta à Google, pedindo que ela abrisse o código do VP8: um codec que, após uma aquisição, havia se tornado de sua propriedade. Este seria um candidato perfeito para acabar com a discussão já que ele não teria problemas de patentes e seria tecnicamente melhor que o H.264.

WebM: em rumo à “open web

Chegamos no presente e no anúncio do qual mencionei no início do post. O WebM utiliza para codificação de vídeo justamente o VP8 (conforme pedido pela FSF) e realmente acho que o impasse dos codecs chegará ao fim, já que a Microsoft já anunciou que suportará o WebM e acho que a Apple não vai muito à frente sozinha.

Espero que eu tenha conseguido mostrar como este anúncio é um grande passo na direção certa e como isto abrirá as portas para uma web com vídeo de alta qualidade, alto desempenho e utilizando padrões totalmente abertos, sem restrições de uso etc.

PS: Você pode fazer sua parte em favor de uma web mais aberta utilizando navegadores que sejam aderentes aos padrões internacionais da W3C, como o Firefox, Google Chrome, Opera e Safari. Dizem que o Internet Explorer 8 está totalmente aderente, mas não tenho certeza (o IE6 e 7 com certeza não são). De qualquer modo eu recomendo o Firefox ou o Chrome, por serem softwares livres.

Publicação da minha biografia musical

Semana passada tive uma ideia da qual comecei a implementar e publico hoje aqui blog. Trata-se de uma biografia musical resumida – uma linha do tempo de tudo que já fiz relacionado a música: todas as bandas, com áudio, filmagens e fotos, para ficar o mais ilustrativo possível. Algumas coisas estão faltando, mas ela ficará disponível permanentemente numa aba ali em cima e será sempre atualizada a partir de agora.

Bem, acho que isto será mais interessante para quem me conhece, já que não sou famoso nem tenho fãs (além da família :P), mas que sirva como um registro pessoal  de duas das minhas grandes paixões: música e bateria.

Abraços para todos!

Relato: Cloud Computing Brazil 2010

Ontem aconteceu no Rio de Janeiro o primeiro evento sobre cloud computing do Brasil (possivelmente até da América Latina): o Cloud Computing Brazil 2010. O evento contou com grandes nomes de empresas e universidades que vêm trabalhando e pesquisando sobre este novo hype. Além disso, durante o evento também ocorreu o primeiro Cloud Camp da América Latina.

Após as apresentações iniciais, tivemos a palestra de Luis Cláudio Tujal, gerente de tecnologia do SERPRO. Ele está comandando um grande projeto de criação de uma “nuvem computacional” no governo. Sua palestra foi uma ótima explicação do que é a tecnologia, apresentando os conceitos e diferentes tipos cloud computing. Acredito que tenha deixadotodos os presentes satisfeitos! Para mim ficou aquele gostinho de quero mais sobre os detalhes técnicos do projeto da “nuvem governamental”, mas ele tinha que dar espaço para os outros palestrantes :)

Em seguida, tivemos duas palestras de fornecedores de soluções para cloud computing: primeiro dos brasileiros da Tecla Informática e depois dos canadenses da Enomaly. Apesar da certeza no alto conhecimento técnico dos palestrantes, principalmente do Reuven Cohen da Enomaly, suas palestras focaram apenas no básico, que já havia sido explicado anteriormente, e acabaram não falando nada sobre suas experiências práticas com a tecnologia.

À tarde, participei do Cloud Camp e não assisti nenhuma das palestras. O Cloud Camp é uma “desconferência” (unconference) – um evento sem um conteúdo programático pré-definido onde quem o define são os próprios participantes. O objetivo deste tipo de espaço é promover a troca de conhecimentos em assuntos de interesse dos presentes e não dos organizadores.

O motivo da minha preferência pelo Cloud Camp ao invés das palestras do evento  principal foi unicamente profissional para conhecer melhor os novos bancos de dados (categorizados popularmente como NoSQL), pois acho que eles têm bastante futuro no meu trabalho. No entanto, um evento com foco em troca de experiências deve contar com pessoas experientes, e poucos dos presentes realmente tinham vivência neste campo. Mesmo assim, valeu para pegar a experiência de desenvolvimento do organizador, Dave Nielsen, e de um participante que trabalha com pesquisa de genoma que contou um pouco de sua experiência (parcialmente bem sucedida) com o Hadoop.

Num balanço final, acho que o evento foi bastante positivo! Ele foi um marco tanto para a disseminação de cloud computing quanto na realização de eventos no estilo “desconferência” no Brasil (até onde sei o Cloud Camp foi o primeiro). Nele vi que o Brasil ainda tem muito pouca experiência no assunto e ele, certamente, ajudará na difusão da tecnologia. Apesar da falta de conteúdo mais prático, foi muito bom conhecer melhor o que está acontecendo no Brasil, principalmente as intenções do governo em utilizar a computação em nuvem para economia de recursos públicos e prestar melhores serviços à população. O Cloud Camp foi uma ótima experiência e acho que num futuro próximo, quando as pessoas começarão a ter mais vivência com as “nuvens”, terão um ótimo momento para trocar cada vez mais experiências!

PS: O artigo foi atualizado, pois anteriormente falava apenas que o Cloud Camp foi o primeiro do Brasil.