Em tempos de crise energética, a solução para o futuro passa pela economia e a rapidez nos processos rodados nas máquinas do cybermundo. Uma das alternativas adota o conceito de computação verde, já em uso na UnB.
Não é difícil ficar impressionado com a capacidade de processamento dos computadores atuais. As máquinas de hoje em dia conseguem fazer milhares de operações por segundo, abrindo possibilidades de cálculo e comparações antes inimagináveis para o homem. Mas toda essa parafernália é responsável por um enorme consumo de energia elétrica. Para se ter uma ideia, os servidores do Google nos Estados Unidos respondem por 2% do gasto com eletricidade em todo o mundo. “O atual paradigma da computação é extremamente ineficiente. A computação precisa ser reinventada”, afirma o professor Reiner Hartenstein, da Universidade de Kaiserslautern, na Alemanha.
Reiner é considerado o pai da chamada computação verde, conceito que prega o uso de novos processos na engenharia de software para aumentar o desempenho e a economia de energia elétrica. Quase todos os computadores funcionam com base no modelo de von Neuman. John von Neumann foi um matemático húngaro que, por volta da década de 1940, unificou tudo o que se sabia até então sobre a computação.
Grosso modo, ele definiu um método, uma forma de organizar o funcionamento das máquinas que é usada até hoje. Segundo esse padrão, o computador deve rodar a partir de instruções, uma após a outra, desde o usuário até o processador. Só que esse caminho é longo, as instruções precisam passar por várias camadas de software até que cheguem ao núcleo do PC na linguagem que ele entende, a binária (1).
Essa lógica é demorada e dispendiosa. “As instruções têm que ser processadas no processador, mas elas estão na memória e tudo tem que ser feito passo a passo, sequencialmente”, detalha o professor Carlos Llanos, do Departamento de Engenharia Mecânica da Universidade de Brasília. Ele é um dos professores da UnB que aposta em uma tecnologia mais eficiente. O FPGA (Field Programmable Gate Array, na sigla em inglês) é um dispositivo de hardware programável. Esse tipo de placa, que existe no mercado desde 1984, permite que as instruções sejam inseridas diretamente no hardware, na parte física do computador.
DifusãoCom esse dispositivo programado para fazer determinadas tarefas, elimina-se a parte de mandar instruções, uma vez que essas já foram codificadas na placa. Se, por exemplo, nos atuais computadores, um comando gera 50% de dados e 50% de instruções, com o FPGA ficariam somente os 50% relativos aos dados, ou seja, o fluxo de informações seria reduzido pela metade e, consequentemente, haveria menos gasto com energia elétrica. Além disso, o processamento também ficaria mais rápido. Hartenstein acompanhou testes de placas FPGAs para rodar programas decodificadores de criptografia. A placa programável foi 28 mil vezes mais rápida do que um processador comum.
Mesmo diante de todas essas vantagens, o uso desse tipo de dispositivo ainda não está difundido entre profissionais e estudantes da área. “É um problema educativo, precisamos descobrir como fazer livros, treinar professores para que mostrem aos seus alunos as duas possibilidades: programar em sofware e em hardware (na FPGA)”, aponta o professor Carlos Llanos.
Na UnB, há uma série de projetos que utilizam as FPGAs, entre eles alguns de biocomputação (uso de máquinas para detecção de sequências de genoma) e de robótica. “Estamos agora dando um grito. Há uma crise energética aí, nós temos a solução, mas há o problema da mudança de paradigma. Mudar a cabeça das pessoas não é fácil”, observa o professor Llanos.
1 - Zeros e unsPara processar todos os elementos que precisa, a máquina usa uma linguagem muito simples, chamada de linguagem binária, representada por zeros e uns. O processador apenas mede a tensão, que varia entre 0 e 5 volts. Tudo que estiver mais perto de 0 é considerado 0, e tudo que estiver mais perto de 5 é considerado 1.
Carolina Vicentin
Correiobraziliense.com.br
Nenhum comentário:
Postar um comentário