Laptops, celulares e tablets ficam mais baratos, elegantes e potentes a cada ano, enquanto a vida útil da bateria continua aumentando. Você já se perguntou por que isso acontece e se os dispositivos podem continuar melhorando para sempre?
A resposta à primeira pergunta é explicada por três leis descobertas pelos pesquisadores, conhecidas como Lei de Moore, escala de Dennard e Lei de Koomey. Continue lendo para entender o impacto dessas leis na computação e aonde elas podem nos levar no futuro.
O que é a Lei de Moore?
Se você é um leitor regular do MakeUseOf, provavelmente conhece a mítica Lei de Moore.
O CEO e cofundador da Intel, Gordon Moore, o apresentou pela primeira vez em 1965.
Ele previu que o número de transistores em um chip dobraria aproximadamente a cada dois anos e se tornaria entre 20 e 30 por cento mais barato de ser produzido anualmente. O primeiro processador da Intel foi lançado em 1971 com 2.250 transistores e uma área de 12 mm2. As CPUs de hoje possuem centenas de milhões de transistores por milímetro quadrado.
Embora tenha começado como uma previsão, a indústria também adotou a Lei de Moore como um roteiro. Durante cinco décadas, a previsibilidade da lei permitiu às empresas formular estratégias de longo prazo, sabendo que, mesmo que seus projetos fossem impossíveis na fase de planejamento, a Lei de Moore entregaria as mercadorias no momento apropriado momento.
Isso teve um efeito indireto em muitas áreas, desde os gráficos cada vez melhores dos jogos até o número cada vez maior de megapixels em câmeras digitais.
No entanto, a lei tem prazo de validade e a taxa de progresso está diminuindo. Embora os fabricantes de chips continuem a encontrar novas maneiras de contornar os limites dos chips de silício, O próprio Moore acredita que não funcionará mais até o final desta década. Mas, não será a primeira lei da tecnologia a desaparecer.
A Lei de Moore ditou o ritmo do desenvolvimento tecnológico por décadas. Mas o que acontece quando seus limites físicos são atingidos?
O que aconteceu com o Dennard Scaling?
Em 1974, o pesquisador da IBM Robert Dennard observou que, conforme os transistores encolhem, seu uso de energia permanece proporcional à sua área.
O dimensionamento de Dennard, como ficou conhecido, significava que a área do transistor era reduzida em 50% a cada 18 meses, levando a um aumento na velocidade do clock de 40%, mas com o mesmo nível de consumo de energia.
Em outras palavras, o número de cálculos por watt aumentaria a uma taxa exponencial, mas confiável, e os transistores ficariam mais rápidos, mais baratos e consumiriam menos energia.
Na era do dimensionamento de Dennard, melhorar o desempenho costumava ser um processo previsível para os fabricantes de chips. Eles apenas adicionaram mais transistores às CPUs e aumentaram as frequências de clock.
Isso também era fácil de entender para o consumidor: um processador rodando a 3,0 GHz era mais rápido do que um rodando a 2,0 GHz, e os processadores ficavam cada vez mais rápidos. De fato, o International Technology Roadmap for Semiconductors (ITRS), uma vez que as taxas de clock previstas atingiriam 12 GHz em 2013!
Ainda hoje, os melhores processadores do mercado têm uma frequência básica de apenas 4,1 GHz. O que aconteceu?
O fim da escala de Dennard
A velocidade do relógio ficou presa na lama por volta de 2004, quando as reduções no uso de energia pararam de acompanhar a taxa de encolhimento dos transistores.
Os transistores ficaram muito pequenos e a corrente elétrica começou a vazar, causando superaquecimento e altas temperaturas, levando a erros e danos ao equipamento. Essa é uma das razões por que o seu chip de computador tem um dissipador de calor. Dennard Scaling atingiu limites ditados pelas leis da física.
Mais núcleos, mais problemas
Com clientes e setores inteiros acostumados a melhorias contínuas de velocidade, os fabricantes de chips precisavam de uma solução. Então, eles começaram a adicionar núcleos aos processadores como uma forma de continuar aumentando o desempenho.
No entanto, vários núcleos não são tão eficazes quanto simplesmente aumentar a velocidade do clock em unidades de núcleo único. A maioria dos softwares não tira proveito do multiprocessamento. O cache de memória e o consumo de energia são gargalos adicionais.
A mudança para chips multicore também anunciou a chegada do silício escuro.
A Idade das Trevas do Silício
Logo ficou claro que, se muitos núcleos forem usados simultaneamente, a corrente elétrica pode vazar, ressuscitando o problema de superaquecimento que matou o dimensionamento de Dennard em chips de núcleo único.
O resultado são processadores multicore que não podem usar todos os seus núcleos de uma vez. Quanto mais núcleos você adiciona, mais transistores de um chip precisam ser desligados ou desacelerados, em um processo conhecido como "silício escuro".
Portanto, embora a Lei de Moore continue a permitir que mais transistores caibam em um chip, o silício escuro está corroendo o espaço da CPU. Portanto, adicionar mais núcleos torna-se inútil, pois você não pode usar todos eles ao mesmo tempo.
Sustentar a Lei de Moore usando múltiplos núcleos parece ser um beco sem saída.
Como a lei de Moore poderia continuar
Uma solução é melhorar o multiprocessamento de software. Java, C ++ e outras linguagens projetadas para núcleos únicos darão lugar a outras como Go, que são melhores na execução simultânea.
Outra opção é aumentar o uso de FPGAs (field-programmable gate arrays), um tipo de processador personalizável que pode ser reconfigurado para tarefas específicas após a compra. Por exemplo, um FPGA pode ser otimizado por um cliente para lidar com vídeo enquanto ou pode ser especialmente adaptado para executar aplicativos de inteligência artificial.
A construção de transistores com diferentes materiais, como o grafeno, é outra área que está sendo investigada para extrair mais vida da previsão de Moore. E, no futuro, a computação quântica pode mudar o jogo por completo.
O futuro pertence à lei de Koomey
Em 2011, o professor Jonathan Koomey mostrou que a eficiência de energia de pico de saída (a eficiência de um processador rodando em velocidade máxima) ecoou a trajetória de energia de processamento descrita pela Lei de Moore.
A Lei de Koomey observou que, das bestas de tubo de vácuo da década de 1940 aos laptops da década de 1990, os cálculos por joule de energia dobraram de forma confiável a cada 1,57 anos. Em outras palavras, a bateria usada por uma determinada tarefa diminuía pela metade a cada 19 meses, resultando na energia necessária para um cálculo específico caindo por um fator de 100 a cada década.
Embora a Lei de Moore e a escala de Dennard fossem extremamente importantes em um mundo de desktops e laptops, a maneira como usamos processadores mudou tanto que a eficiência energética prometida pela Lei de Koomey é provavelmente mais relevante para vocês.
Sua vida de computação provavelmente está dividida entre muitos dispositivos: laptops, celulares, tablets e dispositivos diversos. Nesta era de proliferar a computação, a vida útil da bateria e o desempenho por watt estão se tornando mais importantes do que extrair mais GHz de nossos processadores de muitos núcleos.
Da mesma forma, com mais de nosso processamento terceirizado para enormes centros de dados de computação em nuvem, as implicações do custo de energia da Lei de Koomey são de grande interesse para os gigantes da tecnologia.
No entanto, desde 2000, a duplicação da eficiência energética em toda a indústria descrita pela Lei de Koomey diminuiu devido ao fim do dimensionamento de Dennard e à desaceleração da Lei de Moore. A Lei de Koomey agora oferece a cada 2,6 anos e, ao longo de uma década, a eficiência energética aumenta por um fator de apenas 16, em vez de 100.
Pode ser prematuro dizer que a Lei de Koomey já está seguindo a de Dennard e Moore rumo ao pôr do sol. Em 2020, a AMD relatou que a eficiência energética de seu processador AMD Ryzen 7 4800H aumentou por um fator de 31.7 em comparação com suas CPUs de 2014, dando à Lei de Koomey um impulso substancial e oportuno.
Relacionado: O novo chip M1 da Apple é uma virada de jogo: tudo o que você precisa saber
Redefinindo a eficiência para estender a lei de Koomey
A eficiência de energia de saída de pico é apenas uma forma de avaliar a eficiência da computação e que agora pode estar desatualizada.
Essa métrica fazia mais sentido nas últimas décadas, quando os computadores eram recursos escassos e caros que tendiam a ser levados ao limite por usuários e aplicativos.
Agora, a maioria dos processadores funciona com desempenho máximo por apenas uma pequena parte de suas vidas, durante a execução de um videogame, por exemplo. Outras tarefas, como verificar mensagens ou navegar na web, requerem muito menos energia. Como tal, a eficiência energética média está se tornando o foco.
Koomey calculou esta "eficiência de uso típico" dividindo o número de operações realizadas por ano por a energia total usada e argumenta que deve substituir o padrão de "eficiência de uso de pico" usado em seu original formulação.
Embora a análise ainda deva ser publicada, entre 2008 e 2020, a eficiência de uso típico deve ter dobrou a cada 1,5 anos ou mais, retornando a Lei de Koomey à taxa ideal vista quando a Lei de Moore estava em seu melhor.
Uma implicação da Lei de Koomey é que os dispositivos continuarão a reduzir em tamanho e se tornarão menos intensivos em energia. Processadores encolhidos - mas ainda de alta velocidade - podem em breve ficar com tanta energia que serão capazes de desenhar sua energia diretamente do ambiente, como calor de fundo, luz, movimento e outros origens.
Esses dispositivos de processamento onipresentes têm o potencial de inaugurar a verdadeira era da Internet das Coisas (IoT) e fazer seu smartphone parecer tão antiquado quanto os gigantes com tubos a vácuo da década de 1940.
No entanto, conforme os cientistas e engenheiros descobrem e implementam mais e mais novas técnicas para otimizar a "eficiência de uso típico", essa parte do uso total de energia de um computador tende a cair tanto que, em níveis de uso típico, apenas a saída de pico será significativa o suficiente para medir.
O uso de pico de produção se tornará o padrão para a análise de eficiência energética mais uma vez. Nesse cenário, a Lei de Koomey acabará encontrando as mesmas leis da física que estão desacelerando a Lei de Moore.
Essas leis da física, que incluem a segunda lei da termodinâmica, significam que a Lei de Koomey terminará por volta de 2048.
A computação quântica mudará tudo
A boa notícia é que, a essa altura, a computação quântica deve estar bem desenvolvida, com transistores baseados em átomos individuais comum, e uma nova geração de pesquisadores terá que descobrir todo um outro conjunto de leis para prever o futuro de Informática.
Se você está montando um PC para jogos e está dividido entre as CPUs AMD e Intel, é hora de aprender qual processador é melhor para o seu equipamento de jogos.
- Tecnologia Explicada
- CPU
- Intel
- Processador AMD
- lei de Moore

Joe McCrossan é um escritor freelance, solucionador de problemas de tecnologia voluntário e reparador de bicicletas amador. Ele gosta de Linux, código aberto e todos os tipos de inovação mágica.
Assine a nossa newsletter
Junte-se ao nosso boletim informativo para dicas de tecnologia, análises, e-books grátis e ofertas exclusivas!
Mais um passo…!
Confirme o seu endereço de e-mail no e-mail que acabamos de enviar.