Um processador, também conhecido como unidade central de processamento (CPU), é o cérebro de um computador. É responsável pela execução de instruções e pela realização de operações aritméticas e lógicas. A estrutura interna de um processador pode ser dividida em três blocos principais: a unidade de controlo, a unidade lógica aritmética e a cache.
A unidade de controlo é responsável por controlar o fluxo de dados e instruções no processador. Vai buscar instruções à memória, descodifica-as e executa-as enviando sinais para a unidade de lógica aritmética. A unidade de controlo também gere o fluxo de dados entre o processador e outros componentes do computador, como os dispositivos de entrada/saída.
A unidade lógica aritmética, ou ALU, é responsável pela execução de operações aritméticas e lógicas. Recebe dados da unidade de controlo e efectua operações como a adição, a subtracção, a multiplicação e a divisão. A UAL também efectua operações lógicas como AND, OR e NOT, que são utilizadas na tomada de decisões e em declarações condicionais.
A cache é uma pequena quantidade de memória que se encontra no interior do processador. É utilizada para armazenar dados e instruções frequentemente acedidos, que podem ser acedidos mais rapidamente do que se estivessem armazenados na memória principal. A cache funciona como uma memória intermédia entre o processador e a memória principal, reduzindo o tempo que o processador demora a aceder aos dados e às instruções.
A segunda geração de computadores, que surgiu na década de 1950, caracterizou-se pela utilização de transístores em vez de tubos de vácuo. Os transístores permitiram a criação de computadores mais pequenos e mais fiáveis e levaram também ao desenvolvimento da arquitectura von Neumann. Esta arquitectura, que recebeu o nome do cientista informático John von Neumann, baseia-se na ideia de armazenar dados e instruções na mesma memória. Isto permitiu um processamento mais rápido e eficiente, uma vez que o processador podia aceder aos dados e às instruções a partir do mesmo local.
A arquitectura von Neumann também permitiu o desenvolvimento de linguagens de programação de alto nível, o que facilitou aos programadores a escrita de código para computadores. Esta arquitectura continua a ser utilizada actualmente e constitui a base da maioria dos computadores modernos.
A arquitectura Scratch, por outro lado, refere-se a um tipo de arquitectura de processador em que as instruções são executadas sequencialmente, uma após a outra. Este tipo de arquitectura é menos comum do que a arquitectura von Neumann e é normalmente utilizado em aplicações especializadas, como os microcontroladores.
A Lei de Moore, que estabelece que o número de transístores num microchip duplica de dois em dois anos, tem sido uma força motriz por detrás do desenvolvimento de processadores mais rápidos e mais potentes. No entanto, a Lei de Moore tem limitações, uma vez que se torna cada vez mais difícil e dispendioso colocar mais transístores num microchip. Este facto levou a que se procurassem arquitecturas alternativas, como o processamento paralelo, para continuar a melhorar o desempenho dos processadores.
CISC, ou computação de conjunto de instruções complexas, é um tipo de arquitectura de processador em que uma única instrução pode efectuar múltiplas operações. Este tipo de arquitectura é utilizado em muitos processadores modernos e é conhecido pela sua capacidade de executar rapidamente operações complexas. No entanto, os processadores CISC podem ser mais difíceis de conceber e optimizar do que as arquitecturas mais simples, como a RISC (reduced instruction set computing).
As pessoas também perguntam se os seguintes elementos fazem parte da descrição de von Neumann da arquitectura dos computadores. Sim, os três blocos que constituem a estrutura interna de qualquer processador fazem parte da descrição da arquitectura de computadores de von Neumann. A arquitectura de von Neumann é constituída por uma unidade central de processamento (CPU), memória e dispositivos de entrada/saída (E/S). A CPU é responsável pela execução das instruções armazenadas na memória, enquanto os dispositivos de E/S permitem que o computador interaja com o mundo exterior.
A Lei de Moore tem sido muito importante para a Intel, pois ajudou a empresa a manter sua liderança na indústria de semicondutores, impulsionando o desenvolvimento de processadores menores, mais rápidos e mais eficientes em termos de energia. A lei, que estabelece que o número de transístores num microchip duplica a cada 18-24 meses, permitiu à Intel acompanhar a crescente procura de capacidade de computação e de funcionalidades melhoradas nos dispositivos electrónicos. No entanto, à medida que se aproximam as limitações físicas do escalonamento dos transístores, a Intel e outras empresas de semicondutores estão a explorar novas tecnologias e estratégias para continuar a melhorar o desempenho dos processadores.