Definição – o que significa o código de Hamming?
Um código de Hamming é um código linear para detecção de erros que pode detectar até dois erros de bit simultâneos e é capaz de corrigir erros de bit único. A comunicação confiável é garantida se a distância de transmissão entre o transmissor e o receptor for menor ou igual a um.
Definirtec explica o código de Hamming
O código de Hamming foi inventado por Richard Hamming em 1950. O método é útil para uma única mudança de bit, que é mais provável do que duas ou mais mudanças de bit.
A simplicidade dos códigos de Hamming os torna adequados para uso em memória de computador e correção de erro único. Eles usam uma variante de detecção de erro duplo chamada SECDED. Esses códigos têm uma distância de hamming mínima de três, onde o código detecta e corrige erros simples, enquanto os erros de bit duplo são detectados apenas se uma correção não for tentada. Adicionar um bit de paridade extra aumenta a distância mínima do código de Hamming para quatro, o que permite que o código detecte e corrija erros únicos enquanto detecta erros duplos.
Hamming inicialmente introduziu o código que incluía quatro bits de dados em sete bits, adicionando três bits de paridade. Ele pode ser facilmente estendido para código de oito e quatro bits adicionando um bit de paridade extra na parte superior da palavra codificada.