Definição – O que significa Gigabit (Gb)?
Gigabit (Gb) é uma unidade de medição de dados aplicada a taxas de transferência de dados digitais (DTR) e velocidades de download. Um Gb é igual a um bilhão (1,000,000,000 ou 109) de bits.
O Sistema Internacional de Unidades (SI) define o prefixo giga como um multiplicador 109 para armazenamento de dados, ou um bilhão (1,000,000,000) de bits. O prefixo giga binário representa 1,073,741,824 (10243 ou 230) bits. O SI e o diferencial binário são de aproximadamente 4.86 por cento.
Definirtec explica Gigabit (Gb)
As unidades de processamento central (CPU) são construídas com instruções de controle de dados para bits – a menor unidade de medição de dados. Os bits são dígitos binários magnetizados e polarizados que representam os dados digitais armazenados na memória de acesso aleatório (RAM) ou na memória somente leitura (ROM). Um bit é medido em segundos e caracterizado por valores de alta tensão 0 (ligado) ou 1 (desligado).
A maioria das redes aplica a versão SI do Gb ao medir as velocidades do modem, FireWire ou Universal Serial Bus (USB), enquanto a versão binária do Gb raramente se refere à velocidade DTR e mede a RAM e o cabo de fibra óptica. Grupos de software e sistemas de arquivamento geralmente combinam unidades binárias e unidades SI Gb de acordo com os requisitos.
Em 2000, o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) incorporou a aprovação formal da International Electrotechnical Commission (IEC) aos prefixos métricos do SI (por exemplo, MB como um milhão de bytes e KB como mil bytes). Os termos métricos recém-adicionados incluem:
- Kibibyte (KiB) é igual a 1,024 bytes.
- Mebibyte (MiB) é igual a 1,048,576 bytes.
- Gibibytes (GiB) equivalem a 1,073,741,824 bytes.