Definição – o que significa granularidade?
Na ciência da computação, granularidade se refere a uma proporção de computação para comunicação – e também, no sentido clássico, para a divisão de tarefas holísticas maiores em tarefas menores e delegadas com mais precisão. A granularidade pode informar as práticas de desenvolvimento e direcionar o design para tecnologias, chamando a atenção para como as tarefas de computação funcionam no contexto de um projeto inteiro.
Definirtec explica granularidade
Os especialistas falam sobre como a “granularidade mais fina” resulta em pequenas tarefas com tamanhos de código menores e tempos de execução mais rápidos. O programador profissional George Moromisato no Quora fala sobre granularidade como “a capacidade de manipular, exibir ou especificar peças pequenas e discretas em oposição a grandes grupos”, usando o exemplo de software de firewall que visaria endereços IP individuais em vez de blocos de endereços massivos.
Em geral, os profissionais de TI falando sobre granularidade estão falando sobre trazer um nível mais fino de detalhes para tecnologias e computação ou trabalho de código. Este é o significado léxico geral de granularidade, para tornar as coisas em peças mais finas e geralmente mais gerenciáveis.