Definição – O que significa Bagging?
“Bagging” ou agregação de bootstrap é um tipo específico de processo de aprendizado de máquina que usa aprendizado por conjunto para desenvolver modelos de aprendizado de máquina. Lançada na década de 1990, esta técnica usa grupos específicos de conjuntos de treinamento onde algumas observações podem ser repetidas entre diferentes conjuntos de treinamento.
Definirtec explica Bagging
A ideia de ensacamento foi usada extensivamente no aprendizado de máquina para criar um melhor ajuste para os modelos. A ideia é que, se você pegar várias unidades independentes de aprendizado de máquina, elas podem funcionar coletivamente melhor do que uma unidade que teria mais recursos.
Para realmente ilustrar como isso funciona, pense em cada parte do processo de ensacamento como um cérebro individual. Sem bagging, o aprendizado de máquina consistiria em um cérebro realmente inteligente trabalhando em um problema. Com o ensacamento, o processo consiste em muitos “cérebros fracos” ou cérebros menos fortes colaborando em um projeto. Cada um deles tem seu domínio de pensamento e alguns desses domínios se sobrepõem. Quando você junta o resultado final, ele é muito mais evoluído do que seria com apenas um “cérebro”.
Em um sentido muito real, a filosofia de ensacamento pode ser descrita por um axioma muito antigo que antecede a tecnologia em alguns anos: “duas cabeças pensam melhor do que uma.” No ensacamento, 10 ou 20 ou 50 cabeças são melhores do que uma, porque os resultados são tomados juntos e agregados em um resultado melhor. Bagging é uma técnica que pode ajudar os engenheiros a combater o fenômeno de “overfitting” no aprendizado de máquina, onde o sistema não se ajusta aos dados ou à finalidade.