


Comprendere le funzionalità di completamento eccessivo nell'apprendimento automatico
Il completamento eccessivo si riferisce a una situazione in cui un modello o un insieme di funzionalità è troppo complesso e cattura più variazioni nei dati del necessario. In altre parole, il modello o le caratteristiche sono in grado di adattarsi al rumore nei dati piuttosto che ai modelli sottostanti. Ciò può portare a scarse prestazioni di generalizzazione sui nuovi dati, poiché il modello diventa eccessivamente specializzato rispetto ai dati di addestramento.
Nel contesto della selezione delle funzionalità, il completamento eccessivo si riferisce a una situazione in cui sono presenti più funzionalità di quelle necessarie per acquisire le variazioni importanti nei dati . Ad esempio, se un modello ha 100 funzionalità ma solo 20 di esse sono veramente rilevanti per il problema, le altre 80 funzionalità sono considerate sovracomplete.



