Разбиране и избягване на свръхнормализацията в моделите за машинно обучение
Свръхнормализацията е феномен, който възниква, когато моделът е обучен твърде добре върху данните за обучение и в резултат на това той става прекалено специализиран за този конкретен набор от данни. Това може да доведе до лошо представяне на модела при нови, невиждани данни, тъй като не е научил обобщаващи характеристики или модели, които са приложими към по-широк кръг от ситуации.
С други думи, свръхнормализиране се случва, когато моделът е твърде близък до данните за обучение , и не научава достатъчно обобщаващи знания от данните. В резултат на това моделът може да не е в състояние да се обобщи добре към нови, невиждани данни.
Свръхнормализирането може да бъде причинено от различни фактори, включително:
1. Пренастройване: Това се случва, когато моделът е обучен твърде добре върху данните за обучение и стане прекалено специализиран за този конкретен набор от данни.
2. Изтичане на данни: Това се случва, когато данните за обучението не са представителни за истинското разпределение на данните и моделът научава пристрастията и ограниченията на данните за обучение, а не основните модели и връзки.
3. Сложност на модела: Това се случва, когато моделът е твърде сложен и има твърде много параметри спрямо количеството налични данни за обучение.
4. Липса на регуляризация: Това се случва, когато моделът не е наказан достатъчно за сложност и му е позволено да пасва на шума в данните за обучение, а не на основните модели и връзки.
За да се избегне свръхнормализиране, могат да се използват няколко техники, като например:
1 . Регулиране: Това включва добавяне на наказателен срок към функцията за загуба, за да се обезсърчат големи тегла или сложни модели.
2. Ранно спиране: Това включва спиране на процеса на обучение, преди моделът да надхвърли данните за обучение.
3. Увеличаване на данни: Това включва генериране на допълнителни данни за обучение чрез прилагане на произволни трансформации към съществуващите данни, като завъртане, мащабиране и обръщане.
4. Ансамбълни методи: Това включва комбиниране на множество модели за подобряване на обобщаването, като например пакетиране и усилване.
5. Кръстосано валидиране: Това включва разделяне на данните на множество гънки и обучение на модела на една гънка, докато се оценява на останалите гънки.



