


기계 학습의 시대 이해
기계 학습의 맥락에서 에포크는 훈련 데이터에 대한 완전한 반복을 의미합니다. 각 시대마다 모델은 전체 데이터 세트에 대해 훈련되고 예측 출력과 실제 출력 사이의 오류를 기반으로 가중치가 조정됩니다. 그런 다음 한 시대에는 손실 함수를 최소화하기 위해 1000개의 매개변수를 모두 사용하여 1000개의 모든 예에 대해 모델을 교육하는 작업이 포함됩니다. 최적의 에포크 수는 문제의 복잡성, 데이터세트의 크기, 모델 성능에 따라 달라집니다. 일반적으로 에포크가 늘어날수록 모델이 훈련 데이터에 너무 특화되어 새로운 예에 잘 일반화되지 않는 과적합이 발생할 수 있습니다. 반면, 에포크 수가 적으면 모델이 훈련 데이터로부터 충분히 학습할 수 없습니다. 배치는 모델의 가중치가 업데이트되기 전에 함께 처리되는 훈련 데이터의 하위 집합입니다. 예를 들어 1,000개의 예시가 있는 데이터 세트가 있고 배치 크기 32를 사용하는 경우 한 에포크에는 1,000개의 예시 모두에 대해 모델을 교육하고 한 번에 32개의 배치로 처리하는 작업이 포함됩니다. 이를 통해 모델이 전체 데이터 세트에서 학습할 수 있도록 하면서 훈련의 계산 비용을 줄이는 데 도움이 될 수 있습니다.



