반응형
배치 경사하강법(Batch Gradient Descent)
- 작은 규모의 데이터셋
- 정확한 최적화를 필요로 하는 경우
- 볼록 손실함수
- 모델이 충분한 메모리를 가지고 있는 경우
- 과적합이 없는 경우
확률적 경사하강법(Stochastic Gradient Descent)
- 대규모 데이터셋
- 온라인학습
- 비선형 최적화(그래디언트를 계산하기 어렵거나, 미분 불가할대)
- 규제(SGD는 L1, L2규제와 함께 사용되어 오버피팅 방지
- 신경망 학습
미니배치 경사하강법(Mini-Batch Gradient Descent) - 임의의 샘플에 대해 gradient 계산
- 대규모 데이터 셋
- 메모리 제약이 있는 경우
- 노이즈
- 계산 효용성(배치보다 속도가 빠름)
- 행렬 연산에 최적화된 하드웨어, 특히 GPU
출처: 핸즈온 머신러닝
반응형
'코딩' 카테고리의 다른 글
코랩에서 seaborn 및 matplotlib에서 한글 깨짐 현상 (0) | 2023.07.05 |
---|---|
[코딩] 08-2 합성곱 신경망을 사용한 이미지 분류 (0) | 2023.05.15 |
[Python] 백준 2231 분해합 (1) | 2022.12.07 |
[Python] 백준 2163번 초콜릿 자르기 (0) | 2022.10.31 |