Normalization
- 값의 범위(scale)를 0~1 사이의 값으로 바꾸는 것
- 학습 전에 scaling하는 것
- 머신러닝에서 scale이 큰 feature의 영향이 비대해지는 것을 방지
- 딥러닝에서 Local Minima에 빠질 위험 감소(학습 속도 향상)
- scikit-learn에서 MinMaxScaler
Standardization
- 값의 범위(scale)를 평균 0, 분산 1이 되도록 변환
- 학습 전에 scaling하는 것
- 머신러닝에서 scale이 큰 feature의 영향이 비대해지는 것을 방지
- 딥러닝에서 Local Minima에 빠질 위험 감소(학습 속도 향상)
- 정규분포를 표준정규분포로 변환하는 것과 같음
- Z-score(표준 점수)
- -1 ~ 1 사이에 68%가 있고, -2 ~ 2 사이에 95%가 있고, -3 ~ 3 사이에 99%가 있음
- -3 ~ 3의 범위를 벗어나면 outlier일 확률이 높음
- 표준화로 번역하기도 함
- scikit-learn에서 StandardScaler
Regularization
- weight를 조정하는데 규제(제약)를 거는 기법
- Overfitting을 막기위해 사용함
- L1 regularization, L2 regularizaion 등의 종류가 있음
- L1: LASSO(라쏘), 마름모
- L2: Lidge(릿지), 원
출처:
1. https://realblack0.github.io/2020/03/29/normalization-standardization-regularization.html
'Deep Learning > deep learning' 카테고리의 다른 글
03_Batch Nomalization 배치 정규화 (0) | 2022.04.06 |
---|---|
02_Weight Initialization 가중치 초기값 설정 (0) | 2022.04.06 |
01_Optimizer 설명 및 여러 기법들 (0) | 2022.03.31 |
Conda 가상환경 파일로 옮기기 (0) | 2022.01.11 |
Pytorch Conv Output_Size 계산 (0) | 2021.06.14 |