이번 포스팅은 Inception-v2~3 입니다.
아래는 간단한 요약입니다.
- Inception v2: 5x5 → 3x3 + 3x3 으로 변경, 3x3 → 1x3 + 3x1로 변경
- Inception v3: Hyperparameter 변경
- Optimizer: SGD → RMSProp
- Label smoothing
- BN-auxiliary
이번 포스팅에서 다룰 Inception v2, v3 논문의 제목입니다.
논문의 링크는 아래 출처란에 적어놓았으니 참고해주시길 바랍니다.
Factorization into smaller convolutions
논문상 3.1 Factorization into smaller convolutions에 있는 내용입니다.
5 x 5 또는 7 x 7 filter는 연산량이 많기 때문에 Layer를 나눕니다.
예를 들어, 5 x 5 filter를 3 x 3 + 3 x 3으로 나누는 겁니다. (VGG에서 가져오신것 같다.)
즉, Figure 4 → Figure 5 로 변형을 시키는 것입니다.
- 5 x 5 = 25 → 3 x 3 + 3 x 3 = 18 약 28% 감소
비대칭 합성곱 (Asymmetric Convolutions)
또한 여기서 멈추지 않고 3x3 convolution을 1x3 + 3x1로 변경하였습니다.
- 3 x 3 = 9 → 1 x 3 + 3 x 1 = 6 약 33% 감소
보조 분류기 (Utility of Auxiliary Classifiers)
Reducing resolutions
해상도를 줄이는 방법에는 2가지 방법이 있습니다.
- stride의 크기를 1보다 큰 수로 설정합니다.
- pooling을 이용하여 줄입니다.
출처:
'Deep Learning > Pytorch' 카테고리의 다른 글
27_Pytorch_Custom_Dataset (0) | 2021.12.02 |
---|---|
23_Pytorch_EfficientNet (0) | 2021.11.24 |
24_Pytorch_MobileNet - 연산량 number of operations (0) | 2021.10.12 |
22_Pytorch_RNN_Practice (0) | 2021.10.07 |
21_Pytorch_RNN (0) | 2021.10.06 |