[딥러닝] CNN Attention 기법 정리(SE(Squeeze-and-Excitation), CBAM(Convolutional Block Attention Module), ECA(Efficient Channel Attention))
·
Study/Computer Vision
- 이번 포스팅에서는 Vision Transformer 가 아닌, CNN 모델에서 사용되는 Attention 기법에 대해 정리하겠습니다.사람 혹은 생명채라면 시각 데이터의 특정 부분에 위치적으로 중요하다 아니다를 판별할 수 있고, 이로써 판단의 중요한 근거로 사용하므로, 시각 신경 구조를 토대로 만들어진 CNN 의 Attention 개념을 이해한다면 보다 근본적인 비젼 어텐션이 가능해질 것이라 생각합니다. (SEBlock(Squeeze-and-Excitation Block))- 논문 : Squeeze-and-Excitation Networks (2017) - SE Block 의 핵심 아이디어는 채널의 중요도를 표현하는 것에 있습니다.쉽게 설명드리겠습니다.CNN 은 KxK 크기의 커널을 통해 값의 위치적 ..