본문 바로가기
theory 📓/딥러닝

CNN

by 고돌한 데이터 사이언스 2024. 11. 6.
반응형

필터와 합성곱(Convolution)

-       CNN의 주요 개념으로, 필터를 이미지에 적용하여 특징을 추출함

-       필터는 가중치 행렬이며, 특정 패턴을 감지하기 위해 학습됨

 

CNN의 주요 계층

-       합성곱 계측(Convolution Layer) : 필터를 사용해 이미지에서 유용한 패턴을 추출합니다.

-       폴링 계층(Pooling Layer) : 주요하게 Max Pooling을 사용하며, 데이터의 공간 크기를 줄여 모델 복잡성을 낮추고 계산 효율성을 높임

-       완전 연결 계층(Fully Connected Layer) : 추출한 특징을 바탕으로 예측을 수행하는 최종 계층

 

주요 CNN 아키텍처

-       AlexNet : 깊이 있는 CNN 구조를 통해 ImageNet 대회에서 우수한 성능을 기록한 모델로 GPU 병렬 학습과 ReLU 활성화 함수를 도입

-       VGGNet : 단일 3x3 필터를 여러 층으로 쌓아 깊이 있는 구조를 가진 모델로, 더 작은 필터로토 넓은 수용 영역을 얻는 특징

-       GoogLeNet : Inception 모듈을 도입하여 다양한 필터 크기를 병렬로 사용함으로써, 적은 파라미터로 깊은 네트워크를 구현

-       ResNet : 잔차 학습(Residual Learning)을 통해 매우 깊은 네트워크에서 발생할 수 있는 기울기 소실 문제를 해결

 

배치 정규화와 활성화함수

-       배치정규회(Batch Normalization) : 학습 속도를 높이고 과적합을 방지하기 위해 각 층에서 출력값을 정규화

-       활성화 함수(Activation Function) : 주로 ReLU를 사용하여 비선형성을 도입하고 학습 효율을 높임

 

예제)

1.True/False: 필터는 CNN에서 가중치 행렬로 작용하며, 특정 패턴을 감지하는 데 사용됩니다.

  • 정답: True. 필터는 CNN의 중요한 요소로 이미지의 패턴을 학습함

2. Max Pooling 계층에 주된 역할은 무엇인가요

  • 정답: 데이터의 공간 크기를 줄여, 계산 효율을 높이고 모델의 복잡성을 줄임

3. True/False: AlexNet에서는 ReLU 활성화 함수를 사용하여 비선형성을 추가했습니다.

  • 정답: True, ReLU 활성화함수는 AlextNet에서 처음 사용되었으며, 학습 속도를 높임

4. ResNet이 잔차 학습을 통해 해결하려는 문제는 무엇인가요

  • 정답: 기울기 소실 문제를 해결하여 매우 깊은 네트워크에도 안정적으로 학습할 수 있도록 함

5. GoogLeNet에서 Inception 모듈의 주요 목적은 무엇인가요?

  • 정답: 다양한 필터 크기를 병렬로 사용하여 적은 파라미터로 효율적인 특징 추출 수행

6. VGGNet는 여러 3x3 필터를 쌓아 더 넓은 수용 영역을 확보함

  • 정답: True. VGGNet은 작은 필터를 쌓아 깊이 있는 구조를 구성

7. CNN의 풀링 계층에서 주로 사용되는 두 가지 유형의 풀링은 무엇인가요

  • 정답: Max Pooling Average Pooling

8. 배치정규화는 학습 속도를 높이고 과적합을 방지하는데 도움이 됨

  • 정답: True, 모델의 학습속도를 높이고 과적합을 방지하기위해 출력값을 정규화

9. ResNet에서 잔차 연결의 주요 기능은 무엇인가요

  • 정답: 이전 층의 출력을 다음 층에 그대로 전달하여 기울기 소실을 완화함

10. CNN에서 Convolution Layer의 주요 기능은 무엇인가요

  • 정답: 이미지의 지역적인 패턴을 학습하고, 이를 통해 유용한 특징을 추출
반응형

'theory 📓 > 딥러닝' 카테고리의 다른 글

Self Attention / Transformer / Decoding  (2) 2024.11.08
CNN Applications  (0) 2024.11.06
Unsupervised learning  (0) 2024.11.06
Hyperparameter tuning  (0) 2024.11.06
Setup and regularization  (0) 2024.11.06

댓글