Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 자료구조
- 의학 기본 용어
- CNN
- antslibrary
- 케라스 창시자에게 배우는 딥러닝
- gan mode collapse
- cyclegan discriminator
- mode collapse
- cyclegan loss
- minmax loss
- 재귀함수
- cyclegan mode collapse
- lpips
- GAN
- 의료 용어
- 모델성능평가지표
- fsim
- 영상 의료 용어
- CPU
- mlp
- 역전파
- cyclegan 구조
- 단일 퍼셉트론
- cyclegan generator
- cyclegan architecture
- cyclegan 구성
- 파이썬
- 의료 영상 용어
- cnn mlp
- alternative loss
Archives
- Today
- Total
JH 개발자의 성장일지
Deep Learning Study (8) / 24.09.24 본문
- 심층신경망 층 수, 깊이 쌓는 이유
- 2층 이상 쌓으면 심층신경망이라고 함.
- 층을 더 깊이 쌓아 학습할수록 더 고차원적이고 추상적인 특징(개별의 것이 아닌 종합적인 특징)을 추출하게 됨. → 일반화된 특징을 학습해 일관된 예측 및 정확한 예측이 가능하게 됨.
- CNN이 MLP보다 이미지 연산에 강한 이유/패턴이란?
- MLP 란? 다층 퍼셉트론 → dense 층을 쌓아서 만든 모델 (층 간의 모든 뉴런이 완전 연결되어 있어 각 입력 뉴런이 모든 출력 뉴런에 영향 미침)
- Dense 층 = 입력 데이터의 특정 위치나 순서가 고려되지 않고, 단순히 하나의 벡터로 입력을 처리 ↔ Controversial 층은 2D 윈도우로 지역적 특성, 위치와 패턴의 관계를 학습 (이미지의 공간 정보를 보존)
- 지역적 영역 처리 (지역적 연결) : 이미지의 부분 슬라이딩하면서 패턴 학습 ⇒ 공간적 구조 보존 & 상대적 위치 정보 고려해 학습
- 파라미터 공유 : 같은 필터로 이미지 전체 학습해 학습해야 할 파라미터 수가 줄어듬 (출력 뉴런에 영향을 미치는 범위가 제한적) ⇒ 전체 연산 효율 및 메모리 효율 높여줌
- 이동 불변성 : 같은 필터로 스캔하기 때문에 같은 패턴이 이미지의 다른 위치에 나타나더라도 동일한 패턴으로 인지 가능 ⇒ 일반화 능력 향상 & 적은 데이터로도 패턴 학습 가능
- 다단계 특징 학습 : 여러 층을 통해 단순한 특징부터 복잡한 패턴까지 학습 ⇒ 일반화 능력 향상
- CNN: O(N * k^2) (입력 크기와 필터 크기에 비례)
- MLP: O(N^2) (모든 입력과 출력 간의 완전 연결로 인해 비효율적)
- CNN 처리 과정 핵심 : 필터(커널)을 이용
'Deep Learning' 카테고리의 다른 글
Deep Learning Study (10) / 24.09.26 (0) | 2024.09.26 |
---|---|
Deep Learning Study (9) / 24.09.25 (1) | 2024.09.26 |
이준석 교수님 - Deep Learning, Machine Learning 강의 정리 (1) / 24.09.22 (3) | 2024.09.22 |
Deep Learning Study (7) / 24.09.11 (0) | 2024.09.11 |
Deep Learning Study (6) / 24.09.10 (1) | 2024.09.10 |