Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- cyclegan architecture
- fsim
- GAN
- cyclegan mode collapse
- gan mode collapse
- cyclegan 구조
- cyclegan loss
- mode collapse
- cnn mlp
- alternative loss
- cyclegan generator
- minmax loss
- CPU
- mlp
- cyclegan 구성
- 재귀함수
- 역전파
- 파이썬
- 케라스 창시자에게 배우는 딥러닝
- 의료 영상 용어
- CNN
- 단일 퍼셉트론
- lpips
- cyclegan discriminator
- 모델성능평가지표
- 영상 의료 용어
- antslibrary
- 자료구조
- 의료 용어
- 의학 기본 용어
Archives
- Today
- Total
JH 개발자의 성장일지
Deep Learning Study (19) / 24.12.16 본문
Norm. Regular.
목적 | 데이터 분포를 조정하여 학습을 더 효율적으로 만드는 "조정" 기법 (간접적으로는 과적합 방지 가능) | 과적합을 방지하기 위한 "규제" 기법 |
대표 기법 | Min-Max Scaling, Standardization, Batch Normalization | L1, L2 정규화, Dropout, Early Stopping |
방법 | 입력 데이터나 층의 출력을 평균과 분산을 조정해 특정 분포로 변환 | 모델의 가중치 제한 or 페널티 부과해 모델의 복잡성 제어 |
적용 대상 | 입력 데이터 또는 층의 출력 | 모델의 가중치, 뉴런 등 |
Normalization
- Min-Max Scaling : 특징 값을 0~1 범위로 변환
- Standardization : 평균 0, 분산 1로 변환
- Batch Normalization : 각 층 출력값 정규화
Regularization
- L1, L2 정규화 : 불필요한 가중치 제거 / 가중치를 작게 유지
- Dropout : 뉴런 일부 제거
- Early Stopping : 적절한 시점에 학습 중단
'Deep Learning' 카테고리의 다른 글
Deep Learning Study (21) / 24.12.24 (0) | 2024.12.31 |
---|---|
Deep Learning Study (20) / 24.12.21 (0) | 2024.12.31 |
Deep Learning Study (18) / 24.12.12 (0) | 2024.12.12 |
Deep Learning Study (17) / 24.12.09 (0) | 2024.12.09 |
이준석 교수님 - Deep Learning, Machine Learning 강의 정리 (5) / 24.11.28 (0) | 2024.12.06 |