JH 개발자의 성장일지

이준석 교수님 - Deep Learning, Machine Learning 강의 정리 (1) / 24.09.22 본문

Deep Learning

이준석 교수님 - Deep Learning, Machine Learning 강의 정리 (1) / 24.09.22

JHDeveloper 2024. 9. 22. 22:35

 

Neural Network 개념은 1940-50년대에 이미 나왔었지만, 여러가지 상황 때문에 침체되었다, 2012년에 혁명이 일어나게 됨. ImageNet 데이터셋을 가지고 AlexNet으로 Neural Network를 8층으로 쌓아서 오답률 10% 이상 향상 (딥러닝의 등장)

오답률을 이 85%만 되도 좋은 거 아닌가? → 실제로 적용하면 오답률이 40%임… 적용하기 힘듬

 

*딥러닝 주요 Task

  • Image Classification
  • Object Detection
  • Speech Recognition

Image Classification : 컴퓨터가 보는 한 장의 이미지 (600*800 크기의 3개의 채널 = 숫자의 행렬) → 어떤 로직을 거쳐 이미지 label을 출력하는 알고리즘을 만드는 것

  1. Edge Detection
  1. Find Edges : 경계선만 찾아보기
  2. Find Coners : 모양이 가진 속성 표현하기

⇒ 실패

  1. Data-given Approach
  1. 많은 이미지 입력 → 훈련용 데이터셋 구성
  2. 머신러닝 알고리즘 바탕 이미지 학습 + 라벨링
  3. 학습된 모델로 새로운 데이터 분류
  1. Nearest Neighbor를 활용해서 train하기

: 모든 데이터와 라벨 다 기억하기 → 가장 가까운 것들을 찾아서 정답 (근데, 그림과 그림 사이의 유사를 어떻게… 정의하지…? 계산하지…?)

방법 1) 행렬(대상)과 행렬(비교대상) 그냥 차이값 계산하기 : training은 한 번만 하면 됨 (그냥 기억만 하면 되니까), prediction은 직접 비교해야 하기 때문에 오래 걸림

→ 그때그때 비교하는 것보다는 미리 영역을 그려놓고 새로운 게 어디에 해당한 지를 보고 예측하는 게 더 좋음.

KNN은 image classification 작업에 좋지 않음. (계산하는데 시간이 너무 오래 소요됨.)

⇒ 해결하기 위해 사용할 수 있는 방법

  • 정규화
  • 차원 축소
  • 파라미터 튜닝
  • approximate Nearest Neighbor

 

참고 자료 : https://www.youtube.com/watch?v=x3HWfjWFiQ0

'Deep Learning' 카테고리의 다른 글

Deep Learning Study (9) / 24.09.25  (1) 2024.09.26
Deep Learning Study (8) / 24.09.24  (0) 2024.09.24
Deep Learning Study (7) / 24.09.11  (0) 2024.09.11
Deep Learning Study (6) / 24.09.10  (1) 2024.09.10
Deep Learning Study (5) / 24.09.09  (1) 2024.09.09