티스토리 뷰

[목차]

  • Recurrent Neural Network(RNN)
  • Convolutional Neural Network(CNN)
  • Support Vector Machine(SVM)
  • Random Forest
  • Transformer Model

 

[Recurrent Neural Network(RNN)]

  • 1980년대 개발, 1995년 LSTM  네트워크 도입
  • 순차 데이터 처리에 적합한 신경망
  • 이전 입출력을 기억하는 메모리 기능이 있어 시계열 데이터를 효과적으로 처리함.

[Convolutional Neural Network(CNN)]

  • 1989년 Yann Le Cun이 개발
  • 1950년대 생물학 연구 결과에 기반함.
  • 이미지 처리에 특화된 신경망
  • 지역 연결성과 가중치 공유를 통해 시각 데이터의 특징을 효과적으로 학습함.

[Support Vector Machine(SVM)]

  • 1992년 Vladimir Vapnik(AT&T Bell 연구소) 등이 개발
  • 분류와 회귀에 사용되는 알고리즘
  • 데이터를 고차원 공간에 매핑하여 최적의 결정 경계를 찾는 데 적합함.

[Random Forest]

  • 1995년 Tin Kam Ho가 개발
  • 2006년 Leo Breiman과 Adele Cutler가 확장
  • 여러 결정 트리를 결합한 앙상블 모델
  • 과적합에 강하고 특성 중요도를 제공함.

[Transformer Model]

  • 2017년 구글이 "Attention is All You Need" 논문에서 소개
  • 자연어 처리에 혁명을 일으킨 모델
  • 자기주의(self-attention) 메커니즘을 활용해 입력 데이터를 병렬로 처리하고 의존성을 효과적으로 포착함.

반응형