본문 바로가기 메뉴 바로가기

Connecting dots via Data

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Connecting dots via Data

검색하기 폼
  • 분류 전체보기 (44)
    • 책 논문 읽기 (1)
    • 데이터 분석 (39)
      • 전처리 (8)
      • 생물 및 의료 데이터 (13)
      • 확률 통계 (10)
      • 딥러닝 (7)
      • 인과추론 (DAG) (1)
    • 데이터 베이스 (0)
      • 지식 그래프 (Knowled.. (0)
      • Neo4j (0)
      • SQL \ NoSQL (0)
    • 프로그래밍 (4)
      • 리눅스 (2)
      • Trouble shootin.. (2)
    • 의사 결정을 위한 데이터 통.. (0)
      • 인간 지능 (Human Co.. (0)
      • 인공 지능 (Artifici.. (0)
  • 방명록

LSTM (1)
LSTM & GRU

순환 신경망(Recurrent Neural Network, RNN) RNN은 위 그림의 A와 같이 입력층과 출력층 사이에 있는 은닉층의 정보(가중치 등)를 다음 단계로 넘겨 공유함 즉, 이전에서 받은 정보 A에 새로운 입력값이 더해져 A가 계속 업데이트되어 다음으로 전달되는 구조 문제점은 가중치w가 n번 업데이트된다는 것은 w의 n제곱으로 계산되는 값. 즉, 가중치가 양의 값이면 w의 n제곱은 거의 무한대로 커져 연산량이 많아지거나, 가중치가 음의 값이면 w의 n제곱은 0에 가까워져 학습 효과가 없어진다는 것. Vanishing 문제. 그래서 잘 쓰이지 않고, 이 문제에 대한 대안법이 있는 LSTM과 GRU를 사용 1. LSTM (1997) LSTM은 RNN의 구조에서 가중치 연산이 일어나 전달하는 "A..

데이터 분석/딥러닝 2022. 12. 15. 19:55
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • Bioinfo
  • sounddevice
  • missing_value
  • gray2rgb
  • pmm
  • fasta
  • featuremap
  • vcf
  • GradCam
  • 생존함수
  • rgb2gray
  • psychopy
  • 평균분석
  • GPU설치
  • r
  • pre-train
  • ECG
  • 그룹비교
  • SNP
  • cnn
  • 생존곡선
  • 인공지능
  • 딥러닝
  • sequenced data
  • HRV
  • PTB
  • NGS
  • plink
  • 실험통계
  • 생존분석
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바