본문 바로가기 메뉴 바로가기

Connecting dots via Data

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Connecting dots via Data

검색하기 폼
  • 분류 전체보기 (44)
    • 책 논문 읽기 (1)
    • 데이터 분석 (39)
      • 전처리 (8)
      • 생물 및 의료 데이터 (13)
      • 확률 통계 (10)
      • 딥러닝 (7)
      • 인과추론 (DAG) (1)
    • 데이터 베이스 (0)
      • 지식 그래프 (Knowled.. (0)
      • Neo4j (0)
      • SQL \ NoSQL (0)
    • 프로그래밍 (4)
      • 리눅스 (2)
      • Trouble shootin.. (2)
    • 의사 결정을 위한 데이터 통.. (0)
      • 인간 지능 (Human Co.. (0)
      • 인공 지능 (Artifici.. (0)
  • 방명록

BERT (1)
Transformer Model

● Attention Is All You Need (NIPS 2017) 핵심 개념 - 자연어 처리와 같은 시계열 데이터의 처리에서 RNN 계열의 모델이 아닌 Attention 개념이 등장함. - 트랜스포머는 Encoder 부분과 Decoder 부분으로 구성되어 있음. - Encoder에는 Input 데이터를 Positional Encoding하고, Multi-head Attention 레이어를 거쳐 Feed-Forward 레이어로 전달하는 부분이 구성되어 있으며, 이 레이어들을 거쳐 나온 Output이 Decoder부분으로 전달됨. - 그리고 각 레이어에는 Residual 레이어가 추가되어 있음 (skip connection) - Decoder에는 Encoder와 같은 구조 앞뒤로 Masked Multi..

데이터 분석/딥러닝 2022. 12. 27. 17:20
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 실험통계
  • rgb2gray
  • featuremap
  • psychopy
  • pmm
  • Bioinfo
  • NGS
  • plink
  • pre-train
  • SNP
  • 생존곡선
  • sequenced data
  • 생존분석
  • 인공지능
  • 생존함수
  • fasta
  • 평균분석
  • 딥러닝
  • 그룹비교
  • vcf
  • GPU설치
  • sounddevice
  • ECG
  • gray2rgb
  • missing_value
  • r
  • PTB
  • cnn
  • HRV
  • GradCam
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바