best_AI_papers_2022 GitHub - louisfb01/best_AI_papers_2022: A curated list of the latest breakthroughs in AI (in 2022) by release date with a clear A curated list of the latest breakthroughs in AI (in 2022) by release date with a clear video explanation, link to a more in-depth article, and code. - GitHub - louisfb01/best_AI_papers_2022: A cur... github.com 2022년에 발표된 주목할 만한 AI papers가 있어 가지고 옴...
AutoEncoder는 아래 그림과 같이 입력 데이터를 축소한 은닉 레이어를 만들고 이것을 다시 복원하여 출력 데이터를 입력 데이터와 같에 만드는 신경망 모델이다. Label이 따로 존재하지 않고 입력 데이터를 Label처럼 이용한다는 점에서 비지도 학습(Unsupervised Learning)이라고 할 수 있다. AutoEncoder는 입력 데이터를 축소하면서 좀 더 추상적이고 특징을 함축하는 encoder부분과 이것을 바탕으로 입력 데이터로 복원하는 decoder부분으로 구성되어 있으며, 단순히 입력 데이터를 복사하는 것을 방지하기 위해 여러가지 정규화 기법(regularization)을 사용한다. 이 정규화 기법에는 Sparse, Denoising, Contractive 방법이 있으며 이들은 분류 ..
순환 신경망(Recurrent Neural Network, RNN) RNN은 위 그림의 A와 같이 입력층과 출력층 사이에 있는 은닉층의 정보(가중치 등)를 다음 단계로 넘겨 공유함 즉, 이전에서 받은 정보 A에 새로운 입력값이 더해져 A가 계속 업데이트되어 다음으로 전달되는 구조 문제점은 가중치w가 n번 업데이트된다는 것은 w의 n제곱으로 계산되는 값. 즉, 가중치가 양의 값이면 w의 n제곱은 거의 무한대로 커져 연산량이 많아지거나, 가중치가 음의 값이면 w의 n제곱은 0에 가까워져 학습 효과가 없어진다는 것. Vanishing 문제. 그래서 잘 쓰이지 않고, 이 문제에 대한 대안법이 있는 LSTM과 GRU를 사용 1. LSTM (1997) LSTM은 RNN의 구조에서 가중치 연산이 일어나 전달하는 "A..
딥러닝 공부를 제대로 시작하면서 먼저 기존 발표된 모델과 개념을 간단히 하나씩 정리하고자 한다. 0. Perceptron (1957) & MLP 로젠블릿이 개발한 이진 분류 알고리즘. 위 그림에서 앞의 결과를 모아 내적하여 다음 과정으로 내보내는 함수를 활성화 함수(activation function)라고 함. 특히, 이 활성화 함수가 Sigmoid일 때 Logistic Regression Model이라고 함. 퍼셉트론을 여러 층으로 쌓은 것을 MLP (Multi-Layer Perceptron)이라고 하며 DNN (Dense Neural Network)이기도 하고 모든 뉴런이 연결되어 있다는 점에서 Fully Connected Layers Model이라고도 할 수 있음. 1. AlexNet (2012) ..
- Total
- Today
- Yesterday
- 생존분석
- pmm
- 그룹비교
- pre-train
- HRV
- PTB
- 생존함수
- 딥러닝
- cnn
- psychopy
- 인공지능
- featuremap
- 실험통계
- GPU설치
- 평균분석
- sounddevice
- r
- vcf
- Bioinfo
- SNP
- GradCam
- rgb2gray
- missing_value
- NGS
- fasta
- sequenced data
- ECG
- plink
- gray2rgb
- 생존곡선
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |