XAI eXplainable artificial Intelligence라는 의미로 개념은 1975년 등장하였으나 전문 용어로 자리잡은 것은 2004년 NPC의 인공지능을 개조하여 행동 이유를 설명하는 아키텍쳐를 만든 것이 시초 즉, 인공지능 모델이 왜 그러한 결정을 내렸는지 설명하려는 목적으로 만들어진 모델이라고 할 수 있음 XAI는 기존 머신 러닝 모델에 설명 가능한 기능을 추가하고, HCI와 접목하여 상황을 개선하려는 목적을 주로 지니는데, 현재에는 설명 가능한 기능 위주로 발달하고 있음 XAI 기법들 - 피처 중요도 (Feature Importance) - 필터 시각화 (Filter Visualization) - LRP (Layer-wise Relevance Propagation) - 부분 의존성 ..
(예측) 모델을 평가하는 지표는 여러가지가 있지만, Calibration, Discrimination, Reclassification 중점에서 모델 정확도를 평가하는 방법을 소개하고자 한다. 1. Calibration (Chi-square test) model calibration은 예측 위험 값(그룹에 대한 사망 예측)과 실제값(실제 사망률) 사이의 가까운 정도를 의미한다. calibration을 보이는 가장 흔한 방법은 관측값과 비교하여 예측값을 그래프로 그려 비교하는 것이며, 카이제곱(X^2) 값을 주로 사용한다. 대략 카이제곱 값이 20 미만이면 good fit이라고 할 수 있으며, 값이 낮을수록 model calibration을 더 높다고 할 수 있다. 2. Discrimination (C-st..
● Attention Is All You Need (NIPS 2017) 핵심 개념 - 자연어 처리와 같은 시계열 데이터의 처리에서 RNN 계열의 모델이 아닌 Attention 개념이 등장함. - 트랜스포머는 Encoder 부분과 Decoder 부분으로 구성되어 있음. - Encoder에는 Input 데이터를 Positional Encoding하고, Multi-head Attention 레이어를 거쳐 Feed-Forward 레이어로 전달하는 부분이 구성되어 있으며, 이 레이어들을 거쳐 나온 Output이 Decoder부분으로 전달됨. - 그리고 각 레이어에는 Residual 레이어가 추가되어 있음 (skip connection) - Decoder에는 Encoder와 같은 구조 앞뒤로 Masked Multi..
best_AI_papers_2022 GitHub - louisfb01/best_AI_papers_2022: A curated list of the latest breakthroughs in AI (in 2022) by release date with a clear A curated list of the latest breakthroughs in AI (in 2022) by release date with a clear video explanation, link to a more in-depth article, and code. - GitHub - louisfb01/best_AI_papers_2022: A cur... github.com 2022년에 발표된 주목할 만한 AI papers가 있어 가지고 옴...
AutoEncoder는 아래 그림과 같이 입력 데이터를 축소한 은닉 레이어를 만들고 이것을 다시 복원하여 출력 데이터를 입력 데이터와 같에 만드는 신경망 모델이다. Label이 따로 존재하지 않고 입력 데이터를 Label처럼 이용한다는 점에서 비지도 학습(Unsupervised Learning)이라고 할 수 있다. AutoEncoder는 입력 데이터를 축소하면서 좀 더 추상적이고 특징을 함축하는 encoder부분과 이것을 바탕으로 입력 데이터로 복원하는 decoder부분으로 구성되어 있으며, 단순히 입력 데이터를 복사하는 것을 방지하기 위해 여러가지 정규화 기법(regularization)을 사용한다. 이 정규화 기법에는 Sparse, Denoising, Contractive 방법이 있으며 이들은 분류 ..
순환 신경망(Recurrent Neural Network, RNN) RNN은 위 그림의 A와 같이 입력층과 출력층 사이에 있는 은닉층의 정보(가중치 등)를 다음 단계로 넘겨 공유함 즉, 이전에서 받은 정보 A에 새로운 입력값이 더해져 A가 계속 업데이트되어 다음으로 전달되는 구조 문제점은 가중치w가 n번 업데이트된다는 것은 w의 n제곱으로 계산되는 값. 즉, 가중치가 양의 값이면 w의 n제곱은 거의 무한대로 커져 연산량이 많아지거나, 가중치가 음의 값이면 w의 n제곱은 0에 가까워져 학습 효과가 없어진다는 것. Vanishing 문제. 그래서 잘 쓰이지 않고, 이 문제에 대한 대안법이 있는 LSTM과 GRU를 사용 1. LSTM (1997) LSTM은 RNN의 구조에서 가중치 연산이 일어나 전달하는 "A..
딥러닝 공부를 제대로 시작하면서 먼저 기존 발표된 모델과 개념을 간단히 하나씩 정리하고자 한다. 0. Perceptron (1957) & MLP 로젠블릿이 개발한 이진 분류 알고리즘. 위 그림에서 앞의 결과를 모아 내적하여 다음 과정으로 내보내는 함수를 활성화 함수(activation function)라고 함. 특히, 이 활성화 함수가 Sigmoid일 때 Logistic Regression Model이라고 함. 퍼셉트론을 여러 층으로 쌓은 것을 MLP (Multi-Layer Perceptron)이라고 하며 DNN (Dense Neural Network)이기도 하고 모든 뉴런이 연결되어 있다는 점에서 Fully Connected Layers Model이라고도 할 수 있음. 1. AlexNet (2012) ..
- Total
- Today
- Yesterday
- sequenced data
- 실험통계
- Bioinfo
- NGS
- 생존곡선
- fasta
- 생존함수
- pre-train
- 그룹비교
- featuremap
- 딥러닝
- cnn
- 생존분석
- psychopy
- GPU설치
- missing_value
- plink
- PTB
- pmm
- r
- 인공지능
- HRV
- SNP
- sounddevice
- gray2rgb
- GradCam
- 평균분석
- rgb2gray
- vcf
- ECG
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |