728x90
Deep Learning
52

[Paper] A Dual-Stage Attention-Based Recurrent Neural Network (DA-RNN)

A Dual-Stage Attention-Based Recurrent Neural Network (DA-RNN) Instroduction encoder-decoder networks의 문제는 sequence의 길이가 길어질수록 성능이 낮아지는 것이다. 위 문제를 해결하기 위해 attention based encoder-decoder network를 사용 하지만 time series prediction task에는 맞지 않음 time series prediction task를 목적으로 하는 모델인 dual-stage attnetion-based recurrent neural network (DA-RNN)을 제안 1 stage: 모든 time steps에서 이전 encoder hidden state를 참고하..

Deep Learning 2022.02.16

[NLP] Attention Mechanism

RNN 기반 seq2seq 모델의 문제 하나의 고정된 크기의 벡터에 모든 정보를 압축하려고 하니까 정보 손실이 발생 기울기 소실(vanishig gradient) 문제가 존재 Attention Idea 디코더에서 출력 단어를 예측하는 매 time step마다 인코더에서의 전체 입력 문장을 다시 한 번 참고 전체 입력 문장을 전부 참고하는 것이 아닌해당 시점에서 예측해야할 단어와 연관이 있는 입력 단어 부분을 좀 더 attention Attention function 더보기 Q = Query : 모든 시점의 디코더 셀에서의 은닉 상태 K = Keys : 모든 시점의 인코더 셀의 은닉 상태들 V = Values : 모든 시점의 인코더 셀의 은닉 상태들 1. 쿼리(Query)에 대해서 모든 키(Key)와의 유..

Deep Learning 2022.02.08
728x90