본문 바로가기
Al Basic/NLP

[NLP] Attention in Seq2Seq Learning

by whybe 2023. 6. 12.

Seq2Seq란?

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

 

Seq2Seq(sequence to sequence) 입력 시퀀스(input sequence) 대해서 출력 시퀀스(output sequence) 만들기 위한 모델로서, 주로 기계 번역(Machine Translation)이나 챗봇(Chatbot)뿐만 아니라 내용 요약(Text Summariztion) 등에 사용되는 모델이다. 위 그림처럼 입력 시퀀스와 출력 시퀀스의 길이는 다를 있다.

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

Seq2Seq 모델은 크게 Encoder Decoder 구성되어 있다. Encoder Decoder 아키텍쳐 내부는 RNN 아키텍쳐이다기계 번역의 경우, Encoder 입력 문장의 모든 단어들을 순차적으로 입력받는다이때, 사용되는 모든 단어들은 임베딩 벡터로 변환된 입력으로 사용된다마지막에는 정보들을 압축하여 하나의 벡터로 만드는데 이를 context vector라고 한다위와 같은 모델에서는 Encoder 마지막 hidden state vector context vector 역할을 한다. 압축된 context vector Decoder 전달되고 Decoder context vector 이용하여 번역된 단어를 하나씩 순차적으로 출력한다

 

Attention in Seq2Seq Learning

context vector만으로는 Encoder에서 처리하는 정보를 담기에는 부족하다. 이러한 문제를 해결하기 위해 등장한 것이 Attention 개념이다. Attention은 모델이 입력 시퀀스에서 연관된 특정 부분에 집중하도록 도와준다. 즉, Decoder에서 출력 단어를 예측하는  time step마다 예측해야  단어와 연관이 있는 입력 단어 부분을  중점적으로 보는 것이다.

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention

기존 Seq2Seq와 Attention 메커니즘에는 크게 2가지 차이점이 존재한다.

  • Encoder가 마지막 hidden state vector뿐만 아니라 모든 hidden state vector를 Decoder에 전달한다.

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

  • Decoder의 각 time step에서 가장 관련이 있는 입력 시퀀스에 집중하기 위해서 추가적인 단계를 거친다.

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

  1. Encoder에서 모든 hidden state vector를 전달받는다. 각각의 hidden state vector는 입력 시퀀스에서의 특정 단어와 가장 관련성이 높다고 할 수 있다.
  2. 각 hidden state vector에 대해 점수를 계산한다.
  3. 점수에 대한 소프트맥스 결과값을 각 hidden state vector에 곱한 후, hidden state vector들의 가중평균을 구한다. 

점수를 계산하는 과정은 매 time step마다 수행되며, 이렇게 구해진 가중평균 벡터가 Decoder의 해당 time step에서의 context vector가 된다.

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/

4. 해당 time step의 hidden state vector($h_{t}$)와 context vector($C_{t}$)를 concatenate한다.

5. feedforward neural network에 해당 벡터를 입력하면 출력 시퀀스에 해당하는 단어 벡터가 출력된다.

6. 이때 출력된 단어 벡터는 다음 time step의 입력으로 사용되며, <END>에 해당하는 벡터가 출력될 때까지 이러한 과정을 반복한다.

 

reference:

'Al Basic > NLP' 카테고리의 다른 글

[NLP] Dimensionality Reduction  (0) 2023.10.03
[NLP] Text Representation  (0) 2023.09.25
[NLP] Text Preprocessing  (0) 2023.09.20
[NLP] Introduction to Text Analytics  (0) 2023.09.13
[NLP] RNN & LSTM  (0) 2023.06.04