nlp, paper, 

Sooftware NLP - Efficient Attention Paper Review

Sooftware NLP - Efficient Attention Paper Review

Efficient Attention: Attention with Linear Complexities

  • Shen Zhuoran et al.

Abstract

  • Dot-product attention은 들어오는 인풋 길이에 따라 memory & computation cost가 quadratically하게 증가함
  • 어텐션 매커니즘을 조금 수정해서 memory & computation cost를 상당히 줄이는 방법 제안

Method

  • 기존 Dot-product로 similarty를 구하는 방식과 다르게, Key와 value를 곱하는 방식 사용
  • Dot-product:
  • Efficient:

Experiment

  • 기존 attention과 제안된 attention 비교 => 상당히 효율적으로 변한것을 확인 가능
  • 성능 면에서도 더 좋은 결과가 나왔다는 표

Subscribe to SOOFTWARE

Get the latest posts delivered right to your inbox