Positional Embedding

2024. 2. 11. 18:52·LLM

Positional Embedding은 BERT에서 토큰의 상대적인 위치를 나타내기 위해 사용하는 방법입니다.

 

Positional Embedding에서는 Sine과 Cosine 함수를 사용합니다. 그 이유는 아래와 같습니다.

 

  • 입력값에 따라 달라지는 함수값
  • 규칙적으로 증가하거나 감소
  • 입력값의 범위에 대한 제한이 없음

 

Sine과 Cosine 함수는 항상 -1과 1 사이의 값을 가집니다.

 

절대적인 위치를 사용할 경우 학습 데이터보다 긴 데이터는 입력할 수 없습니다. Positional Embedding에서는 상대적인 위치를 사용하여 학습데이터보다 긴 데이터도 입력할 수 있습니다.

 

* 출처: https://arxiv.org/abs/1810.04805

'LLM' 카테고리의 다른 글

G-Eval Prompt  (0) 2024.02.27
HAE-RAE Bench  (0) 2024.02.25
Tuning  (0) 2024.02.09
Vector Search  (1) 2024.02.09
프롬프트 엔지니어링  (0) 2024.02.09
'LLM' 카테고리의 다른 글
  • G-Eval Prompt
  • HAE-RAE Bench
  • Tuning
  • Vector Search
봄프로
봄프로
Data Scientist
  • 봄프로
    To be professional
    봄프로
    • 분류 전체보기 (59)
      • LLM (16)
      • Data Science (24)
      • ADP (8)
      • Domain (8)
      • Etc (3)
  • 블로그 메뉴

    • 홈
    • 태그
    • 방명록
  • 링크

  • 인기 글

  • 태그

    오블완
    티스토리챌린지
    YOLO
    KBI
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.1
봄프로
Positional Embedding
상단으로

티스토리툴바