RoPE Rotary Position Embedding to 100K context length
3.6 هزار بار بازدید -
4 ماه پیش
-
ROPE - Rotary Position Embedding
ROPE - Rotary Position Embedding explained in simple terms for calculating the self attention in Transformers with a relative position encoding for extended Context lengths of LLMs.
All rights w/ authors:
ROFORMER: ENHANCED TRANSFORMER WITH ROTARY POSITION EMBEDDING (RoPE)
arxiv.org/pdf/2104.09864
#airesearch
#aiexplained
4 ماه پیش
در تاریخ 1403/03/03 منتشر شده
است.
3,683
بـار بازدید شده