O RoPE é fundamentalmente falho. Este artigo mostra que o RoPE mistura o "que" é um token com o "onde" ele está, então o modelo não consegue raciocinar de forma confiável sobre posições relativas independentemente da identidade do token. Exemplo: a noção efetiva de "3 tokens à esquerda" depende sutilmente de quais letras estão envolvidas, então perguntar "qual letra está 3 à esquerda de Z em uma sequência 'ABSCOPZG'" torna-se mais difícil do que deveria porque o próprio governante posicional muda conforme o conteúdo. Assim, este artigo propõe o PoPE, que dá ao modelo uma régua posicional fixa ao codificar onde os tokens são independentes do que são, permitindo que o "conteúdo" controle apenas a força da correspondência, enquanto a "posição" sozinha controla a distância. Com o PoPE alcançando 95% de precisão, enquanto o RoPE ficaria preso em 11% na tarefa de Indexação Indireta