长上下文模型的“Token Counts”是一个关于内容长度的误导性度量。对于代码:100K Claude Tokens 大约等于 85K gpt-4 Tokens100K Gemini Tokens 大约等于 81K gpt-4 Tokens100K Llama Tokens 大约等于 75K gpt-4 TokensOpenAI 的 128K 上下文窗口比看上去能走得更远。