登陆注册

最强GPT

  • 长上下文能力只是吹牛?最强GPT-4o正确率仅55.8%,开源模型不如瞎蒙

    【新智元导读】当今的LLM已经号称能够支持百万级别的上下文长度,这对于模型的能力来说,意义重大。但近日的两项独立研究表明,它们可能只是在吹牛,LLM实际上并不能理解这么长的内容。大数字一向吸引眼球。千亿参数、万卡集群,——还有各大厂商一直在卷的超长上下文。从一开始的几K几十K,发展到了如今的百万token级别。Gemini的最新版本可以接收200万个token作为上下文。
    站长网2024-07-24 01:35:27
    0000