群友分享Papers
Prompt Repetition Improves Non-Reasoning LLMs
<https://arxiv.org/pdf/2512.14982>
在不使用推理模式的情况下,重复输入提示词能够提升主流模型(Gemini、GPT、Claude、DeepSeek)的表现,且不会增加生成 token 数量或推理延迟。
- 提示词重复:LLM 通常以因果语言模型的方式训练,即过去的 token 无法关注到未来的 token。因此,用户查询中 token 的排列顺序会影响预测性能。例如,"选项在前、问题在后"的查询形式与"问题在前、选项在后"的形式往往表现不同(见图 1)。我们提出重复提示词的方法:将输入从单次提示词转换为重复两次的形式。这使得每个提示词 token 都能关注到其他所有提示词 token,从而解决上述问题。在不使用推理模式时,提示词重复能够提升 LLM 的性能(图 1),且不会增加生成输出的长度或推理延迟。
贡献者
longsizhuo贡献 1 次 · 最近 2026/05/06
TinyAlmond贡献 1 次 · 最近 2026/04/09
Mira190贡献 1 次 · 最近 2026/04/01
CeitherNSW贡献 1 次 · 最近 2026/03/05
这篇文章有帮助吗?
最近更新
Involution Hell© 2026 byCommunityunderCC BY-NC-SA 4.0
LeWorldModel
LeWorldModel(LeWM)提出仅用两项损失函数(下一嵌入预测损失+高斯正则项)即可从原始像素端到端稳定训练联合嵌入预测架构(JEPA),将可调超参数从六个降至一个。1500万参数模型在单GPU上数小时完成训练,规划速度比基础模型世界模型快48倍,在2D/3D控制任务中保持竞争力。适合研究世界模型、隐空间表征及高效强化学习的AI/CS从业者与求职者。
学生邮箱能免费领的AI提效工具系列
学生邮箱免费领取的AI提效工具系列,详解Perplexity Comet、Cursor、V0.dev三款产品的高频使用技巧,覆盖AI搜索、代码生成与前端开发场景,适合在校学生、求职开发者及想用免费资源提升效率的CS/AI学习者。