PromptIntern:通过内部化提示知识优化大型语言模型推理效率
PromptIntern: Saving Inference Costs by Internalizing Recurrent Prompt during Large Language Model Fine-tuning 摘要 本文介绍了一种名为PromptIntern的新方法,旨在通过内部化重复的提示知识到模型参数中,以减少大型语言模型(LLMs)在推理过程中的计算负担。在
PromptIntern: Saving Inference Costs by Internalizing Recurrent Prompt during Large Language Model Fine-tuning 摘要 本文介绍了一种名为PromptIntern的新方法,旨在通过内部化重复的提示知识到模型参数中,以减少大型语言模型(LLMs)在推理过程中的计算负担。在