大型语言模型(LLM)已成为一股变革力量,对医疗保健、金融和法律服务等行业产生了重大影响。 例如,最近的一项研究显示 麦肯锡发现,金融领域的一些企业正在利用 LLM 自动执行任务和生成财务报告。
此外,LLM 可以处理和生成人类质量的文本格式,无缝翻译语言,并为复杂的查询提供翔实的答案,甚至在利基科学领域也是如此。
本博客将讨论 LLM 的核心原理,并探讨如何通过微调这些模型来释放其真正的潜力,从而推动创新和提高效率。
LLM 如何工作: 预测序列中的下一个单词
LLM 是数据驱动的强大工具。 它们在海量文本数据(包括书籍、文章、代码和社交媒体对话)的基础上接受训练。 这些训练数据使 LLM 接触到人类语言的复杂模式和细微差别。
这些 LLM 的核心是一个复杂的神经网络架构,称为 transformer.将transformer视为一个复杂的连接网络,可以分析句子中单词之间的关系。 这使得 LLM 能够理解每个单词的上下文,并预测序列中最有可能出现的单词。
可以这样考虑:您为 LLM 提供了一个句子,如”The cat sat on the…” 根据训练数据,LLM 可以识别上下文(”The cat sat on the“),并预测出后面最可能出现的单词,如”mat“。 通过这种顺序预测过程,LLM 可以生成整个句子、段落,甚至是创造性的文本格式。
LLM 核心参数: 微调 LLM 输出
现在我们已经了解了 LLM 的基本工作原理,下面让我们来探索控制面板,其中包含用于微调 LLM 输出的参数。 微调 他们的创意输出。 通过调整这些参数,您可以引导 LLM 生成符合您要求的文本。
1. 温度
将温度想象成控制 LLM 输出随机性的刻度盘。 高温设置会注入一定的创造力,鼓励 LLM 探索可能性较低但可能更有趣的单词选择。 这可能会产生令人惊讶和独特的结果,但也会增加出现无意义或不相关文本的风险。
相反,低温设置可使 LLM 专注于最可能出现的单词,从而产生更可预测但可能是机器人的输出结果。 关键是要在创造性和连贯性之间找到平衡,以满足您的特定需求。
2. Top-k
Top-k 取样就像一个过滤器,限制 LLM 从所有可能的词中选择下一个词。 相反,它会根据前面的上下文将选项限制在前 k 个最有可能的词上。 这种方法通过引导 LLM 远离完全不相关的单词选择,帮助 LLM 生成重点更突出、更连贯的文本。
例如,如果您指示 LLM 写一首诗,那么使用 k 值较低的 top-k 采样(例如 k=3)将促使 LLM 选择与诗歌相关的常用词,如”爱“、”心“或”梦“,而不是偏离 “计算器 “或 “经济学 “等不相关的术语。
3. Top-p
Top-p 取样方法略有不同。 它不是将选项限制在固定数量的词上,而是设定一个累积概率阈值。 然后,LLM 只考虑该概率阈值内的单词,确保多样性和相关性之间的平衡。
假设您希望 LLM 撰写一篇关于人工智能(AI)的博文。 Top-p 采样允许您设置一个阈值,以捕捉最有可能与人工智能相关的词语,如”机器学习“和”算法”。 不过,它也允许探索可能性较低但可能具有洞察力的词语,如”伦理“和”限制“。
4.标记符限制(Token Limit)
将标记想象成一个单词或标点符号。 通过标记限制参数,您可以控制 LLM 生成的标记总数。 这是确保 LLM 生成的内容符合特定字数要求的重要工具。 例如,如果您需要 500 字的产品描述,您可以相应地设置标记限制。
5. 停止序列
对于 LLM 来说,停止序列就像魔法词。 这些预定义的短语或字符会提示 LLM 停止文本生成。 这对于防止 LLM 陷入无休止的循环或偏离正题特别有用。
例如,您可以将停止序列设置为”END“,以指示 LLM 在遇到该短语时终止文本生成。
6. 屏蔽辱骂性词语
屏蔽辱骂性词语 “参数是一项重要的保障措施,可防止本地语言管理器生成攻击性或不恰当的语言。 这对于维护各种业务的品牌安全至关重要,尤其是那些严重依赖公共交流的业务,如营销和广告公司、客户服务等。
此外,屏蔽辱骂性词语可引导 LLM 生成具有包容性和责任感的内容,这也是当今许多企业日益重视的问题。
通过了解和尝试这些控制措施,各行各业的企业可以利用 LLM 制作高质量、有针对性的内容,以引起受众的共鸣。
超越基础: 探索 LLM 的其他参数
虽然上文讨论的参数为控制 LLM 输出奠定了坚实的基础,但还可以使用其他参数对模型进行微调,以获得更高的相关性。 下面是几个例子:
- 频率惩罚:该参数阻止 LLM 过多地重复相同的单词或短语,从而促进写作风格更加自然和多变。
- 存在惩罚:它阻止 LLM 使用提示中已经存在的单词或短语,鼓励 LLM 生成更多原创内容。
- No Repeat N-Gram:此设置限制 LLM 生成已在生成文本的特定窗口中出现过的单词序列(n-grams)。它有助于防止重复模式,并使流程更加流畅。
- Top-k过滤:这项先进的技术结合了顶k采样和核采样(top-p)。 它允许您限制候选词的数量,并在这些选项中设置最小概率阈值。 这样就能更精细地控制 LLM 的创意方向。
尝试并找到正确的设置组合,是充分释放 LLM 潜力以满足特定需求的关键。
LLM 是功能强大的工具,但通过微调温度、top-k 和 top-p 等核心参数,可以释放其真正的潜力。 通过调整这些 LLM 参数,您可以将您的模型转变为多功能的业务助手,能够生成符合特定需求的各种内容格式。
(机器翻译,轻度译后编辑,仅供参考)
编辑:胡跃