可以在应用的设计页面中调整 AI 模型的语气,主要调整三个参数: 模型温度# 模型温度(Model Temperature)是用于控制生成文本的随机性和多样性的参数。 较高的温度值(例如 1.0)会使生成的文本更加随机和多样化,可能包含更多的不确定性以及不太准确的答案。 较低的温度值(例如 0.2)会使生成的文本更具确定性,更接近模型在训练数据中的预测倾向。 Top P# Top P
是另一个用于控制生成文本的参数,模型会根据每个词汇的概率分布选择概率最高的前 P 个词汇作为采样的候选集。较小的 Top P 值(例如 0.1)会限制候选词汇的范围,使生成的文本更加集中和连贯。 较大的 Top P 值 (例如 0.9)会允许更多的词汇参与采样,从而增加文本的多样性。 这两个参数可以结合使用,以控制生成文本的随机性和准确性。通过调整模型温度和 Top P,可以根据具体需求调整生成文本的风格和多样性。 最大 Token 数# 最大 Token 数(Max Token)是指定生成文本最大长度的参数。在使用基于模型的生成系统时,设置最大 Token 数可以控制生成文本的长度,避免生成过长的回复,从而控制计算资源的使用。 在大型语言模型(LLM)中,文本通常以 Token 的形式表示,一个 Token 可以是一个单词、标点符号或字符,具体取决于模型的分词方法。 Max Token 的值指的是提示词(Prompt)及其对应的补全内容(Completion)的总 Token 数限制。当生成的补全内容的 Token 数达到指定的 Max Token 数时,模型将停止进一步生成。 设置 Max Token 值可用于控制生成文本的长度,以适应特定的应用场景或限制计算资源的使用。默认的 Max Token 长度为 4096 个字符,这也是 OpenAI 支持的最大 Token 数。也可以将 Max Token 设置为较小的值,以使生成的补全内容更短。 例如,如果我的 Prompt 已经使用了 4000 个 Token,那么补全内容最多只能有 96 个 Token 的长度。 修改于 2025-03-04 06:10:45