HiFox 帮助文档
  1. 其他资料
HiFox 帮助文档
  • 欢迎使用 HiFox
  • 探索应用商店
  • 创建 / 自定义应用
    • 创建应用
    • 对话智能体
    • 知识库
  • 应用集成
    • API 最佳实践
      • 接入火山引擎 DeepSeek API
      • 接入阿里云百炼 DeepSeek API
      • 接入硅基流动 DeepSeek API
      • 接入华为云 DeepSeek API
  • 其他资料
    • 调整 AI 模型语气
  • 条款
    • 服务条款
    • 隐私政策
    • 安全措施
  • 私有化部署
    • 私有化部署咨询
  • 常见问题
    • HiFox 中的 Credits 是什么?
    • 如果 AI 响应异常,会扣除 Credit 吗?
    • 如何查看 Credit 消耗记录?
    • 为什么我的账户被冻结了?
  1. 其他资料

调整 AI 模型语气

可以在应用的设计页面中调整 AI 模型的语气,主要调整三个参数:
1.
模型温度:控制文本的随机性和多样性
2.
Top P::控制生成文本的候选词汇范围
3.
最大 Token 数:控制生成文本的长度
调整 AI 模型语气

模型温度#

模型温度(Model Temperature)是用于控制生成文本的随机性和多样性的参数。
较高的温度值(例如 1.0)会使生成的文本更加随机和多样化,可能包含更多的不确定性以及不太准确的答案。
较低的温度值(例如 0.2)会使生成的文本更具确定性,更接近模型在训练数据中的预测倾向。
调整模型温度会影响生成文本的多样性和准确性。

Top P#

Top P是另一个用于控制生成文本的参数,模型会根据每个词汇的概率分布选择概率最高的前 P 个词汇作为采样的候选集。
较小的 Top P 值(例如 0.1)会限制候选词汇的范围,使生成的文本更加集中和连贯。
较大的 Top P 值(例如 0.9)会允许更多的词汇参与采样,从而增加文本的多样性。
这两个参数可以结合使用,以控制生成文本的随机性和准确性。通过调整模型温度和 Top P,可以根据具体需求调整生成文本的风格和多样性。

最大 Token 数#

最大 Token 数(Max Token)是指定生成文本最大长度的参数。在使用基于模型的生成系统时,设置最大 Token 数可以控制生成文本的长度,避免生成过长的回复,从而控制计算资源的使用。
在大型语言模型(LLM)中,文本通常以 Token 的形式表示,一个 Token 可以是一个单词、标点符号或字符,具体取决于模型的分词方法。
Max Token 的值指的是提示词(Prompt)及其对应的补全内容(Completion)的总 Token 数限制。当生成的补全内容的 Token 数达到指定的 Max Token 数时,模型将停止进一步生成。
设置 Max Token 值可用于控制生成文本的长度,以适应特定的应用场景或限制计算资源的使用。默认的 Max Token 长度为 4096 个字符,这也是 OpenAI 支持的最大 Token 数。也可以将 Max Token 设置为较小的值,以使生成的补全内容更短。
例如,如果我的 Prompt 已经使用了 4000 个 Token,那么补全内容最多只能有 96 个 Token 的长度。
修改于 2025-03-04 06:10:45
上一页
接入华为云 DeepSeek API
下一页
服务条款
Built with