openAI 的 chat completions.create API 参数
参数名 | 描述 |
---|---|
model | 模型类型:gpt4等 |
prompt | 提示词 |
temperature | 影响随机性输出,值越高,越随机;值越低,输出越确定 |
max_tokens | 限制输出最大长度,以token为单位 |
suffix | 允许在输出文本后附加后缀的参数,默认null |
top_p | 核心抽样参数,模型将只考虑概率质量最高的token |
n | 决定每个提示生成多少个完整的输出 |
stream | 决定是否实时流式传输生成的token |
logprobs | 要求API 包括最有可能的token的对数概率的参数 |
echo | 如果设置为true,则会先提示外的生成内容 |
stop | 允许指定一个或者多个序列作为生成停止标志的参数 |
presence_penalty | 惩罚已经出现在文本中的新token的参数 |
frequency_penalty | 惩罚到目前为止在文本中频繁出现的token的参数 |
best_of | 要求服务器生成多个输出,并返回最佳的参数 |
logit_bias | 修改指定token出现概率的参数 |
user | 表示最终用户的唯一标识符的可选参数 |
本文作者:墨洺的文档
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!