第一个:Max tokens(最大令牌)
Max tokens决定了生成文本的最大长度。通过设置一个限制,可以控制AI说的内容,确保它不给出过长的答案。
示例:max_tokens = 50 - 如果你想要一个简短的回答,像是快速回答或推文。
这样对输出的内容做了字数的限制,只有50个字,你可以根据自己的需求进行字数的调整
图片
第二个:Top_p(控制采样)
此参数在0和1之间,控制核心采样,一种引入随机性的方法。
接近1.0的值使输出更加多样和随机, 接近0的值使其更加确定性。
示例:top_p = 0.8 - 如果你想在为新产品生成多个名称时得到多样的选项。
图片
第三个:Presence_penalty (阻止调整)
这个参数范围在-2.0至2.0之间,用来防止模型引入新的话题。值越高,会话将更加集中但可能较为乏味。
示例:presence_penalty = 0.6 - 如果你希望模型坚持讨论特定话题,如详细探讨某个具体项目。
图片
图片
第四个:Frequency_penalty (短语效应)
此参数的范围在-2.0至2.0之间,它用来防止模型使用常见的短语或回应。值越高,输出内容将更具创意,但可能减少连贯性。
示例:frequency_penalty = 1.0 - 如果你想生成一个口号或标语,并希望它是独特的,而不是常见的短语。
图片
第五个:Temperature(文风的温度)
使用较低温度生成的文本将更加集中和保守,而使用较高温度生成的文本则会更具创意和变化。温度的范围是从0到1。
- 温度 = 0:模型会产生最确定的输出,但可能显得重复或模板化。
- 0 < 温度 < 0.5:输出将倾向于较为稳定和保守,提供高度相关且一致的回应。
- 温度 = 0.5:产生的文本会有一个适中的平衡,既不过于随机也不过于保守。
- 0.5 < 温度 < 1:输出会更具创意和变化,但可能牺牲一些连贯性。
- 温度 = 1:模型会产生最大程度的创意和随机性,可能产生出奇不意的答案,但风险也更高。
实战中可以多个组合使用,比如
Temperature:0.7至1,以获得最大的创意和多样性。
Frequency_penalty:1至2,用于产生各种独特的短语和想法。
Max tokens:根据你所需的故事长度或场景进行设置。
带大家一起试试,
prompt:
我是数师兄,今天是我坚持连续写GPT方面的文章4个月了,希望大家能给一些打赏鼓励
Temperature=0.8
Frequency_penalty=1.8
Max tokens=200
ChatGPT的输出:
图片