AI模型与设置
世界设置(WorldSettings)是你给AI下达的"工作说明书"——决定了它回复多长、多有创意、记忆力怎么样。
简单版
这些设置控制的是AI"怎么回复你"。你可以把它想象成给AI调音台——每个旋钮都影响输出的味道。但说实话,大部分情况下默认值就很好用,你完全不需要改任何东西。
如果非要动手,先认识两个最重要的旋钮:
temperature(创造力)——AI脑子里的"冒险精神":
0= 死板精确,每次给同样的输入都回一模一样的话。适合做计算器,不适合讲故事。1.0= 默认值,正常发挥,既有创意又不会胡说八道。2.0= 天马行空,可能冒出天才比喻,也可能蹦出一堆胡话。
推荐范围:0.7 - 1.0。写文学向的世界可以往上调,做机制严格的游戏就往下压。
maxTokens(回复长度上限)——AI单次回复最多能写多少token。1个token大约是1个汉字或半个英文单词。默认 12000,相当于6000-8000个汉字,足够写一篇短篇小说了。如果你觉得AI话太多,砍到4000-6000;如果你的世界需要超长叙事(比如多角色群戏),保持默认就好。
playerName(玩家名字)——默认是"User"。改成别的之后,提示词里所有的 {{user}} 宏都会替换成你设的名字。比如设成"旅行者",AI就会叫玩家"旅行者"。
就这三个,足够应付90%的情况了。等你跑了几轮测试、发现了具体问题(比如"AI太啰嗦"或"AI总是重复"),再回来翻详细版。
详细版
以下是 WorldSettings 的全部字段,按功能分组。标注"可选"的意思是你可以不填,引擎会用默认值或者干脆不传给AI。
核心生成参数
| 参数 | 类型 | 默认值 | 范围 | 说明 |
|---|---|---|---|---|
maxTokens | 整数 | 12000 | 正整数 | AI单次回复的最大token数。相当于给AI说"最多写这么多字" |
maxContext | 整数 | 200000 | 正整数 | 上下文窗口大小。聊天记录超过这个长度时,引擎会裁剪最早的消息。20万token对绝大多数模型绰绰有余——除非你用的是小窗口模型(比如8K的),否则不用改 |
采样参数
这些参数一起决定了AI"从候选词里怎么挑"。你可以把AI生成文本想象成不断从一袋彩球里摸球——这些参数控制袋子里放多少球、怎么摸。
| 参数 | 类型 | 默认值 | 范围 | 说明 |
|---|---|---|---|---|
temperature | 浮点数 | 1.0 | 0.0 - 2.0 | 创造力旋钮。越高越随机/有创意,越低越稳定可预测 |
topP | 浮点数 | 可选 | 0.0 - 1.0 | 核采样(nucleus sampling)。只从累计概率排前P%的候选词里选。比如 0.9 = 只看概率最高的那90%候选词,砍掉长尾的低概率词。和temperature互补——一个控制"多随机",一个控制"候选池多大"。一般改一个就够了,两个都大幅调容易翻车 |
topK | 整数 | 可选 | >=0 | 直接限制候选token数量。比如 topK=50 就是"你只能从最可能的50个词里挑"。不是所有模型都支持这个参数 |
minP | 浮点数 | 可选 | 0.0 - 1.0 | 最小概率阈值。概率低于这个值的候选词直接淘汰。比如 minP=0.05 就是说"概率低于5%的词不要"。比topK更智能——它按比例筛而不是按数量,所以在AI很"确定"的时候候选池自动缩小,在AI不确定的时候候选池自动放大 |
frequencyPenalty | 浮点数 | 可选 | -2.0 - 2.0 | 频率惩罚。正值减少AI重复用词——已经用过的词会被降权,用得越多降得越狠。如果AI老是车轱辘话来回说,试试设 0.3 - 0.5 |
presencePenalty | 浮点数 | 可选 | -2.0 - 2.0 | 存在惩罚。正值鼓励AI谈论新话题——只要某个词出现过(不管几次),就统一降一个权。和frequencyPenalty的区别:frequency看"用了几次",presence只看"用没用过" |
玩家与世界书
| 参数 | 类型 | 默认值 | 范围 | 说明 |
|---|---|---|---|---|
playerName | 字符串 | "User" | 任意 | 玩家名字。提示词里的 {{user}} 宏会替换成这个值 |
lorebookScanDepth | 整数 | 2 | 正整数 | 扫描最近几条消息来匹配世界书关键词。默认2就是只看最近2条。想要更深的上下文触发就调高,但太高会增加匹配开销。在编辑器的 Lorebook → Entry Settings 里可以修改 |
lorebookRecursionDepth | 整数 | 0 | 0 - 10 | 词条递归触发深度。0 = 不递归,只做一轮关键词匹配。设成 2 的话,被第一轮触发的词条内容会再扫一轮关键词,以此类推最多2层。适合做复杂的关联世界设定,但小心:递归太深可能把你的token预算吃光。在编辑器的 Lorebook → Entry Settings 里可以修改 |
lorebookBudgetPercent | 浮点数 | 100 | 0 - 100 | 世界书可以占用上下文的百分比。100 = 不限制 |
lorebookBudgetCap | 整数 | 0 | >=0 | 世界书token硬上限。0 = 不设上限 |
关于 lorebookBudgetPercent 和 lorebookBudgetCap
这两个参数目前在编辑器界面里没有暴露,使用默认值即可(不限制)。如果你确实需要调整,可以通过导出世界 JSON、手动编辑 settings 对象后再导入来修改。
UI与输出控制
| 参数 | 类型 | 默认值 | 说明 |
|---|---|---|---|
fullScreenComponent | 布尔 | false | 设为 true 时,自定义组件会接管整个屏幕。适合做完整的游戏界面(比如地下城探索、视觉小说),聊天窗口会让位给你的自定义UI |
structuredOutput | 布尔 | false | 设为 true 时,通过 response_format: { type: "json_object" } 要求AI返回JSON格式。适合需要严格解析AI输出的机制世界。注意:开了这个之后AI的回复不再是自然语言,而是JSON对象 |
高级设置
structuredOutput 目前在编辑器界面里没有暴露。如果你需要开启 JSON 模式,需要通过导出世界 JSON、在 settings 里手动加上 "structuredOutput": true 后再导入。这是一个面向进阶创作者的功能——大多数世界不需要它。
实用例子
例1:默认推荐配置(适合大多数世界)
什么都不改,直接用默认值:
json
{
"maxTokens": 12000,
"maxContext": 200000,
"temperature": 1.0,
"playerName": "User",
"lorebookScanDepth": 2,
"lorebookRecursionDepth": 0
}这就是"开箱即用"配置。temperature 1.0既不死板也不疯癫,maxTokens 12000够写长篇回复,世界书扫描最近2条消息。对于日常RP、故事互动、角色扮演来说完全够用。你甚至不需要手动写这段JSON——不设置就是这些默认值。
例2:严肃战略游戏(低随机性,高精确度)
你在做一个战棋/策略类世界,需要AI严格遵守规则,不要乱发挥:
json
{
"temperature": 0.5,
"topP": 0.9,
"frequencyPenalty": 0.2,
"maxTokens": 6000,
"playerName": "指挥官"
}temperature降到0.5让AI变得"听话",不会突然来一段抒情散文。topP 0.9进一步收窄选词范围。maxTokens砍到6000,因为战略游戏的回复通常不需要太长——简洁的战况报告比冗长的文学描写更合适。轻微的frequencyPenalty让AI不要重复说同样的战术分析。
例3:创意写作/文学风格(高创造力,鼓励新内容)
你在做一个诗意的探索类世界,希望AI的文笔华丽、充满想象力:
json
{
"temperature": 1.2,
"presencePenalty": 0.3,
"frequencyPenalty": 0.4,
"maxTokens": 12000,
"playerName": "旅人"
}temperature拉到1.2给AI更多"灵感"(但别超过1.5,否则容易语无伦次)。presencePenalty 0.3鼓励AI引入新话题和新意象,不要总围着同一个东西转。frequencyPenalty 0.4减少重复用词,让文字更丰富多变。这个配置下AI会写出更有文学感的回复,但偶尔也可能"用力过猛"——这是创造力的代价。
最后一句忠告: 如果你不确定该怎么调,就别调。默认值是经过平衡的,适合绝大多数世界。等你跑了几轮测试、发现了具体问题,再针对性地动一两个参数,远比一上来就全部改一遍要靠谱得多。