※ 引述《cgac (绯勇龙麻)》之铭言:
: 就一位实况主用付费版的GPT下去跑团.
: 用D&D5版规则.
: 可是当人物卡数值就跳了好几次.
: 身上没装备突然冒出装备.金钱突然暴增.
: 种族人类>>半兽人>不可名状(?)
: 实况主还要一直提醒AI才会修正.(大概就是GM 提出疑问 这样AI修正)
: 客栈是中式的对吧.结果客栈没卖中式餐点.隔壁酒楼老板夫妻是中式名子卖西式餐点....
: 同伴更好玩
: 职业狂跳 战士穿法袍结果变成德鲁伊 人物种族从人类一直跳半兽人 最后定位半兽人+半
: 精灵 第二位从半身人学者变成半身人森林游侠..
: 要去的目的地事件一直狂跳.跳到实况主跟观众差点要喊蓝蓝陆...
: 三小时时间初始地旅店(好吧是没卖中式餐点的客栈...)还走不出去..
: AI一直狂跳人物职业 目的地 伙伴状况也狂跳....看似无法继续下去的跑团结果最后
: AI都把剧情强制圆回来..
: 至于最后结果....付费版也有限制文本容量(太多人使用?) 我看到这里就先退了..
: 要把AI变成单人跑团看样子还要一段很长的路......
基本上就是记忆力(连结上下文能力)问题,
ChatGPT的记忆能力“据说”是4000个token 约= 3000个英文单词。
无论GPT3 API或者前天的GPT3.5 API也是这样,超过的连结不到就会跑设定,
就算你自己串API都不会得到比较好的结果,只是据说没有伦理限制而已。
那真的想这样玩“可能”可以怎么做?
1.未来GPT3.5API(ChatGPT API)会开放专业版,支援到16000个单词。
2.Open AI昨天宣布可以“微训练”GPT3了。
https://platform.openai.com/docs/guides/fine-tuning
通过提供以下内容,微调可让您从 API 提供的模型中获得更多收益:
比即时设计更高质量的结果
能够训练比提示中更多的例子
由于更短的提示而节省了代币
更低的延迟请求
GPT-3 已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示
时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成。这通常称为“小样本学
习”。
微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果
。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延
迟的请求。
在高层次上,微调涉及以下步骤:
准备和上传训练数据
训练新的微调模型
使用您的微调模型
当然,要钱wwwww