好像不能连续对话

使用问题 · 715 次浏览
seabirdr 创建于 2023-03-19 22:03

试了几次,每次回答问题不会基于前面的内容


果然君2 2023-03-19 22:05 :

是的,目前不支持

回复内容
PirredeLu 2023-03-20 14:21
#1

连续对话只需要把上文再次发给chatGPT的API就行,可以参考下我写的这个 https://getquicker.net/Sharedaction?code=4268f4d5-079e-4797-5302-08db2327d866

果然君2 回复 PirredeLu 2023-03-21 00:21 :

这个上下文简单粗暴但的确管用

seabirdr 回复 PirredeLu 2023-03-21 19:08 :

谢谢,所以连续对话会非常耗费token

PirredeLu 回复 PirredeLu 2023-03-22 17:06 :

实际上,官方文档提到https://platform.openai.com/docs/guides/chat/introduction#:~:text=Including%20the%20conversation,in%20some%20way.  chatGPT没有记忆上下文的能力,所以要么把上下文放在Meassge字段里,但直接传递上下文也是一样的,现在的UI也基本都是按这个方法实现的,耗费token也没什么很好的办法

PirredeLu 回复 果然君2 2023-05-25 14:43 :

老哥,我又来打扰你了,这次是上下文和压缩token的建议。仔细看了看openai的文档,它提到role为“system”的时候,其内部消息是用来确定全文的基调。(补充:这个对gpt-3.5有效,gpt-3.5-turbo0301似乎不怎么关注system消息,更关注第一条role为user的message)。因此这个跟直接将上下文暴力发送还是有差别的(system的消息权重衰退没那么快)。此外,也可以发消息要求chatGPT压缩上文token(“请总结这段话的涵义,然后以你最大能力不丢失重要信息的情况下压缩这句话的长度”,一般不会丢失关键消息,也可以限制字数但不推荐)

果然君2 回复 PirredeLu 2023-05-25 16:01 :

我现在地做法就是发送所有文本作为prompt,这样比较简单一点,不用自己维护历史记录,上下文gpt也理解的还行。另外,压缩token我不太明白怎么做,也不知道压缩后会有什么影响,我的想法就是连续多次追问的话还是上官网吧,我一般最多追问3次就结束对话了。我也没细看过api文档,回头优化动作有新想法了再看看。




PirredeLu 回复 果然君2 2023-05-25 17:52 :

哈哈,我是最近在看这个文档,想起了这个回复,再补充一点信息。可以理解,每个人精力都有限,我也只是提供一点思路。

果然君2 回复 PirredeLu 2023-05-25 17:54 :

嗯,谢谢你的建议

回复主贴