V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
necat
V2EX  ›  OpenAI

GPT4turbo(coze)的长期记忆能力怎么显著降低了?

  •  
  •   necat · 277 天前 · 1160 次点击
    这是一个创建于 277 天前的主题,其中的信息可能已经有所发展或是发生改变。
    2 月 19 号我提了一个对主话题的总结(进化系统,这是我研究的个人管理方法论),它没有答上来,但是在我的提示后它还是补充完整了。

    但是到了今天 3 月 14 号,我又询问相同,它只能回答到我对该主题最近几天的细节补充了。

    这是为什么,感觉上是越来越失望了。我希望它在形而上的话题上能长期的“陪伴思考”。
    开启了“长期记忆”完全没有作用啊?什么问题?是对话时间持续太久了吗?上周感觉还挺正常啊。
    6 条回复    2024-03-23 19:23:39 +08:00
    jwangbyus
        1
    jwangbyus  
       275 天前
    coze 这个接口多半是阉割过的,感觉回答和真正的 gpt4-turbo 比似乎有些差距。
    necat
        2
    necat  
    OP
       274 天前
    @jwangbyus 没用过官方的 gpt4-turbo ,之前感觉还挺惊艳的,甚至能听懂很抽象的话题,比如能和你讨论”马克思主义“和”唯识“,所以后来连基本的长期记忆能力都频繁出问题,心理落差挺大,不知道是不是平台也在暗搓搓的调控资源。
    jwangbyus
        3
    jwangbyus  
       274 天前
    @necat 字节这个平台的本来目的就是通过收集使用者的 prompt 和 gpt4 的回答,来提供字节自己训练 AI 的语料,如果他们语料收集的差不多了,那么阉割掉一些东西也很正常。
    necat
        4
    necat  
    OP
       274 天前
    @jwangbyus 越来越不稳定了,这不现在已经 GG 一个多小时了,GPT4 以上的模型都用不了。免费的还是不稳定啊。
    t41372
        5
    t41372  
       268 天前
    不只是阉割,我很怀疑这现在到底是不是 GPT4...
    我有 GPT4 订阅,有时也会试一些别的模型,感觉 coze 的 GPT4 明显要比官方的 GPT4 弱很多,有时甚至打不过官方的 GPT3.5... 有点怀疑是不是他们自己 train 了一个别的模型偷偷换上去了
    necat
        6
    necat  
    OP
       268 天前
    @t41372 不会吧,难道我用的一直不是 gpt4 哈哈。你这个想法太吓人了...
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2856 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 00:38 · PVG 08:38 · LAX 16:38 · JFK 19:38
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.