V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
crownz
V2EX  ›  Google

gemini 一个对话窗口用久了 胡说八道?

  •  
  •   crownz · 1 天前 · 5294 次点击

    我在一个新的对话窗口 投喂了一些相关资料,主要是关于股票类方面的。 一开始用着挺好不过用了两三天,开始出现幻觉 驴唇不对马嘴 对牛弹琴似的。 大家有这种情况么? 目前是 pro 版本

    45 条回复    2025-12-26 14:08:54 +08:00
    BeijingBaby
        1
    BeijingBaby  
       1 天前
    都出现过,gemini ,豆包等,偶尔都会忘记上下文,乱说一通,得人为「纠正」。
    haimall
        2
    haimall  
       1 天前
    对话模式,不太适合知识库的用法。
    crownz
        3
    crownz  
    OP
       1 天前
    @BeijingBaby 看来是通病哈
    crownz
        4
    crownz  
    OP
       1 天前
    notebooklm 更好一点么?
    haimall
        5
    haimall  
       1 天前
    notebooklm notion 可能更优,然而 notebooklm 现在可以喂给 Gemini 啊
    haimall
        6
    haimall  
       1 天前
    gpt5
        7
    gpt5  
       1 天前
    对话巨长的时候,我还碰到过回答错位的情况,就是每次回答不是本次而是上次或上上次的问题。我问 gemini ,他说确实可能出现这种问题,最好再开一个对话。
    haiku
        8
    haiku  
       1 天前 via Android
    Gemini 网页版,上下文窗口比模型支持的最大窗口小很多,付费版好一些
    都是为了降本
    taohua1c
        9
    taohua1c  
       1 天前
    别一直用一个窗口,我都是一个问题一个窗口 定时清理就好了
    yarkyaonj
        10
    yarkyaonj  
       1 天前
    是因为你开了其他窗口问了别的问题吧,现在好像会参考你问过所有的问题,在设置里面可以关闭的,叫 Your past chats with Gemini
    locoz
        11
    locoz  
       1 天前
    Gemini 的模型特性就是这样的,Ultra 会员的 Gemini 3 Pro 都救不了,无论是网页版还是其他地方的都这样。虽然它能支持极长的上下文,但它在上下文真正长了之后,注意力是不集中的,很容易就会出现丢三落四的情况。并且虽然你针对问之前的细节它能跟你说出来,但下一次对话只要还是上下文过长的状态,它就还是会遗漏之前说过的东西。
    maichael
        12
    maichael  
       1 天前
    用啥本质上都是一样的,因为上下文有大小限制+上下文越大注意力就越难以集中。

    好的做法是预设一个基本的上下文(包括必要的限制、规则以及一些引导/案例等),每次以这个预设上下文开始做一件新的事情,让上下文尽可能短且有价值。
    qieqie
        13
    qieqie  
       1 天前
    感觉 ai studio 里的才是满血版,网页 app 和 antigravity 里的 pro 不太聪明(限制了 reasoning level ),antigravity 里最近频频出现思考内容输出到 content 里,还有 AI 无法自己结束对话的问题。
    aero99
        14
    aero99  
       1 天前
    是的,而且是自相矛盾,以前 AI 还会认错,现在只有狡辩
    现在最好的办法就是几个 AI 一起用,互相比照
    lneoi
        15
    lneoi  
       1 天前
    上下文太多了吧,一多就上下文就得处理,处理下肯定有信息漏掉或者出现偏差了
    Hasel
        16
    Hasel  
       1 天前
    上下文太多,被压缩了。压缩时候是有损,某些核心信息可能在压缩过程中会丢失。
    elevioux
        17
    elevioux  
       1 天前
    这个叫做 context rot ,就是上下文越长(对话越长),AI 的回答质量越差,现阶段所有 AI 都有的通病。

    所以要每个话题新开一个窗口,所以才要做上下文工程,所以才会有各种 agent 出现。
    hammy
        18
    hammy  
       1 天前
    遇到过
    notwaste
        19
    notwaste  
       1 天前 via iPhone
    大家都在说上下文长度的问题,容易这个有没有一个标准,什么程度即使没达到模型上下文限制,也算上下文超标了
    kloge
        20
    kloge  
       1 天前
    gemini 尤其明显
    COW
        21
    COW  
       1 天前
    agent 我是一个 session 只解决一个任务。
    ask 我是在单独的 session 里问,问完就删,或者直接网页版。
    thevita
        22
    thevita  
       1 天前
    这些模型支持长上下文窗口多少都用了一些 Sliding Window, Chunked Window 之类的稀疏化技术,不然成本遭不住啊, 而且超长上下文的能力也不完全算原生的,一般都是 train short, test long, 没有那么多超长的训练语料, 这个过程也都可能带来损失
    再从信息本身来讲,每个 head 的维度固定,但 attention 会加权所有的前文 token 的信息进来,应该也是存在信息瓶颈的(这纯粹是我自己瞎说的)
    zpxshl
        23
    zpxshl  
       1 天前 via Android
    所有大模型都一样,gemini 尤其严重
    geminikingfall
        24
    geminikingfall  
       1 天前
    gemini3 的幻觉比较严重
    Meursau1T
        25
    Meursau1T  
       1 天前
    Gemini3 的幻觉率一骑绝尘:
    deepseek-ai/DeepSeek-V3.2 6.3 %
    deepseek-ai/DeepSeek-R1 11.3 %
    google/gemini-3-flash-preview 13.5 %
    google/gemini-3-pro-preview 13.6 %

    来源: https://github.com/vectara/hallucination-leaderboard
    frankies
        26
    frankies  
       1 天前
    gemini 是稀疏 token ,上下文一多一定会胡说八道。解决办法:一个问题开一个对话,设置里关闭记录历史数据。
    lscho
        27
    lscho  
       1 天前 via Android
    现在 ai 编辑器都会显示当前对话上下文使用了多少,超了之后就乱了
    zmazon
        28
    zmazon  
       1 天前
    @frankies #26 是关闭 设置里的 “活动记录”,还是“个人使用场景”?
    3img
        29
    3img  
       1 天前
    gpt 只会拍马屁了
    jqknono
        30
    jqknono  
       1 天前
    这是 llm 的召回率测试: https://fiction.live/stories/Fiction-liveBench-September-29-2025/oQdzQvKHw8JyXbN87

    上下文窗口不是越大越好, 应尊重前提能记住.
    importmeta
        31
    importmeta  
       1 天前
    调用过接口我才知道,他们内部保留上下文都有一个限度的。
    Stoney
        32
    Stoney  
       1 天前 via iPhone
    确实是,后面发的图片根本就不知道是什么图了,会拿之前发的图片分析一通
    FengMubai
        33
    FengMubai  
       1 天前
    Gemini 3 注意力非常涣散
    Clancy1024
        34
    Clancy1024  
       1 天前 via Android
    @qieqie 是这样的,之前有大佬套过 Gemini APP 中的 prompt ,Google 利用 prompt 降智(引导 Gemini 尽可能缩短思考链且对自己的回复“变得自信”;哪怕是 Google One 会员也一样)
    aistudio 几乎是满血版,api 绝大多数时候是满血
    AoEiuV020JP
        35
    AoEiuV020JP  
       1 天前
    很正常,所有模型上下文极限都不大,能无限聊天肯定是有压缩对话历史,每次压缩都会降智忘事,
    wsbqdyhm
        36
    wsbqdyhm  
       1 天前 via iPhone
    @maichael #12 具体怎么执行?
    pety
        37
    pety  
       1 天前
    和 lz 一样,用来做股票研究,一样的问题。

    不知 lz 使用时,会不会用的一些提示词?有没有相关的提示词可以分享 😊
    linkopeneyes
        38
    linkopeneyes  
       19 小时 51 分钟前
    对话我一个对话窗口只会问一个问题,下一个问题就开新窗口问
    whyso
        39
    whyso  
       19 小时 39 分钟前
    ai 的通病,虽然有的可以压缩前面的对话,但是效果还是会打折扣
    LPJD
        40
    LPJD  
       19 小时 33 分钟前
    连续对话,每次对话都会把之前所有聊天记录拼接到一块然后发送出去。一次对话大概 500 字,100 次对话之后,就是 5 万字了,每说一句话,就会发送 5 万字。超了 AI 记忆容量,就会丢掉旧的对话记录
    lancelock
        41
    lancelock  
       19 小时 27 分钟前
    ai 就这样
    tiezlk443
        42
    tiezlk443  
       18 小时 47 分钟前
    更像人了有遗忘的
    zjl03505
        43
    zjl03505  
       17 小时 48 分钟前
    甚至会出现对话截断,不催 事情做一半说要想想就不回复了
    hafuhafu
        44
    hafuhafu  
       15 小时 15 分钟前
    超出上下文了呀。你在同一个会话里连续问答,实际上每次推理都会带上之前的全部聊天记录。几轮后就用掉很多上下文了,上下文窗口滑动了,前面的信息就丢掉了,有可能只有被截断的记录,自然会牛头不对马嘴。而且浪费 token 。
    一般一个问题有长篇的回答,问个几轮就差不多了。别的问题应该让他总结精炼后换下一个会话里问。
    wsbqdyhm
        45
    wsbqdyhm  
       15 小时 12 分钟前
    gemin 新出了一个 Gem 功能,是不是就是针对这个问题进行优化的?
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   876 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 21:20 · PVG 05:20 · LAX 13:20 · JFK 16:20
    ♥ Do have faith in what you're doing.