我在一个新的对话窗口 投喂了一些相关资料,主要是关于股票类方面的。 一开始用着挺好不过用了两三天,开始出现幻觉 驴唇不对马嘴 对牛弹琴似的。 大家有这种情况么? 目前是 pro 版本
1
BeijingBaby 1 天前
都出现过,gemini ,豆包等,偶尔都会忘记上下文,乱说一通,得人为「纠正」。
|
2
haimall 1 天前
对话模式,不太适合知识库的用法。
|
3
crownz OP @BeijingBaby 看来是通病哈
|
4
crownz OP notebooklm 更好一点么?
|
5
haimall 1 天前
notebooklm notion 可能更优,然而 notebooklm 现在可以喂给 Gemini 啊
|
6
haimall 1 天前
|
7
gpt5 1 天前
对话巨长的时候,我还碰到过回答错位的情况,就是每次回答不是本次而是上次或上上次的问题。我问 gemini ,他说确实可能出现这种问题,最好再开一个对话。
|
8
haiku 1 天前 via Android
Gemini 网页版,上下文窗口比模型支持的最大窗口小很多,付费版好一些
都是为了降本 |
9
taohua1c 1 天前
别一直用一个窗口,我都是一个问题一个窗口 定时清理就好了
|
10
yarkyaonj 1 天前
是因为你开了其他窗口问了别的问题吧,现在好像会参考你问过所有的问题,在设置里面可以关闭的,叫 Your past chats with Gemini
|
11
locoz 1 天前
Gemini 的模型特性就是这样的,Ultra 会员的 Gemini 3 Pro 都救不了,无论是网页版还是其他地方的都这样。虽然它能支持极长的上下文,但它在上下文真正长了之后,注意力是不集中的,很容易就会出现丢三落四的情况。并且虽然你针对问之前的细节它能跟你说出来,但下一次对话只要还是上下文过长的状态,它就还是会遗漏之前说过的东西。
|
12
maichael 1 天前
用啥本质上都是一样的,因为上下文有大小限制+上下文越大注意力就越难以集中。
好的做法是预设一个基本的上下文(包括必要的限制、规则以及一些引导/案例等),每次以这个预设上下文开始做一件新的事情,让上下文尽可能短且有价值。 |
13
qieqie 1 天前
感觉 ai studio 里的才是满血版,网页 app 和 antigravity 里的 pro 不太聪明(限制了 reasoning level ),antigravity 里最近频频出现思考内容输出到 content 里,还有 AI 无法自己结束对话的问题。
|
14
aero99 1 天前
是的,而且是自相矛盾,以前 AI 还会认错,现在只有狡辩
现在最好的办法就是几个 AI 一起用,互相比照 |
15
lneoi 1 天前
上下文太多了吧,一多就上下文就得处理,处理下肯定有信息漏掉或者出现偏差了
|
16
Hasel 1 天前
上下文太多,被压缩了。压缩时候是有损,某些核心信息可能在压缩过程中会丢失。
|
17
elevioux 1 天前
这个叫做 context rot ,就是上下文越长(对话越长),AI 的回答质量越差,现阶段所有 AI 都有的通病。
所以要每个话题新开一个窗口,所以才要做上下文工程,所以才会有各种 agent 出现。 |
18
hammy 1 天前
遇到过
|
19
notwaste 1 天前 via iPhone
大家都在说上下文长度的问题,容易这个有没有一个标准,什么程度即使没达到模型上下文限制,也算上下文超标了
|
20
kloge 1 天前
gemini 尤其明显
|
21
COW 1 天前
agent 我是一个 session 只解决一个任务。
ask 我是在单独的 session 里问,问完就删,或者直接网页版。 |
22
thevita 1 天前
这些模型支持长上下文窗口多少都用了一些 Sliding Window, Chunked Window 之类的稀疏化技术,不然成本遭不住啊, 而且超长上下文的能力也不完全算原生的,一般都是 train short, test long, 没有那么多超长的训练语料, 这个过程也都可能带来损失
再从信息本身来讲,每个 head 的维度固定,但 attention 会加权所有的前文 token 的信息进来,应该也是存在信息瓶颈的(这纯粹是我自己瞎说的) |
23
zpxshl 1 天前 via Android
所有大模型都一样,gemini 尤其严重
|
24
geminikingfall 1 天前
gemini3 的幻觉比较严重
|
25
Meursau1T 1 天前
Gemini3 的幻觉率一骑绝尘:
deepseek-ai/DeepSeek-V3.2 6.3 % deepseek-ai/DeepSeek-R1 11.3 % google/gemini-3-flash-preview 13.5 % google/gemini-3-pro-preview 13.6 % 来源: https://github.com/vectara/hallucination-leaderboard |
26
frankies 1 天前
gemini 是稀疏 token ,上下文一多一定会胡说八道。解决办法:一个问题开一个对话,设置里关闭记录历史数据。
|
27
lscho 1 天前 via Android
现在 ai 编辑器都会显示当前对话上下文使用了多少,超了之后就乱了
|
29
3img 1 天前
gpt 只会拍马屁了
|
30
jqknono 1 天前
这是 llm 的召回率测试: https://fiction.live/stories/Fiction-liveBench-September-29-2025/oQdzQvKHw8JyXbN87
上下文窗口不是越大越好, 应尊重前提能记住. |
31
importmeta 1 天前
调用过接口我才知道,他们内部保留上下文都有一个限度的。
|
32
Stoney 1 天前 via iPhone
确实是,后面发的图片根本就不知道是什么图了,会拿之前发的图片分析一通
|
33
FengMubai 1 天前
Gemini 3 注意力非常涣散
|
34
Clancy1024 1 天前 via Android
@qieqie 是这样的,之前有大佬套过 Gemini APP 中的 prompt ,Google 利用 prompt 降智(引导 Gemini 尽可能缩短思考链且对自己的回复“变得自信”;哪怕是 Google One 会员也一样)
aistudio 几乎是满血版,api 绝大多数时候是满血 |
35
AoEiuV020JP 1 天前
很正常,所有模型上下文极限都不大,能无限聊天肯定是有压缩对话历史,每次压缩都会降智忘事,
|
37
pety 1 天前
和 lz 一样,用来做股票研究,一样的问题。
不知 lz 使用时,会不会用的一些提示词?有没有相关的提示词可以分享 😊 |
38
linkopeneyes 19 小时 51 分钟前
对话我一个对话窗口只会问一个问题,下一个问题就开新窗口问
|
39
whyso 19 小时 39 分钟前
ai 的通病,虽然有的可以压缩前面的对话,但是效果还是会打折扣
|
40
LPJD 19 小时 33 分钟前
连续对话,每次对话都会把之前所有聊天记录拼接到一块然后发送出去。一次对话大概 500 字,100 次对话之后,就是 5 万字了,每说一句话,就会发送 5 万字。超了 AI 记忆容量,就会丢掉旧的对话记录
|
41
lancelock 19 小时 27 分钟前
ai 就这样
|
42
tiezlk443 18 小时 47 分钟前
更像人了有遗忘的
|
43
zjl03505 17 小时 48 分钟前
甚至会出现对话截断,不催 事情做一半说要想想就不回复了
|
44
hafuhafu 15 小时 15 分钟前
超出上下文了呀。你在同一个会话里连续问答,实际上每次推理都会带上之前的全部聊天记录。几轮后就用掉很多上下文了,上下文窗口滑动了,前面的信息就丢掉了,有可能只有被截断的记录,自然会牛头不对马嘴。而且浪费 token 。
一般一个问题有长篇的回答,问个几轮就差不多了。别的问题应该让他总结精炼后换下一个会话里问。 |
45
wsbqdyhm 15 小时 12 分钟前
gemin 新出了一个 Gem 功能,是不是就是针对这个问题进行优化的?
|