因为用了个新技术
不可避免要反复修改尝试
改到第 3 还是第 4 次时候, ai 想放弃了
还找理由说新技术不成熟风险高, 建议放弃使用老技术
我坚决制止, 继续强烈要求它改动, 最后又坚持改了 3 轮, 终于调试成功
1
canyue7897 1 天前
不明觉厉
啥新技术现在的 ai 没学过? 目前的知识库都到 2025 年 12 月 除非是 1 月新出的技术? |
2
netabare 22 小时 17 分钟前 via Android 说到这个,我想到我让 AI 诊断某个 day 0 legacy 的时候,上来 AI 就给我说「 vite dev tool 可能不干净,HMR 很脆弱,你应该手写」然后折腾了几轮后我感觉不对劲直接中断然后反问他说「不干净」是否能搜到讨论,他推荐的浏览器插件方案是不是在 DOM 上更不干净。然后得出的结论是,整个问题一开始压根不是跟 vite dev tool 相关的。
第二天遇到奇怪的问题,问其他人,别人不知道什么地方出问题了并且回答我「我感觉你代码没问题啊」,然后我遇到一个很奇怪的响应式断掉的问题,并且断掉的方向很巧合的有种镜子的感觉。 然后我直接拿这个逻辑去质疑 AI 了: 这个链条是: -- 我拒绝 Chrome Devtool -> 我就要 HMR -> 我拒绝 Vite 的浏览器插件 -> 我就要自带的 vite dev tool -> 我拒绝「 vue 在 window 」 -> 我就要把 vue 收回来,所以我暴露了 component+mount/unmount -> 完美的镜面 bug 每一步,都是在逆着 LLM 被训练的偏好走。 如果从一开始我没有质疑、质疑、顶撞「 vite dev tool 真的是不干净的吗」和否定「浏览器插件」,那也许压根发现不了 bug ,连「这里有什么地方很不对劲」都不知道了。 然后我能分析出的唯一的结论就是大数原理和语料问题还有 LLM 天然倾向于打圆场做老好人而不是直接攻进问题核心区。并且这跟 LLM 倾向于一个 commit 在一行改动的同时引入三行无关参数和两行 trivial 注释是类似的。 不过我也在想,也许有问题的远远不止是 LLM 。 |
3
gongym 18 小时 32 分钟前 via Android
@netabare claude 内部是有哲学家每天和 claude 对话来修正大模型的性格的。所以 claude 的性格是调教出来的
|
4
bzj 11 小时 14 分钟前
不说具体什么模型,张嘴闭嘴就是 ai ,给人一种不太聪明的样子
|
5
netabare 7 小时 18 分钟前 via Android
@gongym 其实 Claude 和 GPT 我都有用,我感觉 Sonnet 不太行,因为跟我不管聊啥最后他的回答都越来越支离破碎。
我对三家 AI 的描述可能是这样的: GPT 比较容易跟我一起发散 Opus 比较冷 Gemini 有点墙头草 但无论哪种 persona ,在技术问题里我「越界」的时候都会有意无意把讨论往「大部分人能接受的方案」拉并且隐隐约约暗示我的思路不安全、有风险、应该用 POC 、项目规划啥的来 wrap 住,而哪怕是发散的 GPT 还是墙头草的 Gemini 都会在这点上表现得很像。 这种不是哲学家思维能解释的吧( |