1
taotaodaddy 36 天前
换个思路:
使用 librechat ,我试过了,复制出来的内容带 markdown 格式的,举例: 1. **计算数组中所有数字的总和:** ```javascript ...省略 ``` |
2
LoneFireBlossom OP @taotaodaddy #1 我合租的,用不了 ChatGPT 的 api
|
3
wolfie 36 天前
有时候,越问越上火。
说 gpt 回答错了时候,就开始长篇大论重新回复,经常转移话题,反复叠甲跟应激了一样。 |
4
Edwardlyz 36 天前 3
试试新开一条回复,然后给一些问答的例子,来纠正 GPT 本身的 bias ;比如给一些简短的 QA ,然后回答是不经过渲染的 markdown ;尽量避免对 AI 说不要 xxx ,在 tokenize 过程中,反而会误解为要 XXX ,所以给例子让他学是最快的。
|
5
kaichen 36 天前
大模型是个概率模型,你骂他,和他讲反例,只会把概率引导到更加不符合你需求的结果
另外,由于上下文有限,你聊越久前面的内容会遗忘,或者注意力大幅降低 |
6
potatowish 36 天前 via iPhone 1
这是前端强制渲染了,你用 F12 看看 EventStream ,返回结果就是 markdown 格式。你再把提示词中的 markdown 换成 html 就会发现它会直接输出 html 源码
|
7
ywkk 35 天前 1
在指责大模型之前,不妨先反思一下自己在沟通和表达方式上的问题。说话要清晰友善,不要动不动就用反问句,对方无法读心,无论是人还是大模型都一样。现实生活中,很多人也习惯用反问语气来指责他人,但这种方式往往只会让人心生反感,进一步导致沟通失效,无法达到有效交流的目的。
|
8
LoneFireBlossom OP @ywkk #7 有什么证据证明用清晰友善的话语跟大模型说话更有效果?我倒是看到以前有好些报道说应该 PUA 大模型才能让他出力。
|
9
wavingclear 35 天前
之前我也观察到了,大模型自己不知道输出有没有被渲染。换位思考下你会发现大模型是个缸中之脑,他不知道怎么关外面的自动渲染。
|