V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  bwnjnOEI  ›  全部回复第 4 页 / 共 4 页
回复总数  70
1  2  3  4  
2025 年 11 月 3 日
回复了 YanSeven 创建的主题 问与答 为什么 LLM 这么喜欢表情符号,尤其是 GPT
不出意外应该是 oai 开的头,researcher 觉得这样很好但感觉有时候挺 sb 的,谁让人家牛 b 呢
2025 年 11 月 3 日
回复了 wenyong3124 创建的主题 游戏 昨天的 TES 被 T1 零封抽陀螺,你们怎么看?
给 t1 队员都打笑了
2025 年 11 月 1 日
回复了 luckycloves 创建的主题 英雄联盟 AL VS SKT 兄弟们 LPL 最后的牌面了 2:1 了
第五把 t1 选完下路双人,tabe 下台时表情就不好了。
2025 年 11 月 1 日
回复了 youzhiqing 创建的主题 分享发现 如何修改 X 算法推荐
没懂
2025 年 11 月 1 日
回复了 qdwang 创建的主题 问与答 目前医疗类 AI 哪个最好?
我觉得 aq 很拉,蚂蚁买完好大夫,好好的数据就这么浪费了,其他的国内没用过,考虑个人隐私这方面不打算用国内的(比如上传化验报告懒得/忘记去名字还是把个人信息给大洋对面)。感觉还是 chatgpt 好用,开源的话就 medgemma27b 消费级也能部署。
2025 年 11 月 1 日
回复了 scim 创建的主题 问与答 wxauto 也归档了,大家怎么看
这种东西出来一个腾讯就会清除一个,我比较好奇他们都是怎么找到作者的,这比翻墙协议作者还严重吗
@Saunak 现在官方店都是 5090d v2 吧,官方店好像只有超级雕有 d
@Saunak 电源黑匣子吗? 1600w 够了吧,尽可能买贵的,用显卡带的线安装时最好拍个视频(虽然也没啥用 要是不放心再上个稳压器或者 ups 之类的(其实没啥大用 显卡待机也就 2 3 十瓦 你跑模型多说飙到 100w (我说的是推理,我微调或者 rl 都用实验室的卡或者买 gpu 云
买新不买旧啊,那个 48g 的我也心动过,但是毕竟改装卡。只要是 moe 架构的模型都可以把专家权重卸载到 cpu 只把前 n 曾放在 gpu flash-atten kv 都不用设 q8 也就是说 60g 以内的模型在权衡质量和 tps 和预算的情况下你都能跑 gpt-oss-120b qwen3-30b ,4090 也能到 20-25tps ,当然还能优化
2025 年 10 月 29 日
回复了 coefu 创建的主题 Local LLM llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
ollama 就是给小白用的,每次有新模型 ollama 都是等 llama.cpp 有了才更新。llama.cpp 就是单卡最强,多卡就 vllm or sglang
1  2  3  4  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1054 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms · UTC 23:14 · PVG 07:14 · LAX 16:14 · JFK 19:14
♥ Do have faith in what you're doing.