V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  babyedi31996  ›  全部回复第 2 页 / 共 3 页
回复总数  56
1  2  3  
48 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@loading 没有没有,只是 AI 角色扮演聊天,最多就是 tts 出语音和 sd 生个表情图而已
48 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@adwords 买的有审查,不能好好的瑟瑟
48 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@rus4db 这位大佬,我之前就是用 gguf 的 13b 量化 5,只能说爆显存之后速度乌龟好惨...
49 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@iorilu 快事不可能有 GPU 快,但是起码能打开,而且肯定比 CPU 跑快呀,70b
49 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan 4 个 2080ti 22g 整个巨物在家,不太合适啊.而且带宽是显卡的那个东西吗?请教下
49 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@lsearsea 4090 也就 24G 显存,够干啥的唉
49 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@fulajickhz 不是,这只是个客户端对接,不是本地部署模型阿
一步到位 immich,免费开源又稳定,AI 还能对接其他设备来运算.

我亲测使用几个月了,更新也很效率,也支持 live photo
49 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@YooboH 不是什么从业者,深度学习的问题.玩家想本地跑 llm...现在的大模型都有审查,没法玩最好玩的部分阿
49 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@mumbler 这几天新出的 M4 Mac Mini 有 64G 版本,17000 左右能上 64G 网 10Gb 的,有搞头吗?

能跑量化的 70b 吗
个人觉得这压根就不是什么高科技的东西,就是看谁舍得堆料和设计.
比如什么刷牙时间多少秒上颚,震动一下通知换边,有些还有显示屏,有灯来提醒.
我自己用过飞利浦和现在用的博朗,上千块感觉真的智商税...
下次坏了直接买个 2 3 百的国产的算了
58 天前
回复了 ValerioAlex084 创建的主题 NAS 兜兜转转一圈还是选择了 Immich 存照片了
@fenildf NAS 白群性能实在太弱了,黑群应该可以,但是没必要了
197 天前
回复了 HOMO114514 创建的主题 NAS Jellyfin 的客户端总结
看见很多人推 plex 终身版,我也买过.不到一年就不能用了.店家也跑路了
不知道是商家还是真能用这么久?
200 天前
回复了 ValerioAlex084 创建的主题 NAS 兜兜转转一圈还是选择了 Immich 存照片了
我也是,immich 是我用过所有相册应用最强的.
速度快,AI 识别准确.我自己有白群晖,都是 SMB 分享 homes 出去只读,然后让 immich 获取分析相册.
这样就不用在 immich 重建相册,备份也很安全.
而且 immich 可以用远程服务器的 GPU 来识别人脸和视频解码,这个实在太爽.NAS 性能一般都比较弱,平时开电脑,就用主力电脑运算 immich 的缩略图什么的
@tianzi123 呃,tt 原来是不入流的么...我一直以为是大品牌
@he1293024908 完全没问题的,ROS 设置了科学掉线直接切回去的.而且不是所有设备都会经过科学,只有指定的
@tianzi123 电源 TT 的很靠谱了啊,450w 够了吧?固态梵想...很好了啊
@WuDiHaiTai 怕容易坏,折腾起来麻烦啊
1  2  3  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3108 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 13:07 · PVG 21:07 · LAX 05:07 · JFK 08:07
Developed with CodeLauncher
♥ Do have faith in what you're doing.