V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  mumbler  ›  全部回复第 11 页 / 共 96 页
回复总数  1908
1 ... 7  8  9  10  11  12  13  14  15  16 ... 96  
@xoxo419 当然可以,8B 模型只需要 6G 内存,有 M 芯片加持,速度飞快,mac 包刚刚通过苹果做审核,现在可以下载了
@wanghui22718 下载也是用户体验的一部分,我们初心就是极致的大模型本地部署体验,在任何电脑上开箱即用,不依赖环境,不用具备相关技术知识,all in one
@sunnysab 从零训练一个大模型,是很贵的,开源模型的大爆发就是从 llama 发布开始的,如果 qwen2 是从 0 训练的,也应该跟 1.5 一样有 14B ,32B 这些参数,为什么没有? 因为 llama3 没有
@DaiShu888 正在上传,很快就好
@yekern 赶紧再微调一个 3.1 的,基座比 3 强了不少
@walkingmoonwell 知识库已经很成熟了,可以用 flashai 免费体验一下,硬件有个 gpu 体验更好
@jeffwcx
llama2 有 7b 13b 33b 70b,qwen1.5 有 7b,14b,34b,72b
llama3 有 8b 70b,qwen2 有 7b ,72b
是不是一样的
@gzlock ollama 只是一个命令行,要用图形界面需要安装 webui ,要用知识库需要安装 anything ,对普通人太麻烦,flashai 底层也是 ollama ,集成了图形界面,知识库,不用一个个去安装了,更方便不是吗
@B4a1n 官方没有说正式支持中文,可能中文语料训练得少,国产模型大都基于 llama3 训练的,很快会出来一堆。10B 以下模型里中文能力目前最好的是 gemma2 9B ,英翻中特别厉害
清空 app 缓存就行了,屡试不爽
@SWALLOWW #8 不知道怎么选择,无脑选 gemma2 9B 就行了,中文能力,逻辑能力都一流,特别翻译能力超过 qwen2 ,各种模型排行榜可以看 https://chat.lmsys.org/?leaderboard
@tailaqumos #5 可以全部提供,包括 AI ,知识库,向量索引的 api ,我们正在做一个框架,方便启动 api 开发的应用
云端 AI 翻译长文档都比较贵,要几十到几百不等
可以用本地大模型翻译,gemma2 9B 翻译效果非常好,下载一个 flashai 就可以了,自带本地大模型和文档翻译功能,开箱即用
flashai.com.cn
@iorilu #2 一个包一个模型,需要哪个启动哪个,这个设计是为了做到开箱即用,否则还涉及到下载模型操作,其实 r 软件不大,模型大小占包 90%以上
@creazyrabbit #1 gamme2 9B 翻译超强,比 qwen2,llama3 都强得多,跟 deepl 没有肉眼区别
130 天前
回复了 aolifu 创建的主题 奇思妙想 想搞一个共享卫生间,一起聊聊?
抄袭滴滴拉屎的创意
用大模型写代码,可以在只懂 PHP 基础的情况下快速写出来,小项目一下午就能搞定
1 ... 7  8  9  10  11  12  13  14  15  16 ... 96  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2784 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 45ms · UTC 05:52 · PVG 13:52 · LAX 21:52 · JFK 00:52
Developed with CodeLauncher
♥ Do have faith in what you're doing.