请教下各位 V 友,新款 MacBook Pro 14inch ,M 2 Max ( 12 核 CPU 、30 核 GPU 、16 核 NPU )+32G 内存+1TB 固态硬盘的配置,普通编程+本地大模型训练、学习、研究的需求够用吗?是否还需要升级配置到 38 核 GPU ?或者更大的内存?
1
liprais 2023-03-30 10:21:41 +08:00
32g 大概只能用到 11g 给 gpu,玩大模型老老实实 4090
|
2
zhaidoudou123 2023-03-30 10:37:52 +08:00
没 CUDA 真能用吗?
|
3
JoshuaBen 2023-03-30 10:44:39 +08:00
大模型老老实实上超算集群。。
|
4
WenjieYe 2023-03-30 10:57:43 +08:00 6
笑死 拿笔记本训大模型,还是 MacBook……
|
5
Tearia 2023-03-30 10:59:02 +08:00 1
能问出这个问题的 真的入门了深度学习了吗? 开源代码都是 cuda ,难道你还全部改一遍 然后本地跑个几天几夜? 有这钱直接找个算力平台冲了就完了。
|
6
chendy 2023-03-30 11:01:10 +08:00
专业的事情交给专业工具
mac 这方面专业不对口 |
7
lrigi 2023-03-30 11:01:22 +08:00 via iPhone
@liprais 4090 的 24G 显存捉襟见肘,模型一大根本放不进去。我反倒觉得 MacBook64GB/96GB 内存倒是一个很好的选择,虽然只有目前的卡几分之一的性能,但是显存堪比 A100 。为什么 32G 只能给 11GB 到 GPU ,这是系统的限制吗?我看人家 8GB 内存的 m2mini 甚至都可以跑不止 8G 显存的模型?也许是我记错了?我最近也想买 64G 的跑 llama
|
8
Philippa 2023-03-30 11:01:47 +08:00 1
别闹了,11g 也就勉强跑跑 512 x 512 ,4k 图生成的 4090 占到 19g 的显存。
|
9
Philippa 2023-03-30 11:02:44 +08:00
就算是用 cpu ,pc 的 128g 不香嘛
|
10
Juszoe 2023-03-30 11:17:24 +08:00
槽点有点多,玩大模型,单机 8 卡已经是低配中的低配了,更何况 mac 还没 cuda
|
11
zeusho871 2023-03-30 12:20:15 +08:00 via Android
我倒是🈶64g 的 m1 ,怎么测,可以帮你看看
|
12
FozillaMox 2023-03-30 12:42:42 +08:00 via iPhone
你有这个钱还是组一台好点的台式吧。
|
13
monkeykk 2023-03-30 16:45:13 +08:00
本地编程无压力,大模型训练免了
|
14
neopenx 2023-03-30 18:51:44 +08:00
M2 Max 的 training 算力等价于 3060 。洗洗睡吧。还不如买块 4090
|
15
maxmak 2023-03-30 21:14:50 +08:00
M1 Max 24H 64G 跑 chatglm-6b 内存直接爆红了,计算速度好慢,已经换成 GPU 跑了
我觉得 M2 Max 也好不了多少 |
16
ddvswgg 2023-03-30 22:18:37 +08:00 via iPhone
我建议 Colab
|
17
AOK123 2023-03-31 07:06:16 +08:00 1
大模型不都是几百张 A100 起吗。。。
小模型你这 3000 刀配个 4090 台式直接秒杀顶配 Mac Studio |
18
ShadowPower 2023-03-31 10:40:41 +08:00 1
本地大模型训练不太行。最前沿的那些东西其实只支持 NVIDIA 显卡,不用 NVIDIA 显卡就是完全跑不起来或者各种报错。
Pytorch 的 MPS 后端还缺少很多算子,实际上不少是 fallback 到 CPU 跑的。而且还有很多代码实现里,内存布局之类的细节只对 NVIDIA 显卡友好,在 Apple Silicon 上还得多做一些转换工作,额外吃了不少显存(内存)和性能。 |
19
bleaker 2023-03-31 11:33:33 +08:00
https://github.com/apple/ml-ane-transformers Apple 最近的确做了一些工作
|