V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
xitler
V2EX  ›  程序员

[纯吐槽]没想到 minimax 会这么难用

  •  
  •   xitler · Mar 24 · 9631 views
    This topic created in 47 days ago, the information mentioned may be changed or developed.
    看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 。价格又很有诱惑力,差点没把持住买年卡。斥巨资 119 买了 max 套餐之后才发现实际上垃圾的要命,这是我用过最差劲的模型。别说国外模型了,比 kimi 都差一大截。
    真就跑分没输过,实战没赢过。
    84 replies    2026-03-26 15:56:09 +08:00
    HFX3389
        1
    HFX3389  
       Mar 24 via iPhone
    拿来跑龙虾呗,跑龙虾应该足够聪明
    DiffView
        2
    DiffView  
       Mar 25
    没想到就对了,不骗你入坑,怎么有那么高的股价?
    ClericPy
        3
    ClericPy  
       Mar 25
    我好奇 highspeed 套餐真那么快吗?
    shakaraka
        4
    shakaraka  
    PRO
       Mar 25 via iPhone
    是什么让你这么正为的?我都有点好奇
    shakaraka
        5
    shakaraka  
    PRO
       Mar 25 via iPhone
    本来就不行的呀。怎么可能次于,次于 5.4 的是 opus4.6
    dingawm
        6
    dingawm  
       Mar 25
    试了下 glm 4.7 和 minimax 2.5 ,感觉 glm 的要强点
    laikicka
        7
    laikicka  
       Mar 25
    中产模型, 跑分没输过 体验没赢过
    snowsky
        8
    snowsky  
       Mar 25
    它刚出来的时候,用过一次,回答的最后一句,“以上答案由 Claude Sonnet 生成“。。。
    940i3s34v4F1HW41
        9
    940i3s34v4F1HW41  
    PRO
       Mar 25 via iPhone   ❤️ 1
    ai 排行唯一真神 lmarena
    bingoso
        10
    bingoso  
       Mar 25 via iPhone
    我也来避个雷,豆包的那个 code 模型,也是一大坨。
    weixiangzhe
        11
    weixiangzhe  
       Mar 25 via Android
    minmax 写的规则 他一般只执行一半
    ehehela
        12
    ehehela  
       Mar 25
    现在国产最好用的是哪一个
    TK6
        13
    TK6  
       Mar 25
    目前就编码来看 GLM-5 是最好用的
    v2gba
        14
    v2gba  
       Mar 25
    我也买了 119

    感觉跑小龙虾 不让他写代码还能凑合 但是也根本没必要 119 感觉都用不完
    traffic
        15
    traffic  
       Mar 25
    以前用 minimax 2.5 ,给了 5000 字的背景信息,问了个问题,结果输出的是乱码。
    感觉在用 3B 模型
    traffic
        16
    traffic  
       Mar 25
    @traffic #15 说了是 MiniMax M2
    iorilu
        17
    iorilu  
       Mar 25
    跑分就和考试一样

    分数高不一定能力强
    xitler
        18
    xitler  
    OP
       Mar 25
    @shakaraka 只能说谁用谁知道,基本无法正常完成编程工作。从 opus 和 gpt 切过来落差巨大
    isnullstring
        19
    isnullstring  
       Mar 25
    特色模型,跟当初手机跑分一样
    subpo
        20
    subpo  
       Mar 25
    minimax 的宣传确实有问题,他本质上是一个“中”模型,和 GLM kimi 甚至小米 v2 pro 都是不能比的

    如果把他当作任务的执行者,是非常好用的,便宜的成本让人有 token 自由的快感,只用他担当主力是不行的

    其实相比 GLM ,我个人更喜欢 minimax ,GLM 很慢,和最顶尖的 codex/opus 比不够聪明,也不够便宜
    xitler
        21
    xitler  
    OP
       Mar 25
    @subpo 原来如此,不过确实是超级便宜,一周能有 4.5w 次请求的额度。拿来跑跑龙虾也算是"废物"利用了
    xitler
        22
    xitler  
    OP
       Mar 25
    @ClericPy 不太清楚,我买的是 50TPS 的,挺快的。
    subpo
        23
    subpo  
       Mar 25
    @subpo
    有人在本地买魔改 5090 跑 qwen3.5 27b ,我觉得 minimax 的定位类似于这个,执行模型或者辅助模型

    minimax 升级 token plan 后删除了 “周限额” 字段,max plan 官方 9 折后 1071 元包年,5 小时 300 prompt ,也就是每分钟可以跑一个任务,这个用量随便跑 autoresearch / ralph loop 了,真正的 token 自由,这个价格可能都不足自己本地跑模型的电费了,还要啥自行车
    NoNewWorld
        24
    NoNewWorld  
       Mar 25
    拿来跑龙虾还行。说实话,除了 claude , 其他只有 GPT 能勉强用用, 不过也挺拉的。
    Panameragt
        25
    Panameragt  
       Mar 25
    你不会是拿来它来编程吧?
    xitler
        26
    xitler  
    OP
       Mar 25
    @Panameragt 是啊
    qweink
        27
    qweink  
       Mar 25
    @HFX3389 实测跑龙虾也不行,多问几个问题就 api rate 限流,确实垃圾,年付了感觉上当。
    micookie
        28
    micookie  
       Mar 25
    https://arena.ai/leaderboard/code 的排名还挺高的。
    达到了 GLM5 的水平,远超 KIMI2.5 ,
    有刷榜的嫌疑吗?
    uqf0663
        29
    uqf0663  
       Mar 25
    楼上一堆说拿来跑龙虾的,为什么我拿 M2.7 跑龙虾都觉得好蠢,经常把自己搞死了。
    AlisterTT
        30
    AlisterTT  
       Mar 25
    我好奇有没有人试过国际站的,是不是不会有高峰限流问题
    DipsySu
        31
    DipsySu  
       Mar 25
    我的对比了一下 glm5 和 minimax2.5, 在 claude code 按照同一个规划文件来执行, minimax2.5 被 glm5 锤爆.....
    yanyao233
        32
    yanyao233  
       Mar 25
    确实很离谱,M2.5 真的真的很蠢,把 K2.5 衬托的简直像个天才...
    Panameragt
        33
    Panameragt  
       Mar 25
    @xitler #26 老老实实用 Anthropic 全家桶
    zeex
        34
    zeex  
       Mar 25
    M2.7 都不太好用,感觉经常会错意。体验起来不如 GLM5 ,甚至不如 deepseek 3.2
    someonelikeyouah
        35
    someonelikeyouah  
       Mar 25
    @snowsky #8 笑不活了
    zhiluop
        36
    zhiluop  
       Mar 25
    M2.7 拿来聊天就行,真要编程不如用 GLM 和 Kimi
    cheng6563
        37
    cheng6563  
       Mar 25
    我用起来,感觉还是 qwen 好用些,只要没撞上中英文间乱插空格的 bug
    MIUIOS
        38
    MIUIOS  
       Mar 25
    考虑半价出吗哥
    xitler
        39
    xitler  
    OP
       Mar 25
    @MIUIOS 你要吗,这周才买的没怎么用,可以 90 出给你
    zjcolvin
        40
    zjcolvin  
       Mar 25
    正在考虑中为 opencode 付费,有老哥评价一下的吗
    svtter
        41
    svtter  
       Mar 25
    @zjcolvin 直接卖 opencode go ,然后多用 glm-5
    rockddd
        42
    rockddd  
       Mar 25
    直接用隔壁站大佬的那个免费中转站跑龙虾呀,目前还挺好用的
    imsoso
        43
    imsoso  
       Mar 25
    自从我知道国产模型会对 benchmark 特调以后。。。
    xmy2232867
        44
    xmy2232867  
       Mar 25
    @shakaraka #5 GPT5.4 比 opus 还强了?
    cs10086
        45
    cs10086  
       Mar 25
    实在想不通为啥用 minimax ,codex 挺好付费的,claude 买个中转站也凑合。
    5800X3D
        46
    5800X3D  
       Mar 25
    不知道你是什么使用场景. 我平时写写 crud 后端没怎么用过, 前端基本上都是 miniMax M2.5 一把梭,体验还是非常好的.

    我是在 trae cn 里用的 miniMax M2.5, 优点就是免费, 错误率比较低. 缺点就是生成的比较慢;上下文太短了,基本上一次提示词下来就会占到 20%左右, 几个指令下来就要开新任务了..

    我也用过 cursor 的 auto 模式.里面应该都是国外的模型吧, 优点是代码生成速度快比 miniMax 要快的多. 缺点就是有小概率会出现引入了一些不存在的包,需要返工...
    codersdp1
        47
    codersdp1  
       Mar 25
    @snowsky 难怪刚开始免费的时候,我感觉它很强
    jchencode
        48
    jchencode  
       Mar 25
    国产模型,很多都是为了跑分,跑榜单,刷排名。细节体验,差的一批。跑龙虾我都不用,我不需要一个弱智龙虾。
    edisonwong
        49
    edisonwong  
       Mar 25
    很多模型都是为 swe ,榜单特殊优化的! 远离国产,glm-5 还行
    snowsky
        50
    snowsky  
       Mar 25
    @codersdp1 @someonelikeyouah 后来 Anthropic 说有些 model 是蒸馏出来的,我也就不奇怪了 LOL
    onedge
        51
    onedge  
       Mar 25
    @ehehela kimi2.5, GLM5 都还行 minimax 最弱智一档
    ssting
        52
    ssting  
       Mar 25
    全是跑分怪.
    一用拉跨
    unco020511
        53
    unco020511  
       Mar 25
    目前深度使用下来,AI coding 能真正产生很大生产力的系列模型只有三个: Opus 4.6/gemini 3.1pro/gpt5.3+,其他一众国产模型的都是打榜跑分怪,根本没法真正产生极大的生产力.
    Waschl
        54
    Waschl  
       Mar 25
    我就拿来跑 openclaw, 干活还是 Opus
    clemente
        55
    clemente  
       Mar 25
    模型只有

    claude/gemini/grok/gpt
    www12222
        56
    www12222  
       Mar 25
    便宜+快,拿来跑跑简单的任务不是挺好的
    cabing
        57
    cabing  
       Mar 25
    glm5 还行。
    shakaraka
        58
    shakaraka  
    PRO
       Mar 25
    @xmy2232867 #44 是的。除非 opus 出下一代。而且 GPT 5.4 Pro 更强,有幸用了几回。pro 没有在 codex 提供的
    stepan
        59
    stepan  
       Mar 25
    跑跑龙虾还可以 2.5 的时候试了一下,反正能用
    guichen
        60
    guichen  
       Mar 25
    官网套餐全都先付费没试用的,说明他们自己都对产品没信心,只能靠营销来吸引购买
    tairan2006
        61
    tairan2006  
       Mar 25
    别人$20 一个月,你$20 一年,还斥啥巨资。。
    xitler
        62
    xitler  
    OP
       Mar 25   ❤️ 1
    @tairan2006 119 一个月啊。。。比 claude pro 贵点了
    Gilfoyle26
        63
    Gilfoyle26  
       Mar 25
    评测没输过,实际没赢过
    KisekiRemi
        64
    KisekiRemi  
       Mar 25
    只能跑跑简单需求,真的要干活还得上 codex 和 claude
    ohoh
        65
    ohoh  
       Mar 25
    你们到底有几个真实且深度用过就在说差的?
    devloperchen
        66
    devloperchen  
       Mar 25
    老实说,我是深度使用过好几个月的。主要是用来开发 Android app ,而且是一个十年多的老项目了。没有你们说的那么难堪,只有你把功能描述完成,告诉它改哪个文件,用 claude code plan 模式基本上都是没有问题的。但是,和国外的模型肯定是有很大差距的。
    muxiaofei
        67
    muxiaofei  
       Mar 25
    @ohoh 买了年的,真的差,快是挺快,但是采用率很低
    bbbblue
        68
    bbbblue  
       Mar 25
    "看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 "

    ????那个 benchmark 是这么写的 是不是里面就只有 5 个模型 御三家 m2.5 和 m2.7 然后说仅次于 gpt 5.4 的 😂
    zhouxu
        69
    zhouxu  
       Mar 25
    图便宜买了 400 的年卡,发现生成的代码有时候没法看
    Leeeeex
        70
    Leeeeex  
    PRO
       Mar 25
    之前抽奖抽到了个 kimi 会员,试了一下 kimi cli
    重复任务和排查任务很快,速度和最终展示效果都挺不错的
    但是创新型任务就不太行了,还得用 claude
    你可以留着这个做一些简单的工作
    coolcoffee
        71
    coolcoffee  
       Mar 25
    大模型跑分就像安卓厂商跑分一样,一个特调了之后同行也要被迫特调的。
    slowgen
        72
    slowgen  
       Mar 25
    官方算力不够所以可能降智了,说不定 together.aifireworks.ai 这种自己部署的会好一点,毕竟海外不缺算力。
    我是自建的,用了 4 张 H20 跑 MiniMax M2.5 的 FP8 量化,挺好用的,无限 token 给了我很大想象力。再低成本一点可以 2 张 RTX Pro 6000 跑 NVFP4 ,或者等 M5 Ultra 出来,不要买 M5 之前的版本因为 prefill 慢。
    yinyu
        73
    yinyu  
       Mar 25   ❤️ 1
    指令的遵守都一坨屎,无力吐槽了。
    looplj
        74
    looplj  
       Mar 25
    写代码,国内模型我只用 glm5
    xiaolanger
        75
    xiaolanger  
       Mar 25
    2.7 比 kimi 好用
    johnsmith2077
        76
    johnsmith2077  
       Mar 25
    完全是弱智模型,给一个简单需求,能把之前代码都搞烂,路边一条,和 claude 和 gpt 没法比
    suyuyu
        77
    suyuyu  
       Mar 25
    别买假模型。认准 openai,a➗
    yh7gdiaYW
        78
    yh7gdiaYW  
       Mar 25
    @ehehela GLM-5/GLM-5-Turbo ,公司一堆人自由选择跑下来用量仅次于 claude 的模型
    eeeecho
        79
    eeeecho  
       Mar 25
    跑龙虾勉强还可以把
    Lyio
        80
    Lyio  
       Mar 25
    @v2gba 我用它跑龙虾 连定时推送的任务都执行不明白….
    shmilypeter
        81
    shmilypeter  
       Mar 25
    @Lyio 换 kimi 模型吧,我之前领了免费的联通 coding plan (当然现在没有了),用的 MiniMax 2.5 模型,智商一般不说速度还贼慢。后来换了 kimi 后不管是速度还是智商都好多了。

    kimi 的订阅也可以用于养龙虾的,虽然官网文档里也没有,不过亲测可用。当然,养龙虾至少要 100 元以上的套餐,50 元套餐不管是编程还是养龙虾都是几个问题额度就满了。
    frantic
        82
    frantic  
       Mar 26
    我体感也是 minimax 最垃圾
    prosgtsr
        83
    prosgtsr  
       Mar 26
    年付的一概不买就完事了
    v2gba
        84
    v2gba  
       Mar 26
    @Lyio

    我这两天也发现不行了 说几句话就忘记了

    但我也搞明白了为啥不行

    他上下文爆了

    我的暴论: 200K 的模型不配玩小龙虾
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   973 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 258ms · UTC 19:00 · PVG 03:00 · LAX 12:00 · JFK 15:00
    ♥ Do have faith in what you're doing.