beginor 最近的时间轴更新
beginor

beginor

V2EX 第 56321 号会员,加入于 2014-02-19 21:29:19 +08:00
今日活跃度排名 10521
gitlab.com 上的账户被禁用了,有没有办法申述?
GitLab  •  beginor  •  256 天前  •  最后回复来自 beginor
6
Google Chrome 无法使用 Mac 的位置服务?
macOS  •  beginor  •  2023-08-19 20:16:58 PM  •  最后回复来自 shenyuzhi
9
Switch 模拟器 Ryujinx 在 Mac M1 上的体验
  •  1   
    macOS  •  beginor  •  2023-07-28 13:37:16 PM  •  最后回复来自 remember5
    17
    beginor 最近回复了
    2 天前
    回复了 moyuman 创建的主题 程序员 最“流畅”的终端模拟器是什么?
    warp +1 , 目前支持 Linux + Mac , 不过官方说 Win 也在路上了。

    在 JetBrains IDE 2024.3 中的“新终端” 就是复制了 warp
    2 天前
    回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
    如果用 LM Studio 运行 mlx 版本的 [Llama-3.3-70B-Instruct-4bit]( https://huggingface.co/mlx-community/Llama-3.3-70B-Instruct-4bit) 可以稍微快一点点,5.x tokens / 秒。
    2 天前
    回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
    M1 Max 64G 用户, 在 `/etc/sysctl.conf` 文件中添加选项 `iogpu.wired_limit_mb=57344` ,这样最多可以分配 56G 内存给显卡用。

    用 llama.cpp 可以运行 `llama-3.3-70b-instruct.q4_k_m.gguf` ,不过要限制一下上下文大小,不然还是内存不够, 生成速度大概是 4 token / second 。

    ```
    main: server is listening on http://127.0.0.1:8080 - starting the main loop
    srv update_slots: all slots are idle
    slot launch_slot_: id 0 | task 0 | processing task
    slot update_slots: id 0 | task 0 | new prompt, n_ctx_slot = 4096, n_keep = 0, n_prompt_tokens = 26
    slot update_slots: id 0 | task 0 | kv cache rm [0, end)
    slot update_slots: id 0 | task 0 | prompt processing progress, n_past = 26, n_tokens = 26, progress = 1.000000
    slot update_slots: id 0 | task 0 | prompt done, n_past = 26, n_tokens = 26
    slot release: id 0 | task 0 | stop processing: n_past = 354, truncated = 0
    slot print_timing: id 0 | task 0 |
    prompt eval time = 2035.41 ms / 26 tokens ( 78.29 ms per token, 12.77 tokens per second)
    eval time = 79112.92 ms / 329 tokens ( 240.46 ms per token, 4.16 tokens per second)
    total time = 81148.33 ms / 355 tokens
    srv update_slots: all slots are idle
    request: POST /v1/chat/completions 127.0.0.1 200
    ```
    怎么忘了这个,play cover 玩原神 , 还有好多 iOS 游戏
    本地跑大模型 llama.cpp / ollama 或者 lmstudio , 绝对是颠覆性的体验
    打开 copilot 也经常会出现类似的错误
    .NET 的话可以单文件发布啊,自带运行时就没有这个问题了。 如果是 C++的话,可以编译为静态依赖库, 做成绿色版
    anywhere3
    15 天前
    回复了 qingshui33 创建的主题 Android 红米 K80 感觉配置是真的拉满啊
    想换,但是手上的 K40S 还感觉不卡顿🤔
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1075 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 18:00 · PVG 02:00 · LAX 10:00 · JFK 13:00
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.