V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
lekai63
V2EX  ›  OpenAI

openai GPT-4 降价、多模态支持、助手 API

  •  
  •   lekai63 · 172 天前 · 5066 次点击
    这是一个创建于 172 天前的主题,其中的信息可能已经有所发展或是发生改变。

    贴一个 openai 的邮件通告:

    We're excited to share major new features and updates that were announced at our first conference, OpenAI DevDay. You can read the full details on our blog, watch the keynote recording, or check out the new @OpenAIDevs Twitter, but here a brief summary: New GPT-4 Turbo: We announced GPT-4 Turbo, our most advanced model. It offers a 128K context window and knowledge of world events up to April 2023. We’ve reduced pricing for GPT-4 Turbo considerably: input tokens are now priced at $0.01/1K and output tokens at $0.03/1K, making it 3x and 2x cheaper respectively compared to the previous GPT-4 pricing. We’ve improved function calling, including the ability to call multiple functions in a single message, to always return valid functions with JSON mode, and improved accuracy on returning the right function parameters. Model outputs are more deterministic with our new reproducible outputs beta feature. You can access GPT-4 Turbo by passing gpt-4-1106-preview in the API, with a stable production-ready model release planned later this year.

    Updated GPT-3.5 Turbo: The new gpt-3.5-turbo-1106 supports 16K context by default and that 4x longer context is available at lower prices: $0.001/1K input, $0.002/1K output. Fine-tuning of this 16K model is available. Fine-tuned GPT-3.5 is much cheaper to use: with input token prices decreasing by 75% to $0.003/1K and output token prices by 62% to $0.006/1K. gpt-3.5-turbo-1106 joins GPT-4 Turbo with improved function calling and reproducible outputs.

    Assistants API: We're excited to introduce the beta of our new Assistants API, designed to help you build agent-like experiences in your applications effortlessly. Use cases range from a natural language-based data analysis app, a coding assistant, an AI-powered vacation planner, a voice-controlled DJ, a smart visual canvas—the list goes on This API enables the creation of purpose-built AI assistants that can follow specific instructions, leverage additional knowledge, and interact with models and tools to perform various tasks. Assistants have persistent Threads for developers to hand off thread state management to OpenAI and work around context window constraints. They can also use new tools like Code Interpreter, Retrieval, and Function Calling. Our platform Playground allows you to play with this new API without writing code.

    Multimodal capabilities: GPT-4 Turbo now supports visual inputs in the Chat Completions API, enabling use cases like caption generation and visual analysis. You can access the vision features by using the gpt-4-vision-preview model. This vision capability will be integrated into the production-ready version of GPT-4 Turbo when it comes out of preview later this year. You can also integrate DALL·E 3 for image generation into your applications via the Image generation API. We released text-to-speech capabilities through the newly introduced TTS model, which will read text for you using one of six natural sounding voices.

    Customizable GPTs in ChatGPT: We launched a new feature called GPTs. GPTs combine instructions, data, and capabilities into a customized version of ChatGPT. In addition to the capabilities built by OpenAI such as DALL·E or Advanced Data Analysis, GPTs can call developer-defined actions as well. GPTs let developers control a larger portion of experience. We purposefully architected plugins and actions very similarly, and it takes only a few minutes to turn an existing plugin into an action. Read the docs for details.

    We're excited to see how these updates help open up new avenues for leveraging AI in your projects.

    20 条回复    2023-11-09 19:53:42 +08:00
    CruelMoon
        1
    CruelMoon  
       172 天前
    不仅是降价,还支持 128k 上下文和 JSON mode ,感觉程序员离被替代又近了一步
    BanShe
        2
    BanShe  
       172 天前
    api 用户收到邮件了
    vacuitym
        3
    vacuitym  
       172 天前
    我们非常高兴地在我们的第一次 OpenAI DevDay 大会上分享了一些重要的新功能和更新。您可以在我们的博客上阅读完整的详细信息,观看主题演讲的录像,或查看新的 @OpenAIDevs Twitter 账号。以下是一个简要总结:

    全新的 GPT-4 Turbo 模型:
    我们宣布了我们最先进的模型 GPT-4 Turbo 。它提供了 128K 的上下文窗口,并且了解到 2023 年 4 月的世界事件。
    我们已经大幅降低了 GPT-4 Turbo 的定价:输入标记现在定价为每 1K 0.01 美元,输出标记定价为每 1K 0.03 美元,分别比前一版的 GPT-4 便宜 3 倍和 2 倍。
    我们改进了函数调用,包括可以在单个消息中调用多个函数的能力,始终以 JSON 模式返回有效函数,并提高了正确返回函数参数的准确性。
    通过我们的新的可再现输出测试版功能,模型输出更加确定性。
    您可以通过在 API 中传递 gpt-4-1106-preview 来使用 GPT-4 Turbo ,在今年晚些时候计划发布一个稳定的生产就绪模型。

    更新的 GPT-3.5 Turbo 模型:
    新的 gpt-3.5-turbo-1106 模型默认支持 16K 的上下文,而且可用性更好:价格更低,输入标记为每 1K 0.001 美元,输出标记为每 1K 0.002 美元。还可以对这个 16K 模型进行微调。
    经过微调的 GPT-3.5 使用更为便宜:输入标记价格降低了 75%,为每 1K 0.003 美元,输出标记价格降低了 62%,为每 1K 0.006 美元。
    gpt-3.5-turbo-1106 在函数调用和可再现输出方面与 GPT-4 Turbo 一样有所改进。

    助理 API:
    我们很高兴地介绍我们新的助理 API 的测试版,旨在帮助您轻松地在应用程序中构建类似代理的体验。用例范围从基于自然语言的数据分析应用、编码助手、AI 驱动的假期计划应用、语音控制的 DJ 、智能视觉画布等等。
    此 API 使得可以创建专门定制的 AI 助手,可以遵循特定的指令,利用附加的知识,并与模型和工具进行交互来执行各种任务。
    助理具有持久的线程,开发人员可以将线程状态管理交给 OpenAI 并解决上下文窗口约束。它们还可以使用新的工具,如代码解释器、检索和函数调用。
    我们的平台 Playground 允许您在不编写代码的情况下尝试使用这个新的 API 。

    多模态能力:
    GPT-4 Turbo 现在在 Chat Completions API 中支持视觉输入,可以用于生成字幕和进行视觉分析等应用。您可以通过使用 gpt-4-vision-preview 模型来访问视觉功能。当它在今年晚些时候推出测试版以外的正式版本时,这项视觉能力将集成到 GPT-4 Turbo 中。
    您还可以通过图像生成 API 将 DALL·E 3 集成到您的应用程序中,用于图像生成。
    我们通过新引入的 TTS 模型发布了文本转语音的能力,可以使用六种自然音色之一为您朗读文字。

    ChatGPT 中的可定制化 GPT:
    我们推出了一个名为 GPTs 的新功能。GPTs 将指令、数据和功能结合在一起,形成 ChatGPT 的定制版本。
    除了 OpenAI 构建的功能如 DALL·E 或高级数据分析之外,GPTs 还可以调用开发者定义的操作。GPTs 使开发人员能够更多地控制体验的一部分。我们特意以非常相似的方式构建了插件和操作,将现有插件转换为操作只需几分钟。详细信息请阅读文档。

    我们很期待看到这些更新如何为您的项目开辟新的 AI 利用途径。
    maymayblog
        4
    maymayblog  
       172 天前
    可惜了,核心的东西 Day100,完全上不了生产
    lyxeno
        5
    lyxeno  
       172 天前
    😥可恶,没有虚拟信用卡和海外信用卡用不了 GPT4 Api 啊
    glouhao
        6
    glouhao  
       172 天前 via Android
    昨天刚续费,还是 19.9 啊,现在换了安卓,苹果准备出,借楼问下,安卓续费稳么?还有如果订阅了,账户里有钱,但是换个老苹果能自动续费么?
    lekai63
        7
    lekai63  
    OP
       172 天前 via iPhone
    @glouhao 19.9 是 chatgpt ,chatgpt 不等于 gpt-4 api 。

    苹果扣费是跟着 icloud 走 不是跟着设备。你出的应该是设备而非 icloud 吧。基于此,不影响续费。但长期未用苹果上的 chatgpt app ,是否会引起 openai 主动退费,就不在苹果控制范围了。
    elevioux
        8
    elevioux  
       172 天前
    帮不了卡只能看看了
    crazyTanuki
        9
    crazyTanuki  
       172 天前
    字节出的那个豆包挺好用的,还免费
    MakHoCheung
        10
    MakHoCheung  
       172 天前
    Assistants API 跟程序里面调用 gpt 的 API 有啥区别吗
    zhhmax
        11
    zhhmax  
       172 天前
    @lyxeno 看看我这边的中转 one.luee.net ,GPT 4 新出来的两个模型都支持( vision 需要客户端适配),1106 速度更快 token 更多价格更便宜,用起来更 happy 了,RPD 600 ,不怕别人抢完次数,可以小额充值,既能用上 GPT4 又不用像 Plus 那样一次花费 20 刀。
    glouhao
        12
    glouhao  
       172 天前
    @lekai63 我以为是都降价了。希望我谷歌续费会正常,打算出了这个苹果了,一块吃个饭,我说我付钱,结果信号消失了。尴尬的很。
    yelc668
        13
    yelc668  
       171 天前
    助手 API 是建模
    lululau
        14
    lululau  
       171 天前
    英语有 3x and 2x cheaper 便宜两倍这个说法吗。。。加入原价是 1 块,1 块的两倍也就是两块,便宜了两倍不就是便宜了两块,也就是 -1 块?😂
    yohole
        15
    yohole  
       171 天前
    刚才简单通过 api 对接了 gpt-4-1106-preview ,回复速度飞快
    同时也使用几张图片感受了 gpt-4-vision-preview ,可以识别一般的简单数学验证码图片和图片中的电影人物
    a174871
        16
    a174871  
       171 天前
    @zhhmax #11 您好,1106 好像没看到支持,请问哪个客户端/web 支持呢?
    zhhmax
        17
    zhhmax  
       171 天前
    @a174871 chatbox 设置里面可以自定义模型名称,关于页面里面写的 next-web 的地址打开后设置里也可以自定义模型,3.5 是 gpt-3.5-turbo-1106 4 是 gpt-4-1106-preview ,这样就可以用 1106 了。主页有 tg 群,有疑问可以进群沟通。
    mzname
        18
    mzname  
       170 天前
    @zhhmax 老哥,打算长期用你的了 T_T
    之前手头的 tg 号全废掉了,还有比邮件更高效的联系到你的办法吗 T_T
    zhhmax
        19
    zhhmax  
       170 天前 via iPad
    @mzname 我历史贴有留张小龙你可以找一下
    duster
        20
    duster  
       169 天前
    @lyxeno 我在 ipone 的 app store 上下载了 chatgpt 移动端,移动端登录之后,可以使用 app store 账号上的余额进行支付。我的 app store 设置的地域是台湾,所以可以下载海外的很多 app ,至于如何充值台湾的苹果账号,某宝和某鱼上一般有代理商,直接买他们的兑换券进行充值
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   3023 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 08:29 · PVG 16:29 · LAX 01:29 · JFK 04:29
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.