阿里云飞天发布时刻,领先大模型限免,超7000万 tokens免费体验 了解详情
写点什么

OpenAI 模型家族更新:GPT-4 训练数据至 2023 年 12 月

  • 2024-02-20
    北京
  • 本文字数:2086 字

    阅读完需:约 7 分钟

大小:1013.39K时长:05:45
OpenAI模型家族更新:GPT-4训练数据至2023年12月

近日,OpenAI 宣布 GPT-3.5-turbo、GPT-4 以及 GPT-4-turbo-preview 等均指向最新模型版本。用户可以发送请求并查看响应对象来验证自己正在使用哪种模型。响应结果中包含所使用的特定模型版本(例如 GPT-3.5-turbo-0613)。

 

OpenAI 还提供静态模型版本,开发人员可以在模型更新发布后的三个月内继续使用原有模型。随着模型更新的加快,OpenAI 还开放了评估贡献通道,由用户针对不同用例协同进行模型改进。

 

感兴趣的朋友请参阅 OpenAI Evals repo:

https://github.com/openai/evals

 

关于弃用模型的更多详细信息,请参阅 OpenAI 官网上的弃用页面:

https://platform.openai.com/docs/deprecations

 

GPT-4 与 GPT-4 Turbo

 

GPT-4 是一套大型多模态模型(可接收文本或图像输入,并输出文本结果),目前通过 OpenAI API 向付费客户开放。

 

与 GPT-3.5-turbo 一样,GPT-4 针对聊天进行了优化,因此可通过聊天完成以往必须借助 Chat Completions API 才能处理的任务。OpenAI 在文本生成指南中专门介绍了如何使用 GPT-4:

https://platform.openai.com/docs/guides/text-generation

 

模型

说明

上下文窗口

训练数据

GPT-4-0125-preview

新模型

更新的GPT-4 Turbo

这套最新GPT-4模型旨在减少模型在任务中途停运的“偷懒”问题,最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates)。

128,000 tokens

截至2023年12月

GPT-4-turbo-preview

目前指向GPT-4-0125-preview。

128,000 tokens

截至2023年12月

GPT-4-1106-preview

GPT-4 Turbo模型在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进,最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。目前指向GPT-4-1106-vision-preview。

128,000 tokens

截至2023年4月

GPT-4-1106-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4

当前指向GPT-4-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。

8,192 tokens

截至2021年9月

GPT-4-0613

2023年6月13日的GPT-4快照,改进了函数调用支持。

8,192 tokens

截至2021年9月

GPT-4-32k

目前指向GPT-4-32k-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

GPT-4-32k-0613

2023年6月13日的GPT-4-32k快照,改进了函数调用支持。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

对于大部分基本任务,GPT-4 和 GPT-3.5 模型间的差异并不明显。但在需要较复杂推理能力的情况下,GPT-4 则拥有超越 OpenAI 此前各类模型的表现。

 

GPT-3.5 Turbo

 

GPT-3.5 Turbo 模型能够理解并生成自然语言或者代码,针对 Chat Completions API 进行了聊天优化,但也同样适用于非聊天任务。

模型

说明

上下文窗口

训练数据

GPT-3.5-turbo-0125

新模型

更新的GPT 3.5 Turbo

最新的GPT-3.5 Turbo模型在响应请求时拥有更高的准确度,同时修复了可能在非英文语言函数调用中导致文本编码问题的bug。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates#:~:text=Other%20new%20models%20and%20lower%20pricing)。

 

16,385 tokens

截至2021年9月

GPT-3.5-turbo

目前指向GPT-3.5-turbo-0613。这套GPT-3.5-turbo模型已经于2月16日由GPT-3.5-turbo-0613升级至GPT-3.5-turbo-0125。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-1106

GPT-3.5 Turbo模型,在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-instruct

与GPT-3时代的其他模型功能类似,与旧版Completions端点兼容,但不兼容Chat Completions。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k

旧模型

 目前指向 GPT-3.5-turbo-16k-0613。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-0613

旧模型

 2023年6月13日的GPT-3.5-turbo快照,将于2024年6月13日弃用。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k-0613

旧模型

2023年6月13日的GPT-3.5-16k-turbo快照,将于2024年6月13日弃用。

16,385 tokens

截至2021年9月

 

DALL·E

 

DALL-E 是一套 AI 系统,能够根据自然语言的描述创建出逼真的图像与艺术效果。DALL-E 3 目前支持根据提示词生成拥有特定尺寸的新图像。DALL-E 2 还支持对现有图像进行编辑、或为用户上传的图像生成变体等功能。

 

DALL-E 3 可通过 OpenAI 的 Images API 同 DALL-E 2 配合使用。用户可通过 ChatGPT Plus 服务体验 DALL-E 3。

 

模型

说明

dall-e-3

新模型

 DALL·E 3

2023年11月发布的最新DALL-E模型。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

dall-e-2

2022年11月发布的上代DALL-E模型。作为DALL-E的第二个迭代版本,拥有比初代模型更真实、更准确及4倍分辨率的图像生成能力。

 

TTS

 

TTS 是一种 AI 模型,能够将文本转换为听感自然顺畅的语音。OpenAI 提供两种不同模型变量,其中 tts-1 针对实时文本到语音用例进行了优化,tts-1-hd 则针对输出质量进行了优化。这些模型均可通过 Audio API 中的 Speech 端点配合使用。

模型

说明

tts-1

新模型

 Text-to-speech 1

最新文本转语音模型,针对速度进行了优化。

tts-1-hd

新模型

 Text-to-speech 1 HD

最新文本转语音模型,针对速度进行了优化。

 

Whisper

 

Whisper 是一种通用语音识别模型,在包含多种音频的大型数据集上训练而成。它也是一套多任务模型,能够执行多语种语音识别、语音翻译与理解等任务。Whisper v2-large 模型目前可通过 API 调用,模型名称为 Whisper-1。

 

目前,Whisper 的开源版本与 OpenAI 通过 API 提供的版本完全一致。但 API 版本的推理过程经过优化,因此 Whisper 在 API 上的运行速度要比其他方式快得多。

 

关于 Whisper 的更多技术细节,请参阅此论文:

https://arxiv.org/abs/2212.04356

 

Embeddings

 

Embeddings 是指文本的数字表示,可用于衡量两段文本之间的相关性。Embeddings 即嵌入,往往在搜索、聚类、推荐、异常检测和分类任务中拥有良好表现。

 

感兴趣的朋友可以在 OpenAI 的公告博文中了解关于最新嵌入模型的更多信息:

https://openai.com/blog/new-embedding-models-and-api-updates

模型

说明

输出大小

text-embedding-3-large

新模型

 Embedding V3 large

适用于英语和非英语任务的最强嵌入模型。

3,072

text-embedding-3-small

新模型

 Embedding V3 small

拥有超越二代ada嵌入模型的更强性能。

1,536

text-embedding-ada-002

最强大的二代嵌入模型,全面取代了16种初代模型。

1,536

 

Moderation

 

Moderation 审核模型负责检查内容是否符合 OpenAI 的使用政策。这些模型提供分类功能,用于查找以下类别的内容:仇恨、仇恨/威胁、自残、性、性/未成年人、暴力及暴力/图像。

 

更多具体信息请参阅 OpenAI 审核指南:

https://platform.openai.com/docs/guides/moderation/overview

 

审核模型可接受任意大小的输入,将输入自动拆分成 4096 个 tokens 的块。如果总输入超过 32768 个 tokens,则使用截断技术处理。在极少数情况下,此类模型可能会在审核检查中忽略少量 tokens。

 

每条指向审核端点的请求仅显示各类别的最大值。例如,如果一个 4k tokens 块的分类得分为 0.9901,而另一个块的得分为 0.1901,则 API 响应结果将仅显示明显更高的 0.9901。

模型

说明

最大TOKENS

text-moderation-latest

目前指向text-moderation-007。

32,768

text-moderation-stable

目前指向text-moderation-007。

32,768

text-moderation-007

在所有分类任务中最强大的审核模型。

32,768

 

GPT base

 

GPT base 模型能够理解并生成自然语言或者代码,但并未接受指令遵循方面的训练。这些模型旨在替代 OpenAI 之前的 GPT-3 base 基础模型,且使用旧版 Completions API。OpenAI 推荐大多数用户直接使用 GPT-3.5 或者 GPT-4。

模型

说明

最大TOKENS

训练数据

babbage-002

替代ada与babbage基础模型。

16,384 tokens

截至2021年9月

davinci-002

替代GPT-3 curie与davinci基础模型。

16,384 tokens

截至2021年9月

 

使用政策

 

在用户数据处理上,OpenAI 强调用户数据始终归用户所有。

 

自 2023 年 3 月 1 日起,发送至 OpenAI API 的数据将不会被用于训练或改进 OpenAI 模型(除非用户明确表示同意 )。但若选择参与改进,那么模型可能随时间推移更加契合的用例。

 

为了帮助识别滥用行为,API 数据最多可保留 30 天,之后将被删除(除非法律另行要求)。对于用例较为敏感的可信客户,OpenAI 亦提供零数据保留选项。在零数据保留情况下,请求与响应主体不会被持久保存在任何日志记录当中,而仅放置在内存内以支持服务需求。请注意,此数据政策不适用于 OpenAI 提供的非 API 消费级服务,例如 ChatGPT 或 DALl-E Labs。

 

端点默认使用政策

 

端点

数据是否被用于训练

默认保留周期

是否符合零保留条件

/v1/chat/completions*

30天

是,但图像输入除外*

/v1/files

直至客户主动删除

/v1/assistants

直至客户主动删除

/v1/threads

60天

/v1/threads/messages

60天

/v1/threads/runs

60天*

/v1/threads/runs/steps

60天*

/v1/images/generations

30天

/v1/images/edits

30天

/v1/images/variations

30天

/v1/embeddings

30天

/v1/audio/transcriptions

零数据保留

-

/v1/audio/translations

零数据保留

-

/v1/audio/speech

30天

/v1/fine_tuning/jobs

直至客户主动删除

/v1/moderations

零数据保留

-

/v1/completions

30天

* 通过 GPT-4-vison-preview 模型输入的图像不符合零保留条件。

* 对于 Assistants API,OpenAI 仍在 beta 期间评估默认保留周期。预计 beta 结束后将确定沿用默认的保留周期。

 

关于更多详细信息,请参阅 OpenAI 的 API 数据使用政策:

https://openai.com/policies/api-data-usage-policies

 

模型端点兼容性

 

端点

最新模型

/v1/assistants

支持除GPT-3.5-turbo-0301之外的所有模型。检索工具需要匹配GPT-4-turbo-preview(及日期更早的模型版本)或者GPT-3.5-turbo-1106(以及后续版本)。

/v1/audio/transcriptions

whisper-1

/v1/audio/translations

whisper-1

/v1/audio/speech

tts-1, tts-1-hd

/v1/chat/completions

GPT-4及日期更早的模型版本,GPT-4-turbo-preview及日期更早的模型版本,GPT-4-vision-preview,GPT-4-32k及日期更早的模型版本,GPT-3.5-turbo及日期更早的模型版本,GPT-3.5-turbo-16k及日期更早的模型版本,GPT-3.5-turbo的各微调版本。

/v1/completions (Legacy)

GPT-3.5-turbo-instruct, babbage-002, davinci-002

/v1/embeddings

text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002

/v1/fine_tuning/jobs

GPT-3.5-turbo, babbage-002, davinci-002

/v1/moderations

text-moderation-stable, text-moderation-latest

/v1/images/generations

dall-e-2, dall-e-3

此列表不包含已被 OpenAI 弃用的各模型版本:

https://platform.openai.com/docs/deprecations

 

相关链接:

https://platform.openai.com/docs/models/GPT-4-and-GPT-4-turbo

 

2024-02-20 16:5612280

评论

发布
暂无评论
发现更多内容

大众碰到点评的一个字体反爬,落地技术也是绝了

梦想橡皮擦

Python 爬虫 8月月更

PanGu-Coder:函数级的代码生成模型

华为云开发者联盟

人工智能

大数据培训机构有哪些?

小谷哥

开源一夏|基于ArkUI eTS开发的坚果食谱(NutRecipes)

坚果

开源 HarmonyOS OpenHarmony OpenHarmony应用开发 8月月更

MVVM响应式

flow

8月月更

10年稳定性保障经验总结,故障复盘要回答哪三大关键问题?|奈雪的茶李道兵

TakinTalks稳定性社区

大数据技术培训班怎么选择?

小谷哥

2.8K 120Hz触控双屏加持 灵耀X 双屏Pro 2022让办公无惧想象

科技热闻

Web前端培训班学前端技术靠谱吗

小谷哥

表达式引擎在转转平台的实践

转转技术团队

表达式 引擎

OpenHarmony高校技术俱乐部计划发布

科技汇

七日算法先导(一)—— 数组

工程师日月

8月月更

易周金融分析 | 银行ATM机智能化改造提速;互联网贷款新规带来挑战

易观分析

金融 分析

WPF如何自定义隐藏下拉框选项

吴脑的键客

WPF

首届中国计算机学会芯片大会召开,宋继强分享英特尔最新底层技术创新进展

科技之家

50W+小程序开发者背后的数据库降本增效实践

石云升

数据库 severless 全球架构师峰会 ArchSummit 8月月更

为了带你搞懂RPC,我们手写了一个RPC框架

PPPHUANG

Java 架构 dubbo RPC RPC 协议实现原理

武汉参加web前端培训哪家好

小谷哥

打破文件锁限制,以存储力量助力企业增长新动力

焱融科技

存储 文件存储 分布式文件存储 文件锁

语音聊天app源码——语音聊天派对

开源直播系统源码

软件开发 直播系统源码 开源源码 语音聊天源码 一对一语音聊天系统

vue高频面试题(附答案)

helloworld1024fd

Vue

人像分割技术解析与应用

ZEGO即构

如何使用 Mashup 技术在 SAP Cloud for Customer 页面嵌入自定义 UI

汪子熙

html5 前端开发 SAP C4C 8月月更

动态模型中嵌入静态模型实践

FunTester

JAVA编程规范之安全规约

源字节1号

后端开发 网站开发

️前端研发的新基础设施 - Rust ️🦀️

阿里技术

​Rust

游戏元宇宙发展趋势展望分析

易观分析

游戏 分析 元宇宙

兆骑科创平台招才引智,海内外高层次人才引进平台

兆骑科创凤阁

用户体验 | 如何度量用户体验 ?

易观分析

用户体验

未来源码 | 终于有人把大数据、机器学习、数据科学讲明白了

MobTech袤博科技

数据挖掘 机器学习 大数据

英特尔全方位打造算力基础,助推“算”赋百业

科技之家

OpenAI模型家族更新:GPT-4训练数据至2023年12月_生成式 AI_核子可乐_InfoQ精选文章