OpenAI 在 Dev Day 上发布了系列重大新功能,我们帮大家梳理为4类: (1)更强的模型性能和更低的成本。GPT3.5和 GPT4的各模型均在context 大小上有所提升,同时,价格降低,并且提供了 response format 和 seed 等新参数,使得开发者可以更好地控制返回结果的格式,以及获得更加一致的生成结果; (2)全新的 Assistant API 。过去, API 用户想要开发类似 ChatGPT 这样的多轮对话应用,需要去规避 context 大小的限制,通常需要引入更多外部组件,增加复杂度。 Assistant API 则新增了 thread 概念,用户可以简单地将新消息加入到一个已经存在的 thread ,实现多轮对话。 (3)开放更多 API 能力。现在,gpt-4-vision-preview 、dall-e-3、text-to-speech 模型功能均可通过 API 使用,提供视觉识别、图像生成、文本转语音的多模态能力。 (4)模型开源。发布了语音识别模型 Whisper 的 V3版本,以及开源了 Consistency Decoder,后者是 Stable Diffusion VAE 的替代品,提供更强的文字、面部图像识别。
/20231112/2uB5PHGsdLqYPB3jw/2utbUHbEogj8x3MwS