热搜词:

openai发布gpt-4多模态大模型(GPT-4今天凌晨发布)

发布:佚名

GPT-4今天凌晨发布,多模态大成为关注焦点!

说重点!

今天凌晨,OpenAI 发布了多模态预训练大模型 GPT-4。据说升级版在能力上比GPT-3.5高出一大截。

比如,GPT-4 实现了强大的识图能力;文字输入限制提升至 2.5 万字;回答准确性显著提高;能够生成歌词、创意文本,实现风格变化等能力的提升。

说了这么久的多模态,到底什么是多模态?多模态指的是多种模式和形态的信息,包括:文本、图像、视频、音频等。 顾名思义,多模态研究的就是这些不同类型的数据的融合的问题。 目前大多数工作中,只处理图像和文本形式的数据,即把视频数据转为图像,把音频数据转为文本格式。

OpenAI工程师说:“GPT-4 是世界第一款高体验,强能力的先进AI系统,我们希望很快把它推向所有人。”

因此,OpenAI发布了论文-技术报告、 System Card,把 ChatGPT 直接升级成了 GPT-4 版,也开放了 GPT-4 的 API。

GPT-4到底有多牛?

实验表明,GPT-4 在各种专业测试和学术基准上的表现与人类水平相当。例如,它通过了模拟律师考试,且分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分在倒数 10% 左右。

比如给 GPT-4 一个长相奇怪的充电器的图片,问为什么这很可笑?GPT-4 回答道,VGA 线充 iPhone。

研究人员用学术的 Benchmark 视角来解读 GPT-4 的看图能力,然而这已经不够了,他们还能不断发现该模型可以令人兴奋地处理新任务 —— 现在的矛盾是 AI 的能力和人类想象力之间的矛盾。

看到这里,应该有研究人员感叹:CV 不存在了。

GPT-4 发布后,OpenAI 直接升级了 ChatGPT。ChatGPT Plus 订阅者可以在 chat.openai.com 上获得具有使用上限的 GPT-4 访问权限。要访问 GPT-4 API(它使用与 gpt-3.5-turbo 相同的 ChatCompletions API),用户可以注册等待。OpenAI 会邀请部分开发者体验。

#GPT-4#

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 admin@9yuanwu.com举报,一经查实,本站将立刻删除。

大家都在看

查看更多用户投稿