毕业论文
您现在的位置: 语言识别 >> 语言识别资源 >> 正文 >> 正文

识图能力强,API价格是原来的60

来源:语言识别 时间:2024/8/14

北京时间月3月15日凌晨,距ChatGPT发布不到4个月,OpenAI公司再次发布了一个王炸级别消息——正式公布多模态预训练大模型GPT-4。本应于周四发布的GPT-4提前了一天多的时间揭开神秘面纱,也让许多人感到猝不及防。

OpenAI创始人SamAltman在推特上直言不讳地称其为该公司“迄今为止功能最强大、最一致的模型”。很快,GPT-4上线仅几分钟后,大批新的订阅用户涌入,OpenAI的付款系统被挤爆了。

目前,GPT-4仅限ChatGPT的Plus订阅用户使用,其他用户需要排队申请内测。率先体验了GPT-4的IT从业人员Wang告诉《每日经济新闻》记者,“推理能力非常赞。”不过,他认为,和人类比(GPT-4生成的内容)还是较弱,“我倾向于认为,它应该没有元创新能力。”

与门庭若市的GPT-4相比,谷歌的门前就显得异常冷清了。当天,谷歌发布了一支预告片,演示了整合其AI功能的WorkSpace功能,但在GPT-4的光环之下黯然失色。

记者注意到,在GPT-4中,支持图像理解的功能是一个最大的飞跃。基于此,GPT-4的API也区分了输入端(即文本和图像形式的prompt)和输出端(生成文本),分别进行收费,而GPT-4输出端的最高价格大约是GPT-3.5Turbo的60倍。

实际上,科技巨头间围绕多模态模型的较量也已经展开,微软、谷歌、Meta、Deepmind都发布了自己的多模态模型。未来,多模态模型或将成为AI领域的兵家必争之地。“我们认为这是这场AI军备竞赛中,GPT技术升级的又一重要步骤。截至目前,微软的技术仍远高于谷歌。”Wedbush董事总经理DanielIves告诉每经记者。

6个月心血打造,GPT-4强在哪里?

在推特上,SamAltman透露,GPT-4的初始训练已经完成了很长一段时间,但他和他的团队花了很长时间和大量的工作才准备好发布它。据OpenAI,团队花了6个月的时间使用对抗性测试程序和ChatGPT的经验教训,对GPT-4进行迭代调整,从而在真实性、可控性等方面取得了有史以来最好的结果。

根据OpenAI的GPT-4文档,这一次的GPT-4是一种多模态语言模型,能接受图像和文本输入,再输出正确的文本回复。相较于ChatGPT基于的GPT-3.5模型,它拥有强大的识图能力,文字输入限制提升,准确性显著提高,风格上也有了变化,例如能够生成歌词和创意文本。

有推特用户表示,他仅花了60秒钟的时间就用GPT-4重建了一个名为“Pong”的游戏。“我不在乎这是不是通用AI,但GPT-4是一项令人难以置信的变革性技术。事情彻底变了。”

图片来源:推特

有用户直接让GPT-4续写红楼梦,结果有模有样。

图片来源:某社交媒体

一位IT从业人员Wang已经率先体验了GPT-4的强大功能,他告诉《每日经济新闻》记者,“简单试了一下,推理能力非常赞。”他认为,在一定程度上,GPT-4的回答已经并非基于网上信息的整合,而是有一些真正的推理能力了。

记者在多个AIGC讨论群组中注意到,相比于GPT-3.5,GPT-4在许多问题上的回答确实游刃有余,也能识别问题中的错误信息。

图片来源:

转载请注明:http://www.0431gb208.com/sjslczl/7263.html

  • 上一篇文章:
  • 下一篇文章: 没有了