OpenAI又放大招,GPT4o面世,而且免费!

chatgpt代充2024-05-14 08:44:22149

先做个广告:如需代注册帐号或代充值Chatgpt Plus会员,请添加站长客服微信:pingzi7749

5月14日凌晨2点,OpenAI紧急召开发布会,说不能让Mark断更,咱们搞波大的。

三个重点

  1. 全新的模型GPT4o,支持多模态,音频响应时间达到毫秒级,也就是说我们可以像和人对话一样和ChatGPT进行视频聊天,ChatGPT会通过视频和语音来解答我们的问题,并且还可以识别我们语音中的情绪。

  2. 优化了中文算法,使中文token消耗下降1.4倍,也就是说,我们以后使用ChatGPT,不用把提示词翻译成英文再提问了。

  3. 免费,GPT4o将向Plus开放抢险体验,并且有计划向免费用户开放,同时还会会向免费用户开放如GPTs、多模态、文件上传等更多强大功能。


免费带来更多智能和高级工具

我们的使命包括为尽可能多的人提供先进的人工智能工具。每周有超过一亿人使用 ChatGPT。在接下来的几周内,我们将开始向 ChatGPT Free 用户推出更多智能和高级工具。

使用 GPT-4o 时,ChatGPT Free 用户现在可以访问以下功能:

  • 体验 GPT-4 级智能

  • 获取响应(在新窗口中打开)从模型和网络

  • 分析数据(在新窗口中打开)并创建图表

  • 聊聊您拍摄的照片

  • 上传文件(在新窗口中打开)帮助总结、写作或分析

  • 发现和使用 GPT 和 GPT 商店

  • 使用“内存”打造更有用的体验

官网上还有更多好玩的内容可以探索

多说一句,OpenAI的官网是没被墙的,所有人都可以自由访问:

https://openai.com/

像和人一样沟通

实时翻译

给你唱首催眠曲

在 GPT-4o 之前,您可以使用语音模式与 ChatGPT 交谈,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4)。为了实现这一点,语音模式是一个由三个独立模型组成的管道:一个简单的模型将音频转录为文本,GPT-3.5 或 GPT-4 接收文本并输出文本,第三个简单模型将该文本转换回音频。这个过程意味着智能的主要来源 GPT-4 会丢失大量信息——它无法直接观察音调、多个扬声器或背景噪音,也无法输出笑声、歌声或表达情感。

借助 GPT-4o,我们在文本、视觉和音频上端到端地训练了一个新模型,这意味着所有输入和输出都由同一个神经网络处理。因为 GPT-4o 是我们第一个结合了所有这些模式的模型,所以我们仍然只是在探索该模型可以做什么及其局限性的表面。

官网上还有更多好玩的内容,我就不一个一个粘贴了,感兴趣的朋友自己去探索吧~

本文链接:https://www.vipbxr.vip/GPT5_357.html

GPT-4oGPT4ogpt-4o检测人的情绪gpt-4o多模态大模型发布GPT-4o免费GPT-4o官网GPT4o官网

相关文章

网友评论