#OpenAI发布GPT-4o模型#
OpenAI在当地时间5月13日发布了人工智能模型GPT-4o,称该模型提升了速度和性能。OpenAI首席技术官Mira Murati表示,GPT-4o具备GPT-4的智能水平,但处理速度更快,比GPT-4 Turbo快了一倍;新模型还改进了GPT-4在文本、语音和视觉方面的能力。OpenAI 表示,该模型现在能提供 "实时"响应,甚至能捕捉用户声音中的情感,并生成 "一系列不同情感风格 "的语音。GPT-4o 将免费提供给所有用户,付费用户则可以享受五倍的调用额度。OpenAI 还发布了桌面版的 ChatGPT 和新的用户界面,有了照片或桌面屏幕,ChatGPT 可以快速回答与图片相关的问题。
OpenAI在当地时间5月13日发布了人工智能模型GPT-4o,称该模型提升了速度和性能。OpenAI首席技术官Mira Murati表示,GPT-4o具备GPT-4的智能水平,但处理速度更快,比GPT-4 Turbo快了一倍;新模型还改进了GPT-4在文本、语音和视觉方面的能力。OpenAI 表示,该模型现在能提供 "实时"响应,甚至能捕捉用户声音中的情感,并生成 "一系列不同情感风格 "的语音。GPT-4o 将免费提供给所有用户,付费用户则可以享受五倍的调用额度。OpenAI 还发布了桌面版的 ChatGPT 和新的用户界面,有了照片或桌面屏幕,ChatGPT 可以快速回答与图片相关的问题。
【#GPT4o可检测人的情绪##GPT4o可识别人说话的语气#】OpenAI 宣布推出其最新旗舰生成式 AI 模型 GPT-4o,将免费提供给所有用户使用。OpenAI称,GPT-4o可以检测人的情绪。在发布会上,演示者将手机举到自己面前正对着脸,要求ChatGPT告诉他自己长什么样子。最初,GPT参考了他之前分享的一张照片,将他识别为“木质表面”。经过第二次尝试,GPT给出了更好的答案。GPT注意到了Zoph脸上的微笑,对他说:“看起来你感觉非常快乐,喜笑颜开。”有评论称,这个演示显示,ChatGPT可以读取人类的情绪,但读取还有一点困难。
OpenAI首席技术官米拉·穆拉蒂强调了GPT-4o在实时语音和音频功能方面必要的安全性,称OpenAI将继续部署迭代,带来所有的功能。
在演示中,OpenAI研究主管Mark Chen掏出手机打开ChatGPT,用语音模式Voice Mode现场演示,向GPT-4o支持的ChatGPT征询建议。GPT的声音听起来像一位美国女性,当它听到Chen过度呼气时,它似乎从中察觉到了他的紧张。然后说“Mark,你不是吸尘器”,告诉Chen要放松呼吸。(综合每日经济新闻、IT之家)#OpenAI发布会#
OpenAI首席技术官米拉·穆拉蒂强调了GPT-4o在实时语音和音频功能方面必要的安全性,称OpenAI将继续部署迭代,带来所有的功能。
在演示中,OpenAI研究主管Mark Chen掏出手机打开ChatGPT,用语音模式Voice Mode现场演示,向GPT-4o支持的ChatGPT征询建议。GPT的声音听起来像一位美国女性,当它听到Chen过度呼气时,它似乎从中察觉到了他的紧张。然后说“Mark,你不是吸尘器”,告诉Chen要放松呼吸。(综合每日经济新闻、IT之家)#OpenAI发布会#
昨日 #openai##gpt-4o# 春更发布,看了网上的demo之后真的足够震撼,感觉我快失业了 [裂开][裂开]
GPT-4o(“o”表示“omni”)是迈向更自然的人机交互的一步——支持文本、音频和图像的任何组合作为输入,并生成文本、音频和图像任何组合的输出。
232毫秒内响应音频输入(平均320毫秒)。与英语和代码文本的GPT-4 Turbo性能相匹配,对非英语语言的文本有显著改进。与现有模型相比,GPT-4o在视觉和音频理解方面更加出色。
根据传统基准的衡量,如下图的评估表,GPT-4o在文本、推理和编码智能方面实现了GPT-4涡轮级性能,同时在多语言、音频和视觉能力上创出新高。
#好奇心观察局#
GPT-4o(“o”表示“omni”)是迈向更自然的人机交互的一步——支持文本、音频和图像的任何组合作为输入,并生成文本、音频和图像任何组合的输出。
232毫秒内响应音频输入(平均320毫秒)。与英语和代码文本的GPT-4 Turbo性能相匹配,对非英语语言的文本有显著改进。与现有模型相比,GPT-4o在视觉和音频理解方面更加出色。
根据传统基准的衡量,如下图的评估表,GPT-4o在文本、推理和编码智能方面实现了GPT-4涡轮级性能,同时在多语言、音频和视觉能力上创出新高。
#好奇心观察局#
✋热门推荐