OpenAI 周一宣布了一款新的旗舰生成式 AI 模型,他们称之为 GPT-4o——“o”代表“omni”,指的是该模型处理文本、语音和视频的能力。但目前仅向少数 Plus 用户进行有限推广
所有 Plus 用户需等到秋季才能使用此功能。被选中参与 Alpha 测试的用户将收到包含说明的电子邮件,并在移动应用中收到通知。
同时,视频和屏幕共享功能也在继续推出,具体时间尚未确定。
OpenAI 表示高级语音模式与 ChatGPT 中当前可用的语音模式有所不同。ChatGPT 的旧音频解决方案使用了三个独立的模型:一个用于将您的语音转换为文本,GPT-4 用于处理您的提示,然后第三个模型将 ChatGPT 的文本转换为语音。但 GPT-4o 是多模式的,能够在没有辅助模型帮助的情况下处理这些任务,从而显著降低对话的延迟。OpenAI 还声称 GPT-4o 可以感知您声音中的情绪语调,包括悲伤、兴奋或歌唱。
-=||=-收藏赞 (0)
评论前必须登录!
立即登录 注册