在首次向公众展示的四个月后,OpenAI终于要面向其所有付费用户开放ChatGPT的类人高级人工智能(AI)语音助手功能——“高级语音模式”(Advanced Voice Mode,以下简称AVM)。

OpenAI周二(24日)宣布,所有付费订阅ChatGPT Plus和Team计划的用户,都将可以使用新的AVM功能,不过该模式将在未来几天逐步推出。它将首先在美国市场上线。

该功能将向OpenAI Edu 和Enterprise 计划的订阅者开放。据悉,AVM提高了部分外语的对话速度、流畅度并改进口音。

OpenAI的最新举措意味着,本周,ChatGPT的Plus版个人用户和Teams版小型企业团队用户都可以启用新的语音功能,只需通过说话、无需手动输入提示词和GPT对话;在App上访问高级语音模式时,用户可以通过弹出窗口知道自己已经进入了高级语音助手,用户会收到App的通知。

此外,AVM还新增了两大功能:为语音助手存储“自定义指令”,以及记住用户希望语音助手表现何种行为的“记忆”的功能(这类似于今年4月OpenAI为ChatGPT文本版本推出的记忆功能)。

也就是说,ChatGPT用户可以利用自定义指令和“记忆”来确保语音模式是个性化的,AVM会根据他们对所有对话的偏好做出响应。

语音方面,OpenAI推出了五种不同风格的新声音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四种声音Breeze、Juniper、Cove和Ember,可选声音达到九种,撤走了被指山寨“寡姐”(女演员斯嘉丽·约翰逊)的声音Sky。

这意味着,ChatGPT的Plus版个人用户和小型企业团队用户(Teams)可以通过“说话”的方式,而不是输入提示来使用聊天机器人。

当用户在应用程序上进入语音模式时,他们会通过一个弹出窗口知道他们已经进入了高级语音助手。最后值得一提的是,AVM可以用超过50种语言说“对不起,我迟到了”。

根据OpenAI在X上发布的一段视频,用户要求语音助手表达,由于让奶奶久等了,向奶奶致歉。AVM先用英语流畅地总结了一遍,并在用户表示“奶奶只会说普通话”后,又用标准的中文普通话表达了一遍。

这些更新只适用于OpenAI的AI模型GPT-4o,不适用于最近发布的预览模型o1。

今年5月,OpenAI首次展示了这款语音产品,并展示了它如何快速响应用户发出的书面和视觉提示。但在6月,以解决潜在安全问题为由,推迟发布。到了7月份,该功能也只面向有限数量的ChatGPT Plus用户开放。不过,新的语音模式缺少5月OpenAI展示过的不少功能,比如计算机视觉功能。该功能可让GPT仅通过使用智能手机的摄像头就对用户的舞蹈动作提供语音反馈。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:王许宁