OpenAI于2024年9月25日正式推出了ChatGPT的高级语音助手功能(Advanced Voice Mode),这一功能将首先面向ChatGPT Plus用户和小型企业团队开放,随后计划扩展到教育和企业版用户。以下是该功能的详细介绍:
功能亮点
- 自定义指令:
- 用户可以为语音助手设定个性化的指令,调整助手的语音回复方式,包括语速、正式程度和称呼方式等。这使得与助手的互动更加符合个人偏好[1][2][3]。
- 记忆功能:
- 高级语音助手具备记忆用户偏好的能力,可以在不同对话中记住用户提供的信息,从而在后续交流中提供更相关的回答。例如,如果用户有饮食限制,助手将在相关对话中考虑这些限制[1][3][4]。
- 多样化声线:
- 新增五种声线(Arbor、Maple、Sol、Spruce和Vale),与原有的四种声线(Breeze、Juniper、Cove和Ember)相结合,共计九种选择。这些声线灵感来源于自然元素,旨在提供多样化的语气和特征[1][2][4]。
- 语言支持:
- 高级语音助手支持超过50种语言,包括普通话,使其能够满足更广泛用户的需求。在演示中,助手能够流利地用多种语言进行交流[1][3][5]。
- 改进的对话体验:
- 该模式不仅提升了对话速度和流畅度,还优化了口音,使得语音交流更自然,仿佛与真人朋友对话一般[2][4]。
使用场景
用户可以通过语音与ChatGPT进行互动,而无需手动输入。例如,用户可以询问周边活动或天气信息,助手会根据用户之前输入的住址信息主动推荐相关活动或规划出行路线。这种互动方式大大提升了使用体验[1][3]。
发布信息
- 首发地区:目前该功能主要在美国市场上线,尚未在欧盟、英国等地区开放使用,OpenAI尚未公布这些地区的开放时间[1][4]。
- 适用模型:该功能专为OpenAI最新的GPT-4o模型设计,不适用于较早发布的预览模型o1[1][3]。
OpenAI首席执行官山姆·奥尔特曼表示,希望用户觉得等待是值得的,并期待这一新功能能够为用户带来更便捷和个性化的体验。