优先应用于“Max AI”
Weverse Brain于29日表示,已将自主开发的TTS引擎商用化并应用于“Max AI”。
此次开发的TTS引擎已优先应用于公司对话式人工智能辅导服务“Max AI”的部分功能。继此前完成STT引擎的开发之后,Weverse Brain又开发出TTS引擎,由此掌握了对话式人工智能在语音处理全流程上的核心技术。
自研TTS引擎的核心优势主要有三点:▲非英语语种的语音合成质量 ▲混合双语发话(代码切换)处理 ▲发话指令控制技术。
非英语语种的语音合成质量是全球商用引擎相对薄弱的领域之一,该引擎最大限度地减少了以汉字为基础的语言中常见的发音和语调错误。公司在运营多语言教育服务过程中积累的各语种音素分析和发音理解能力,成为纠错的基础。
双语发话,是指在一句话中掺杂不同语言时,能够无缝处理语言切换的技术。与英语圈不同,亚洲语系在日常对话中往往会自然混用外语。例如,在“截止时间是到8点”为例句中,如果把“deadline”拆成“dead”和“line”,就可能出现“dead”按英语发音、“line”按韩语发音分割朗读的生硬情况。Weverse Brain的自研引擎则被设计为可以自然处理此类语言切换点。
发话指令控制,是指可以对语调、重音、语速、音色等发话的细微要素进行精细指示的技术。用户可以根据目的设计相应的发话风格,例如在关键信息上加重读或者放慢语速。不仅在教育场景,在强调传达力的人工智能咨询、销售应对、内容解说等各类对话式人工智能服务中,该技术也具有较高的应用价值。
Weverse Brain首席执行官Jo Sewon表示:“此次TTS自研落地,是为了构建一种超越语言学习本身、让人工智能像人一样自然开口说话的环境所进行的基础性工作。今后我们将继续高度化对话式人工智能的核心技术,并拓展至更多业务领域。”
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。