最新发布!查看 MagicData 成品数据集

新闻

press images

挑战赛 | ISCSLP2022对话短语音说话人日志挑战赛决出三甲

发布时间 : 2022-09-16     阅读量 : 45

2022年7月4日起,由中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data联合主办的 “ISCSLP2022对话短语音说话人日志挑战赛” (ISCSLP 2022 Conversational Short-phrase Speaker Diarization Challenge, CSSD),自开展以来共收到了四十多支国内外研究机构、大学及知名企业的参赛队伍注册报名。9月16日,组委会正式公布本次挑战赛成绩排名。

「竞赛结果与排名」

经过激烈的角逐,本次ISCSLP2022对话短语音说话人日志挑战赛获奖队伍如下,恭喜获奖团队!

「挑战赛背景」

对话场景是语音处理技术最重要的场景之一,同时也是最具挑战性的场景。在日常对话中,人们以随意的方式相互回应,并以连贯的问题和意见继续对话,而不是生硬地回答对方的问题。精准检测对话中每个人的语音活动,对于自然语言处理、机器翻译等众多下游任务至关重要。说话人分类系统的评价指标是分类错误率(DER)长期以来一直被用作说话人分类的标准评估指标,但它未能对短对话短语给予足够的重视。这些短对话短语持续时间短,但在语义层面上起重要作用。语音社区也缺乏有效评估对话中短语音分类准确性的评估指标。

围绕这一难题,我们开源了 MagicData-RAMC中文对话语音数据集,其中包含 180 小时人工标注对话语音数据。同时针对CSSD测评,我们还准备了 20 小时对话测试数据,并人工对说话人时间点进行了精准标注。针对CSSD挑战,我们同时设计了一个新的准确度评估指标,用于计算句子层面说话人分割聚类的精度。通过推动对话数据分割聚类技术的研究,我们旨在进一步促进该领域的可重复研究。

「打分工具介绍」

为了评价说话人日志系统的性能,我们提出了Conversational-DER (CDER) 的指标。传统的DER 可以在时间尺度上评估说话人分类系统的整体性能。但是,在实际对话中,有时较短的持续时间包含重要信息,基于时间尺度的系统评价标准难以反映短时片段的识别性能。因此我们提出了CDER ,在句子级别评估说话人日志系统。

更多详情:https://github.com/MagicHub-io/CDER_Metric

「致谢」

感谢来自中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data在语音领域深耕多年,有着丰富研究和实战经验的专家,作为竞赛组委会成员,全程给予答疑支持和指导。

感谢SegmentFault思否开发者社区、稀土掘金技术社区、示说网等多家社区的大力支持。后续我们将会对业界开放基础算法框架,同时也寻求学术和工业界在该问题的先进算法和技术,携手共建更优的解决方案。

即刻与 Magic Data 建立联系?

联系我们

TOP
联系我们