→开yun体育官网入口登录APP下载官方版-天下网标王
首页 > >开yun体育app下载官网下载APK高速下载开yun体育app下载官网
  • 使用语言:中文
  • :需要联网
  • 系统要求:6.8以上
  • 应用介绍第一步:访问《开yun体育app下载官网》官网👉首先,打开您的浏览器,输入开yun体育app下载官网的官方网址《http://vmdukgk.huaweiupse.com/appset/detail/vmFEWh8K》。您可以通过搜索引擎搜索开yun体育app下载官网或直接输入网址来访问
    👉第二步:点击注册按钮 在 《开yun体育app下载官网》站首 页右上角,您可以找到“登录”按钮。当您点击“登录”时,弹出的下拉菜单中有一个名为“注册”的按钮。点击该按钮以开始注册流程。
    👉第三步:填写注册信息 在《开yun体育app下载官网》注册页面,需要填写以下信息哦。
    👉第四步:验证账户 填写完个人信息后,您可能需要进行账户验证。澳门新葡官网进入网站会向您提供的电子邮件地址或手机号码发送一条验证信息,您需要按照提示进行验证操作。这有助于确保账户的安全性,并防止不法分子滥用您的个人信息。
    👉第五步:设置安全选项 澳门新葡官网进入网站通常要求您设置一些安全选项,以增强账户的安全性。例如,可以设置安全问题和答案,启用两步验证等功能。请根据系统的提示设置相关选项,并妥善保管相关信息,确保您的账户安全。
    👉第六步:阅读并同意条款 在注册过程中,澳门新葡官网进入网站会提供使用条款和规定供您阅读。这些条款包括平台的使用规范、隐私政策等内容。在注册之前,请仔细阅读并理解这些条款,并确保您同意并愿意遵守。
    👉第七步:完成注册 一旦您完成了所有必要的步骤,并同意了澳门新葡官网进入网站的条款,恭喜您!您已经成功注册了澳门新葡官网进入网站账户。现在,您可以畅享澳门新葡官网进入网站提供的丰富体育赛事、刺激的游戏体验以及其他令人兴奋
    🔥开yun体育app下载官网应用是一种基于云技术的应用程序,在云端进行数据存储、计算和处理。应用可以通过互联网访问,无需安装在用户设备上,可以随时随地使用。
    🔥开yun体育app下载官网,现在下载,新用户还送新人礼包😍。 开yun体育app下载官网游戏是一款动作游戏,结果是卡牌手游,小编我就不想说什么了。感新兴趣的来看看吧。
    🔥欢迎使用开yun体育app下载官网系统类型:😍开yun体育app下载官网(中国)官方网站/IOS/Android通用版/手机2025-02-08是一款看上去十分不错的经典战棋玩法的推拉动作手游,游戏中包含五种不同的角色形象,自由搭配,打造最强的战队模式。
    🔥开yun体育app下载官网软件,一款可以记录各种比赛的计分器工具,软件中提供各种体育、篮球、足球、乒乓球、羽毛球、网球、台球、棒球、排球等等,在打比赛的时候可以实时记分,结束比赛后可以随时查看记录的分数,是一个非常实用的软件。
    🔥开yun体育app下载官网是一家提供绿色安全应用与游戏的安全下载市场,商店上汇聚了海量更新更全的ios-Android软件、ios-Android应用和ios-Android游戏。
    🔥开yun体育app下载官网10分钟一局享受极致紧张刺激的推理乐趣!千万年轻人的选择,速来加入!分年龄、分水平的快速匹配,让你每一局都是质量局,给你提供最好的游戏环境!!

    AIxiv专栏是小米新代机器之心发布学术、技术内容的语音识栏目。过去数年,别算机器之心AIxiv专栏接收报道了2000多篇内容,小米新代覆盖全球各大高校与企业的语音识顶级实验室,有效促进了学术交流与传播。别算如果您有优秀的小米新代工作想要分享,欢迎投稿或者联系报道。语音识投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

    新一代 Kaldi 团队是别算由 Kaldi 之父、IEEE fellow、小米新代小米集团首席语音科学家 Daniel Povey 领衔的语音识团队,专注于开源语音基础引擎研发,别算从神经网络声学编码器、小米新代损失函数、语音识优化器和解码器等各方面重构语音技术链路,别算旨在提高智能语音任务的准确率和效率。

    目前,新一代 Kaldi 项目 (https://github.com/k2-fsa)主要由四个子项目构成:核心算法库 k2、通用语音数据处理工具包 Lhotse、解决方案集合 Icefall 以及服务端引擎 Sherpa,方便开发者轻松训练、部署自己的智能语音模型。

    近日,小米集团新一代 Kaldi 团队关于语音识别算法的论文《CR-CTC: Consistency regularization on CTC for improved speech recognition》被 ICLR 2025 接收。

    摘要

    主流的自动语音识别(ASR)模型包括 CTC [1]、transducer [2] 和混合系统 CTC/AED [3]。CTC 是其中最简单、最便于部署的方法,但由于它的性能通常明显落后于 Transducer 和 CTC/AED,这限制了它的实际应用。

    为此,新一代 Kaldi 团队提出了 Consistency-Regularized CTC (CR-CTC),可以让纯 CTC 模型的识别性能比肩 Transducer 和 CTC/AED。CR-CTC 在多个主流的 ASR 数据集,包括 LibriSpeech、Aishell-1、GigaSpeech 等数据集上,取得新的 SOTA 结果(不依赖外部训练数据和外部语言模型)。

    例如,在 LibriSpeech 数据集上训练 Zipformer-L,标准 CTC 的 WER 为 2.5/5.72,CTC/AED 的 WER 为 2.09/4.59, Pruned Transducer 的 WER 为 2.00/4.38;CR-CTC 的 WER 为 2.02/4.35;CTC/AED 和 Pruned Transducer 挂上 CR-CTC 联合训练后,WER 可分别进一步降低到 1.96/4.08 和 1.88/3.95。

    方法实现

    如 Figure 1 所示,CR-CTC 方法非常简单,先从同一个输入 Mel-spectrogram  x 得到两个不同的 augmented views 

    。系统总体 loss 为:

    ,还引入 consistency regularization loss 来约束两个分布的一致性:

    ,除了计算两个 CTC loss 

    ,分别输入参数共享的 encoder 模型 f,得到对应的两个 CTC 概率分布

     和

    其中 α 为控制正则的超参数,默认设置为 0.2。

    Different augmented views

    我们对同一个输入 x 的两个 copy 独立地使用 SpecAugment [4] 来获得不同的 augmented views 

    。相较于普通的 ASR 系统,我们特意使用了更大程度的 time masking。

    。SpecAugment 包含 time warping、frequency masking 和 time masking。由于 time warping 会显著改变输出的时间戳,因此我们在创建 copy 前先应用 time warping,防止两个分支的输出分布在时间戳上严重不匹配。接着,分别对两个 copy 独立应用 frequency masking 和 time masking,得到了 

    Consistency regularization loss

    我们在CTC 分布的每一帧上应用 consistency regularization,通过最小化每一对分布 和 。此处,sg 表示 stop-gradient,防止这一项的梯度影响目标分布。Consistencyregularization loss 公式为:

    之间的双向 KL 散度:

    方法解释

    论文从三个不同的角度来解释 CR-CTC 的本质行为:1)self-distillation;2)masked prediction;3)peak suppression。

    Self-distillation

    当我们在训练中使用 dropout [5] 和 stochastic depth [6] 等模型正则技术,可以看作我们正在隐式地训练随机采样的不同 sub-model,这些 sub-model 最终被集成为一个 ensemble 用于推理。与 R-Drop [7] 和 cosub [8] 类似,CR-CTC 在进行对不同 sub-model 之间的 self-distillation,监督信号为对方提供的帧级别的 token 分布。另外,CR-CTC 使用了不同的 augmented views(以及更大程度的 time-masking),让这些 sub-model 接触输入数据的不同角度的信息,加强他们预测的多样性,这样有利于更丰富、更完备的知识蒸馏。

    Masked prediction

    在 CR-CTC 中,那些覆盖在 time masking 区域的帧,被要求着基于其他没有被 masked 的区域,去预测对方提供的 token 分布。这个过程类似于 masked-based 自监督模型 [9,10,11],鼓励模型去学习非 mask 部分的上下文表征信息,并发掘模型隐式的语言建模能力。我们在 CR-CTC 中使用不同的 augmented views,减少两边同时被覆盖在 time masking 区域的帧的出现,提高这些被 masked 位置所接收的 token 分布的质量。另外,使用更大程度的 time masking 可以加强 masked prediction 行为,进而增强模型对上下文表征信息的学习。 

    Peak suppression

    众所周知,CTC 通常会学习到非常尖的概率分布。如 Figure 2 (left) 所示,non-blank token 只占 1 帧,其他的都是 blank,它们的概率都非常高。这种现象表明模型有可能已经过拟合了,泛化能力不强。CR-CTC 的 consistency regularization 引导着模型学习两边分布的平均,这使得模型学习到的 CTC 分布会更加平滑。这个 peak suppression 行为减少了在训练数据上的过度置信,从而增强模型的泛化能力。如 Figure 2 (right) 所示,CR-CTC 学习到的分布更加平滑,概率更低,伴随着更多 non-blank 的 repeat 出现。

    实验结果

    论文主要使用 Zipformer [12] 作为 speech encoder 进行实验验证。由于 CR-CTC 训练时需要进行两次 forward,我们对 CR-CTC 模型的 batch size 和 epoch 数都设置为标准 CTC 模型的一半,来确保两者训练代价可比较。具体使用的 GPU 数量和 epoch 数在论文附录中。

    与 SOTA 模型相比较

    Table 1、2、3 分别展示了不同模型在 LibriSpeech、Aishell-1、GigaSpeech 三个数据集上的表现(不依赖外部训练数据和外部语言模型)。总的来说,CR-CTC 的性能显著超越标准 CTC,和 CTC/AED 与 Transducer 模型效果相当。另外,挂上 CR-CTC 联合训练,可以进一步提升 CTC/AED 和 Transducer 的性能。在这三个数据集上,我们取得了新的 SOTA 结果。

    消融实验

    Table 4、5、6 分别展示了 CR-CTC 关于不同解释角度 self-distillation、masked prediction、peak suppression 的消融实验结果,具体说明可参考论文。

    与挂一个 auxiliary head 联合训练相比较

    想要提升 CTC 系统的性能,一个最直接的方法便是挂一个 AED head 或者一个 Transducer head 联合训练。如 Table 7 所示,CR-CTC 的性能明显超过这两个方法,参数还更少。

    在 Conformer 模型上验证

    如 Table 17 所示,使用 Conformer [13] 作为 speech encoder 时,CR-CTC 同样可以显著提升 CTC 的性能,并且略微超过 CTC/AED 和 Transducer。

    参考

    [1] Graves, A., Fernández, S., Gomez, F., & Schmidhuber, J. (2006, June). Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks. In Proceedings of the 23rd international conference on Machine learning (pp. 369-376).

    [2] Graves, A. (2012). Sequence transduction with recurrent neural networks. arXiv preprint arXiv:1211.3711.

    [3] Watanabe, S., Hori, T., Kim, S., Hershey, J. R., & Hayashi, T. (2017). Hybrid CTC/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, 11 (8), 1240-1253.

    [4] Park, D. S., Chan, W., Zhang, Y., Chiu, C. C., Zoph, B., Cubuk, E. D., & Le, Q. V. (2019). Specaugment: A simple data augmentation method for automatic speech recognition. arXiv preprint arXiv:1904.08779.

    [5] Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15 (1), 1929-1958.

    [6] Huang, G., Sun, Y., Liu, Z., Sedra, D., & Weinberger, K. Q. (2016). Deep networks with stochastic depth. In Computer Vision–ECCV 2016: 14th European Conference, Amsterdam, The Netherlands, October 11–14, 2016, Proceedings, Part IV 14 (pp. 646-661). Springer International Publishing.

    [7] Wu, L., Li, J., Wang, Y., Meng, Q., Qin, T., Chen, W., ... & Liu, T. Y. (2021). R-drop: Regularized dropout for neural networks. Advances in Neural Information Processing Systems, 34, 10890-10905.

    [8] Touvron, H., Cord, M., Oquab, M., Bojanowski, P., Verbeek, J., & Jégou, H. (2023). Co-training 2L submodels for visual recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 11701-11710).

    [9] Devlin, J. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.

    [10] Baevski, A., Zhou, Y., Mohamed, A., & Auli, M. (2020). wav2vec 2.0: A framework for self-supervised learning of speech representations. Advances in neural information processing systems, 33, 12449-12460.

    [11] Hsu, W. N., Bolte, B., Tsai, Y. H. H., Lakhotia, K., Salakhutdinov, R., & Mohamed, A. (2021). Hubert: Self-supervised speech representation learning by masked prediction of hidden units. IEEE/ACM transactions on audio, speech, and language processing, 29, 3451-3460.

    [12] Yao, Z., Guo, L., Yang, X., Kang, W., Kuang, F., Yang, Y., ... & Povey, D. (2023, October). Zipformer: A faster and better encoder for automatic speech recognition. In The Twelfth International Conference on Learning Representations.

    [13] Gulati, A., Qin, J., Chiu, C. C., Parmar, N., Zhang, Y., Yu, J., ... & Pang, R. (2020). Conformer: Convolution-augmented transformer for speech recognition. arXiv preprint arXiv:2005.08100.


    【联系我们】
    客服热线:7686-875-931
    加载更多
    2K显示器促销价779元 游戏办公两不误[多图]

    2K显示器促销价779元 游戏办公两不误[多图]

  • 618见面趴?《啪啪三国2》诚邀玩家面基策划[图][多图]

    618见面趴?《啪啪三国2》诚邀玩家面基策划[图][多图]

  • 殿堂级竞技手游《街头篮球》全新内容抢先看[多图]

    殿堂级竞技手游《街头篮球》全新内容抢先看[多图]

  • 高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼[多图]

    高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼[多图]

  • 迈从MCHOSE GX87机械键盘超值优惠秒杀价324元![多图]

    迈从MCHOSE GX87机械键盘超值优惠秒杀价324元![多图]

  • 从不瞎掰!手游《死神觉醒》公认CP爆发[多图]
    欧洲杯足球盛宴手游《宠物小精灵》陪你狂欢[多图]

    欧洲杯足球盛宴手游《宠物小精灵》陪你狂欢[多图]

  • 多功能武器库 65《冰封之刃》神兵大曝光[多图]
    DeepSeek用的GRPO占用大量内存?有人给出了些破解方法[多图]

    DeepSeek用的GRPO占用大量内存?有人给出了些破解方法[多图]

  • 618见面趴?《啪啪三国2》诚邀玩家面基策划[图][多图]
    靠谱助手安卓模拟器《陆小凤传奇》震撼上线![多图]

    靠谱助手安卓模拟器《陆小凤传奇》震撼上线![多图]

  • 跳票也有福利 《上古奇迹》2测版本抢先看[多图]

    跳票也有福利 《上古奇迹》2测版本抢先看[多图]

  • 猜你喜欢

    剑随意动 《武侠》手游“灵剑”职业曝光
    焦点
    69286928270727072025-02-08 16:08:22
  • 专属神兵打造《萌漫大乱斗》装备加护将登场专属神兵打造《萌漫大乱斗》装备加护将登场专属神兵打造《萌漫大乱斗》装备加护将登场
    专属神兵打造《萌漫大乱斗》装备加护将登场
    综合
    69286928270727072025-02-08 16:08:22
  • 四招教你成为高高手 《七雄战记》新手攻略四招教你成为高高手 《七雄战记》新手攻略四招教你成为高高手 《七雄战记》新手攻略
    四招教你成为高高手 《七雄战记》新手攻略
    探索
    69286928270727072025-02-08 16:08:22
  • 3D动作冒险手游《黎明之光》战士角色首曝3D动作冒险手游《黎明之光》战士角色首曝3D动作冒险手游《黎明之光》战士角色首曝
    3D动作冒险手游《黎明之光》战士角色首曝
    知识
    69286928270727072025-02-08 16:08:22
  • 《九阴真经决战光明顶》美女百花派惊艳亮相《九阴真经决战光明顶》美女百花派惊艳亮相《九阴真经决战光明顶》美女百花派惊艳亮相
    《九阴真经决战光明顶》美女百花派惊艳亮相
    百科
    69286928270727072025-02-08 16:08:22
  • 高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼
    高逼格辅战神器《魔神禁域》华丽羽翼亮瞎眼
    时尚
    69286928270727072025-02-08 16:08:22
  • 相关内容推荐

    张家界网络公司就推19火星西宁网络公司安装摄像头玉溪网络公司推荐3火星下拉深圳倒闭网络公司阿尔法网络公司山西省太谷县网络公司原圈网络公司网络公司400电话话语绍兴网络公司选择16火星链川网络公司的号码有没有监管网络公司的部门网络公司客服受理单沈阳网络公司推荐3火星南江县广电网络公司电话网络公司收到收入的分录忻州网络公司北京兰州莎莎网络公司网络公司市场活动总结网络公司都怎么分工杭州天堂鸟网络公司网络公司的定位文案大庆网络公司优选4火星阿里巴巴菜鸟网络公司永州网络公司选择1火星下拉乔布斯创业网络公司网络公司辛苦吗长沙环金网络公司宿舍上海网络公司电话湖南有线株洲网络公司网龙网络公司职级保定网络公司首荐25火星曲靖市广电网络公司陈红钢越秀网络公司注册东莞广电网络公司公共服务东丽区网络公司图片吕梁网络公司甄选16火星恺英网络公司业务扩张网络公司费用加计扣除标准奈昕网络公司宣城网络公司首选25火星厦门广电网络公司怎么样湖南广电网络公司员工回台上班黄山网络公司推荐7火星下拉南京小田网络公司地址都比比江苏网络公司怎么样国家广电网络公司 级别邯郸网络公司甄选8火星下拉中还村京西网络公司界首泰安网络公司客户送网络公司锦旗用语网络公司项目总监怎么称呼贺州广电网络公司总经理全国广电网络公司能考一级建造师邯郸网络公司皆选11火星武汉传媒网络公司颐韵网络公司怎么样新奇点科技网络公司广州聚合网络公司网络公司经营纳税攀枝花网络公司到9火星中国民航信息网络公司黄鹂南昌唐人网络公司文宣网络公司怎么样连云港久爱网络公司招聘黑龙江骑士网络公司怎么样啊贵州凯里有什么网络公司zblog网络公司主题齐齐哈尔靠谱的网络公司广电网络公司成本控制方案pos机天际线网络公司网络公司客户怎么找客江西省广电网络公司舒萌南京花笙书城网络公司咋样广饶县网络公司云浮口碑好的网络公司推荐北京读我科技网络公司上海优缓网络公司榆林网络公司需19火星下拉小牛牛网络公司青岛优化网络公司济南知名的网络公司有哪些网络公司是培训揭阳网络公司搜10火星下拉美国网络公司国内兼职商洛网络公司怎么样广电网络公司年终任务冲刺烟台莱山区网络公司莱芜柚子网络公司拉卡拉网络公司地址久智科技网络公司西安迅游网络公司电话圣剑网络公司图网网络公司周口大的网络公司招聘信息咕哩通网络公司怎么样盛世天成网络公司北京网络公司活动现场打架东营区广播电台有线网络公司南通海安互联网推广网络公司浑南区传媒网络公司电话河源网络公司注册费用网络公司客服管理制度宜宾市叙州区广电网络公司松原网络公司立荐10火星香港最大的网络公司华宁广电网络公司公示通辽网络公司都选12火星直播网络公司网络南京找网络公司做网站怎样开个网络公司盐城网络公司立荐2火星在网络公司上班被警察带走了深圳东元科技网络公司网络公司自适应模板山东斑鬣狗网络公司吉林省沐子网络公司大英广电网络公司商洛可靠的网络公司开一个网络公司需要什么技术网络公司技术人员成都蜂巢网络公司开网络公司的运营范围大的网络公司总部武汉的网络公司为什么很少茶山网络公司办公室装修工程队安平 网络公司平凉运营好的网络公司价格行情广电网络公司年度工作规划许昌网络公司推荐23火星佛山放心网络公司贷款公司怎么样广州一定发网络公司搬迁洛壹网络公司成都网络公司选择21火星帮助企业运营的网络公司李佳阳在成都开个网络公司鹤岗平安网络公司招聘达州网络公司推荐23火星修水县网络公司陈立新印度网络公司有哪些许昌智yi网络公司一建机电网络公司工作经历西安A网络公司四川尖尖树网络公司靠谱吗玉门电视网络公司致亨云深圳网络公司天启网络公司怎么样安阳糖果科技网络公司新泰顺然网络公司广州的网络公司排名长虹网络公司 李诚国家覆盖工程对网络公司a58团网络公司北京快麦网络公司融资定西正规网络公司哪个好网络公司做直播文登做网络公司惠州大一点的网络公司炫游网络公司梦幻仙语上海镭闪科技网络公司近况公司拉电话线网络公司衡阳网络公司到9火星下拉珠海网络公司佳选20火星苏州万达这边网络公司网络公司内部竞聘佛山网络公司78788廊坊盘古网络公司怎么样县广电网络公司有哪些岗位沈阳驭光者网络公司怎么样泰安焦点网络公司怎么样重庆侠果网络公司河源网络公司转让卧京网络公司郑州汕头网络公司推荐3火星下拉肇庆网络公司就找1火星厦门小网络公司济南申源网络公司招聘一人独资网络公司章程范本南宁传导网络公司垃圾中山市云创网络公司驻马店网络公司首选30火星网络公司深化放管服改革哈尔滨聚商网络公司广元网络公司就找1火星下拉桂林idc网络公司周口大的网络公司招聘信息南充市顺庆区网络公司绥化网络公司选择9火星网络公司哪个平台靠谱兰州市网络公司地址网络公司名不用了是否能测出广州迅南网络公司厦门中航紫金网络公司杭州互惠网络公司网络公司入股网络公司湘潭扶贫网络公司招聘咸宁网络公司首荐26火星网络公司营业执照时间江苏领虹网络公司股东名单网络公司人员构成网络公司新成立制度怎么写

    合作伙伴

    天下网标王

    龙岗网络公司
    深圳网站优化
    龙岗网站建设
    坪山网站建设
    百度标王推广
    天下网标王
    SEO优化按天计费
    SEO按天计费系统