基于Cortex-M处理器上实现高精度关键词语音识别.doc
《基于Cortex-M处理器上实现高精度关键词语音识别.doc》由会员分享,可在线阅读,更多相关《基于Cortex-M处理器上实现高精度关键词语音识别.doc(3页珍藏版)》请在三一文库上搜索。
1、基于Cortex-M处理器上实现高精度关键词语音识别我们可以对神经网络架构进行优化,使之适配微控制器的内存和计算限制范围,并且不会影响精度。我们将在本文中解释和探讨深度可分离卷积神经网络在 Cortex-M 处理器上实现关键词识别的潜力。关键词识别 (KWS) 对于在智能设备上实现基于语音的用户交互十分关键,需要实时响应和高精度,才能确保良好的用户体验。最近,神经网络已经成为 KWS 架构的热门选择,因为与传统的语音处理算法相比,神经网络的精度更胜一筹。关键词识别神经网络管道由于要保持永远在线,KWS 应用的功耗预算受到很大限制。虽然 KWS 应用也可在专用 DSP 或高性能 CPU 上运行,
2、但更适合在 Arm Cortex-M 微控制器上运行,有助于最大限度地降低成本,Arm Cortex-M 微控制器经常在物联网边缘用于处理其他任务。但是,要在基于 Cortex-M 的微控制器上部署基于神经网络的 KWS,我们面临着以下挑战:1. 有限的内存空间典型的 Cortex-M 系统最多提供几百 KB 的可用内存。这意味着,整个神经网络模型,包括输入/输出、权重和激活,都必须在这个很小的内存范围内运行。2. 有限的计算资源由于 KWS 要保持永远在线,这种实时性要求限制了每次神经网络推理的总运算数量。以下是适用于 KWS 推理的典型神经网络架构: 深度神经网络 (DNN)DNN 是标准
3、的前馈神经网络,由全连接层和非线性激活层堆叠而成。 卷积神经网络 (CNN)基于 DNN 的 KWS 的一大主要缺陷是无法为语音功能中的局域关联性、时域关联性、频域关联性建模。CNN 则可将输入时域和频域特征当作图像处理,并且在上面执行 2D 卷积运算,从而发现这种关联性。 循环神经网络 (RNN)RNN 在很多序列建模任务中都展现出了出色的性能,特别是在语音识别、语言建模和翻译中。RNN 不仅能够发现输入信号之间的时域关系,还能使用门控机制来捕捉长时依赖关系。 卷积循环神经网络 (CRNN)卷积循环神经网络是 CNN 和 RNN 的混合,可发现局部时间/空间关联性。CRNN 模型从卷积层开始
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 Cortex 处理器 实现 高精度 关键词 语音 识别
链接地址:https://www.31doc.com/p-3409690.html