当前位置: 首页 > news >正文

微信公众号可以做微网站商城网站建设4262

微信公众号可以做微网站,商城网站建设4262,软件定制开发盈利模式,网站论坛做斑竹人类能在复杂的多人说话环境中轻易地分离干扰声音#xff0c;选择性聆听感兴趣的主讲人说话。但这对机器却不容易#xff0c;如何构建一个能够媲美人类听觉系统的自动化系统颇具挑战性。 本文将详细解读ICASSP2023本届会议收录的单通道语音分离模型Mossformer论文#xff0…人类能在复杂的多人说话环境中轻易地分离干扰声音选择性聆听感兴趣的主讲人说话。但这对机器却不容易如何构建一个能够媲美人类听觉系统的自动化系统颇具挑战性。 本文将详细解读ICASSP2023本届会议收录的单通道语音分离模型Mossformer论文以及如何基于开发者自有数据进行该模型的调优训练。 ▏语音分离模型能做什么 由于麦克风采集的音频信号中除了主说话人之外通常还包括噪声、其他人说话的声音、混响等干扰。语音分离的目标即是把独立的目标语音信号从混合的音频信号中分离出来。其应用范围不仅包括听力假体、移动通信、鲁棒的自动语音以及说话人识别等最近也被广泛应用在各个语音方向的机器学习场景中。 根据干扰的不同语音分离任务可以是单纯的多说话人分离也可以包括噪声消除和解混响等附加任务。在没有噪声和混响的情况下单纯的语音分离任务已经被研究了几十年从最初的传统信号处理算法如独立分量分析ICA和非负矩阵分解NMF到最近的基于端到端深度神经网络DNN算法算法的分离性能有了明显的进步。至今语音分离仍然是一个高度活跃的研究领域我们最新推出的MossFormer语音分离模型是在现有深度学习算法的基础上通过融入更先进的门控注意力机制和带记忆的深度卷积网络从而更有效地对长语音序列进行建模和学习大幅提升深度学习分离算法的性能。 目前比较流行的语音分离模型架构一般由三个主要组成模块编码器、分离器和解码器。编码器的作用是将原始的语音信号转换为高维的表示类似于傅立叶变换后的频谱信息但使用的转换不是预先设定好的而是通过训练模型自己学习到的。分离器的作用是根据输入的高维表示来估计语音的分量并将其分离成多个独立的语音信号。解码器的作用是将分离出的语音信号重新编码成原始语音信号的形式。下图给出的是语音分离模型架构的示意图 图1. 语音分离模型架构示意图 分离器模块是影响语音分离性能的关键模块主要的架构包括深度卷积网络例如Conv-TasNet)、循环神经网络例如DPRNN)和Transformer例如SepFormer)等其中基于自注意力机制的Transformer架构在最近的研究中表现出了很好的性能。利用自注意力机制可以有效地捕捉长距离的依赖关系从而更好地建模语音信号。 与传统的循环神经网络相比Transformer可以并行计算提高了计算效率同时也可以更好地避免梯度消失的问题。基于Transformer的架构在单声道语音分离任务中获得了显著的性能改进但和最近给出的分离Cramer-Rao上限相比仍存在明显差距主要原因在于由于注意力计算的二次复杂度Transformer架构的自注意力受限于上下文长度。为了能够处理极长的输入序列当前的Transformer模型使用双路径框架将输入序列分成较小的块并分别处理块内和块间的信息跨块的长距离信息依赖需要通过中间状态隐式建模这一事实可能对长距离建模能力产生负面影响导致模型次优表现。 ▏2023 ICASSP-MossFormer模型 为了有效解决双路径架构中跨块间的间接元素交互问题我们提出了一种基于联合自注意力的带门控单头Transformer语音分离模型架构并使用卷积增强模块命名为MossFormerMonaural speech separation Transformer。 MossFormer采用联合局部和全局自注意力架构同时对局部段执行完整自注意力运算和对全局执行线性化低成本自注意力运算。联合注意力使MossFormer模型能够直接处理全序列元素交互真正有效地捕捉长距离的依赖关系解决双路径模型在远程元素交互的建模能力问题。此外我们采用了强大的带注意力门控机制可以使用大幅简化的单头自注意力MossFormer除了关注长距离建模外还使用深度卷积来帮助模型更好地处理局部的特征从而提高模型的性能。相关工作已被语音顶会ICASSP 2023录用。 模型架构 MossFormer语音分离模型由一个卷积编码器-解码器结构和一个掩蔽网络组成见图2。编码器-解码器结构负责特征提取和波形重建其中编码器负责特征提取由一维 (1D) 卷积层 (Conv1D) 和整流线性单元 (ReLU) 组成后者将编码输出限制为非负值。解码器是一维转置卷积层它使用与编码器相同的内核大小和步幅。  图2. MossFormer模型整体结构示意图 掩码网络执行从编码器输出到组掩码的非线性映射掩码网络的主组成部分是MossFormer模块该模块是基于带卷积增强联合自注意力(convolution-augmented joint self-attentions的门控单头自注意力架构gated single-head transformer architecture 开发出来的。具体的一个MossFormer 模块由四个卷积模块、缩放和偏移操作、联合局部和全局单头自注意力SHSA以及三个门控操作组成负责进行长序列的处理。详细模块结构见图3。在MossFormer模块中序列由卷积模块和注意力门控机制进行处理。卷积模块使用线性投影和深度卷积来处理序列。注意力门控机制执行联合局部和全局自注意力和门控操作。MossFormer模块仅学习残差部分并应用跳跃连接从输入连接到输出以提升训练效率。当前MossFormer块的输出被输入到下一个MossFormer块中。该过程被重复R次。 图3. MossFormer模块架构示意图 模型性能 我们在公开数据集WSJ0-2/3mix 和 WHAM!/WHAMR!上对模型进行了性能对比验证。WSJ0-2/3mix数据集是基于WSJ0数据语料库生成的。包括30小时的训练数据集、10小时的验证数据集、和5小时的测试集混合语音是由随机选择的不同说话者的语音混合而成混合语音按照-5 dB和5 dB随机信噪比SNR进行混合。该数据集包含2个和3个说话人为纯净数据集不含噪声和混响。 WHAM!数据集是在WSJ0-2mix数据集的基础上通过进一步添加独特的环境噪声生成的环境噪声主要包括从餐厅、咖啡馆、酒吧和公园录制的噪声。WHAMR! 数据集进一步扩展了WHAM!数据集除了环境噪声之外还为语音信号添加了人工混响效果。 MossFormer模型与其它SOTA模型在公开数据集WSJ0-2mix/3mix和WHAM/WHAMR上的对比结果如下表 模型算法引用标注沿用发表的论文引用顺序 SI-SNR (Scale Invariant Signal-to-Noise Ratio) 尺度不变信噪比是在普通信噪比基础上通过正则化消减信号变化导致的影响是针对宽带噪声失真的语音增强算法的常规衡量方法。SI-SNRi (SI-SNR improvement) 是衡量对比原始混合语音SI-SNR在分离后语音上的提升量。  DM (Dynamic Mixing)是一种动态混合数据增强算法用来补充训练数据的不足和提升模型训练的泛化能力。 结果对比 我们分别给出了小模型MossFormer(S)、中等模型MossFormer(M)、和大模型MossFormer(L)的结果。在WSJ0-2/3mix数据集上除了具有10M参数的MossFormer(S)在WSJ0-2mix上表现稍差于具有29M参数的Wavesplit以外我们的MossFormer模型结果优于之前所有模型的表现。使用数据增强后MossFormer(L)在WSJ0-2mix/3mix上分别达到了22.8 dB和21.2 dB。不仅达到了Cramer-Rao分离上限而且在WSJ0-2mix/3mix上取得了最新的SOTA结果。 在带噪和混响WHAM到WHAMR数据集上MossFormer(M)和MossFormer(L)比以前的模型表现出更大的优势MossFormer(L)分别在WHAM!和WHAMR!上取得了最新的SOTA结果。例如MossFormer(L)相比于SepFormer分别提升了0.9 dB和2.3 dB。由于WHAM/WHAMR数据集是在WSJ0-2mix的基础上引入额外的噪声和混响来构建的因此在WHAM/WHAMR上的分离任务变得更加困难因为模型不仅需要处理语音分离还需要进行降噪和去混响处理。我们观察到混响对Wavesplit和SepFormer的影响比对MossFormer的影响更大显示MossFormer得益于独特的联合自注意力架构和深度卷积处理可以更好的学习局部特征模式和全局长距离依赖性从而获得更佳的分离性能。 理论上MossFormer模型框架可以支持任意多说话人和任意环境下的语音分离任务我们在ModelScope上首先开放的是基于两个说话人的纯语音分离模型其目的是让用户可以在较简单的分离任务上更快速的搭建和测试我们的模型平台。 ▏如何训练自有的语音分离模型 第一步训练您的模型 环境准备 ModelScope网站官方提供的Notebook环境已经安装好了所有依赖能够直接开始训练。如果您要在自己的设备上训练可以参考模型主页上的环境准备步骤操作。环境准备完成后建议运行模型主页上推理示例代码验证模型可以正常工作。 数据准备 魔搭社区上开放的模型使用约30小时2人混合语音作为训练数据。混合语音是基于WSJ0数据集生成的由于WSJ0的License问题无法在这里分享。我们在ModelScope上提供了基于LibriSpeech数据集生成的混合音频以便您快速开始训练。其中训练集包含约42小时语音共13900条大小约7G。请访问官网页面了解数据集详情链接在文章末尾。 模型训练 以下列出的为训练示例代码其中work_dir可以替换成您需要的路径。 数据训练一遍为一个epoch默认共训练120个epoch需要约10天。 import osfrom datasets import load_datasetfrom modelscope.metainfo import Trainersfrom modelscope.msdatasets import MsDatasetfrom modelscope.preprocessors.audio import AudioBrainPreprocessorfrom modelscope.trainers import build_trainerfrom modelscope.utils.audio.audio_utils import to_segment work_dir ./train_dirif not os.path.exists(work_dir): os.makedirs(work_dir) train_dataset MsDataset.load( Libri2Mix_8k, splittrain).to_torch_dataset(preprocessors[ AudioBrainPreprocessor(takesmix_wav:FILE, providesmix_sig), AudioBrainPreprocessor(takess1_wav:FILE, providess1_sig), AudioBrainPreprocessor(takess2_wav:FILE, providess2_sig) ], to_tensorFalse)eval_dataset MsDataset.load( Libri2Mix_8k, splitvalidation).to_torch_dataset(preprocessors[ AudioBrainPreprocessor(takesmix_wav:FILE, providesmix_sig), AudioBrainPreprocessor(takess1_wav:FILE, providess1_sig), AudioBrainPreprocessor(takess2_wav:FILE, providess2_sig) ], to_tensorFalse)kwargs dict( modeldamo/speech_mossformer_separation_temporal_8k, train_datasettrain_dataset, eval_dataseteval_dataset, work_dirwork_dir)trainer build_trainer( Trainers.speech_separation, default_argskwargs)trainer.train() 第二步评估你的模型 以下列出的为模型评估代码其中work_dir必须是您训练时指定的路径。程序会搜索路径下的最佳模型并自动加载。 import osfrom datasets import load_datasetfrom modelscope.metainfo import Trainersfrom modelscope.msdatasets import MsDatasetfrom modelscope.preprocessors.audio import AudioBrainPreprocessorfrom modelscope.trainers import build_trainerfrom modelscope.utils.audio.audio_utils import to_segmentwork_dir ./train_dirif not os.path.exists(work_dir): os.makedirs(work_dir)train_dataset Noneeval_dataset MsDataset.load( Libri2Mix_8k, splittest).to_torch_dataset(preprocessors[ AudioBrainPreprocessor(takesmix_wav:FILE, providesmix_sig), AudioBrainPreprocessor(takess1_wav:FILE, providess1_sig), AudioBrainPreprocessor(takess2_wav:FILE, providess2_sig) ], to_tensorFalse)kwargs dict( modeldamo/speech_mossformer_separation_temporal_8k, train_datasettrain_dataset, eval_dataseteval_dataset, work_dirwork_dir)trainer build_trainer( Trainers.speech_separation, default_argskwargs)trainer.model.load_check_point(devicetrainer.device)print(trainer.evaluate(None)) 相关链接 语音分离模型地址https://modelscope.cn/models/damo/speech_mossformer_separation_temporal_8k/summary LibriSpeech 2人混合8K音频数据集 https://modelscope.cn/datasets/modelscope/Libri2Mix_8k/summary WSJ0数据集 https://catalog.ldc.upenn.edu/LDC93s6a WSJ0-mix脚本 https://github.com/mpariente/pywsj0-mix References Shengkui Zhao and Bin Ma, “MossFormer: Pushing the Performance Limit of Monaural Speech Separation using Gated Single-head Transformer with Convolution-augmented Joint Self-Attentions”, accepted by ICASSP 2023.
http://www.yayakq.cn/news/2277/

相关文章:

  • 网站移动端优化工具乐清柳市阿里巴巴做网站的
  • 克隆网站模板重庆网站建设公司招聘
  • 免费下载建设银行官方网站下载做标签这个网站刷单安全吗
  • 简单免费自建网站365网站建设
  • 门户建设网站多少钱酒店网站如何做
  • 做产品网站信息网站制作
  • 厦门制作企业网站哈尔滨 网站建设公司
  • 做外贸网站哪家效果好wordpress当中加入论坛
  • 上海网站推广找哪家手车做网课网站多少
  • 免费网站模板软件如何寻找客户
  • 静态网站可以做哪些内容c 网站开发平台
  • 发帖那个网站好 做装修的thinkcmf和wordpress
  • 专业外贸网站制作dw网页设计代码模板源代码
  • 专业集团门户网站建设服务商网站后台建设计划书
  • 广陵建设局网站做网做网站建设的网站
  • 网站开发前景好吗海南创想
  • 百度怎么收录我的网站赣州章贡区
  • 上海网站建设服务公司网站锚文本
  • 手机回收站找客户资源的软件
  • 青海省住房和城乡建设局网站首页公司网络规划与设计
  • 米托网站建设什么是网络社交安全
  • 制作app软件多少钱网站seo查询站长之家
  • 点击宝seo企业网站优化
  • 有专门做试吃的网站吗国际网站排名查询
  • 汽车配件外贸网站wordpress下载整站源码
  • 郑州网站建设推广优化网络营销中网站的目的是
  • 我想创建一个网站广州做网站优化费用
  • 动漫网站策划书无锡微信网站推广
  • 淘宝联盟推广网站怎么做wordpress不显示中文图片不显示
  • 郑州网站建设方案wordpress先页面再首页