修车大队一品楼qm论坛51一品茶楼论坛,栖凤楼品茶全国楼凤app软件 ,栖凤阁全国论坛入口,广州百花丛bhc论坛杭州百花坊妃子阁

oe1(光电查) - 科学论文

5 条数据
?? 中文(中国)
  • [IEEE 2019年第八届可再生能源研究与应用国际会议(ICRERA) - 罗马尼亚布拉索夫(2019.11.3-2019.11.6)] 2019年第八届可再生能源研究与应用国际会议(ICRERA) - 传统铁路引入光伏发电系统研究

    摘要: 本文提出一种利用近期提出的概率模型——循环时序受限玻尔兹曼机(RTRBM)的语音转换(VC)方法。每个说话人对应一个RTRBM,旨在捕捉声学序列中的高阶时序依赖关系。我们的算法首先使用说话人相关训练数据分别训练源说话人和目标说话人的RTRBM。由于每个RTRBM都试图发现能最大程度表达每个时间步训练数据及其时序依赖关系的抽象特征,我们预期这些模型能在高阶空间中表征与语言相关的潜在特征。本方法通过神经网络(NN)将源说话人的重音特征转换(匹配)为目标说话人的相应特征,从而使整个网络(由两个RTRBM和NN组成)作为深度循环神经网络进行微调。通过语音转换实验,我们证实本方法相比基于高斯混合模型和神经网络等传统VC方法具有优异性能,尤其在客观指标方面表现突出。

    关键词: 循环时间受限玻尔兹曼机(RTRBM)、语音转换、说话人特征、循环神经网络、深度学习

    更新于2025-09-23 15:19:57

  • [2019年IEEE第46届光伏专家会议(PVSC) - 美国伊利诺伊州芝加哥(2019.6.16-2019.6.21)] 2019年IEEE第46届光伏专家会议(PVSC) - 开发基于网络的光伏模拟平台(旨在结合机器学习与先进器件及工艺模拟以支持工艺优化)

    摘要: 本文提出一种训练模型时无需使用任何平行数据的语音转换(VC)方法。语音转换技术仅转换源语音中的说话人特征信息,同时保持音位信息不变。现有大多数VC方法依赖平行数据——即源说话人和目标说话人朗读相同语句的语音数据对。但训练中使用平行数据会引发若干问题:1)训练数据局限于预定义语句;2)训练所得模型仅适用于训练中使用的特定说话人对;3)可能出现对齐失配。因此VC领域普遍倾向于避免使用平行数据,但非平行方法被认为学习难度较大。本方法基于说话人自适应技术和潜在音位信息提取实现非平行训练,其理论基础是将语音信号视为基于受限玻尔兹曼机的概率模型生成,其中音位信息和说话人相关信息被明确定义。在说话人自适应训练过程中,说话人无关参数与说话人相关参数同步训练。转换阶段将输入语音信号分解为音位信息和说话人相关信息,替换为所需说话人的说话人相关信息后,通过混合二者获得转换语音。实验结果表明,本方法性能优于其他非平行方法,在主观和客观评价标准上均达到与传统高斯混合模型(需使用平行数据)相当的效果。

    关键词: 无监督训练、说话人自适应、受限玻尔兹曼机、语音转换

    更新于2025-09-23 15:19:57

  • [IEEE 2019研究、发明与创新大会(RI2C) - 泰国曼谷(2019.12.11-2019.12.13)] 2019研究、发明与创新大会(RI2C) - 基于交错式零电流导通E类整流器的单级高功率因数LED驱动器

    摘要: 本文提出一种利用新近提出的概率模型——循环时序受限玻尔兹曼机(RTRBM)的语音转换(VC)方法。每个说话人对应一个RTRBM,旨在捕捉声学序列中的高阶时序依赖关系。我们的算法首先使用说话人相关训练数据分别训练源说话人和目标说话人的RTRBM。由于每个RTRBM都试图发现能最大程度表达每个时间步训练数据及其时序依赖关系的抽象特征,我们预期这些模型能在高阶空间中表征与语言相关的潜在特征。本方法通过神经网络(NN)将源说话人的重音特征转换(匹配)为目标说话人的对应特征,使整个网络(由两个RTRBM和NN组成)作为深度循环神经网络进行微调。通过语音转换实验,我们证实本方法性能优异——尤其在客观指标方面,相比基于高斯混合模型和神经网络等传统VC方法具有显著优势。

    关键词: 循环时间受限玻尔兹曼机(RTRBM)、说话人特征、语音转换、深度学习、循环神经网络

    更新于2025-09-19 17:13:59

  • [2019年IEEE光子学与电磁学研究秋季研讨会(PIERS-Fall)- 中国厦门(2019.12.17-2019.12.20)] 2019年光子学与电磁学研究秋季研讨会(PIERS-Fall)- 用于SPICE仿真的太赫兹量子级联激光器改进等效电路模型

    摘要: 本文提出一种利用新近提出的概率模型——循环时序受限玻尔兹曼机(RTRBM)的语音转换(VC)方法。每个说话人对应一个RTRBM,旨在捕捉声学序列中的高阶时序依赖性。我们的算法首先使用说话人相关训练数据分别训练源说话人和目标说话人的RTRBM。由于每个RTRBM都试图发现能最大程度表达各时间步训练数据及其时序依赖性的抽象特征,我们预期这些模型能在高阶空间表征语言相关的潜在特征。本方法通过神经网络(NN)将源说话人的重音特征转换(匹配)为目标说话人特征,使整个网络(由两个RTRBM和NN构成)作为深度循环神经网络进行微调。通过语音转换实验,我们证实本方法(尤其是客观指标方面)相比基于高斯混合模型和神经网络的传统语音转换方法具有更优性能。

    关键词: 循环时间受限玻尔兹曼机(RTRBM)、循环神经网络、语音转换、说话人特征、深度学习

    更新于2025-09-19 17:13:59

  • [IEEE 2019化合物半导体周(CSW)- 日本奈良(2019.5.19-2019.5.23)] 2019年化合物半导体周(CSW)- 基于硅的量子点激光器的相对强度噪声

    摘要: 本文提出一种训练模型时无需使用平行数据的语音转换(VC)方法。语音转换技术仅转换源语音中的说话人特征信息,同时保持音系信息不变。现有大多数VC方法依赖平行数据——即源说话人和目标说话人朗读相同语句的语音数据对。但训练中使用平行数据会引发若干问题:1)训练数据局限于预定义语句;2)训练所得模型仅适用于训练中使用的特定说话人对;3)可能出现对齐失配。因此VC领域普遍倾向于避免使用平行数据,但非平行方法被认为学习难度较大。本方法基于说话人自适应技术和潜在音系信息捕获实现非平行训练,其假设语音信号产生于一个受限玻尔兹曼机概率模型,其中音系信息和说话人相关信息被明确定义。在说话人自适应训练过程中,说话人无关参数与说话人相关参数同步训练。转换阶段将输入语音信号分解为音系信息和说话人相关信息,替换为目标说话人的说话人相关信息后,通过混合二者获得转换语音。实验结果表明,本方法优于另一种非平行方法,在主观和客观评价标准上均达到与传统高斯混合模型(需使用平行数据)相当的效果。

    关键词: 语音转换、受限玻尔兹曼机、无监督训练、说话人自适应

    更新于2025-09-19 17:13:59