时间:2021-05-22
声音的本质是震动,震动的本质是位移关于时间的函数,波形文件(.wav)中记录了不同采样时刻的位移。
通过傅里叶变换,可以将时间域的声音函数分解为一系列不同频率的正弦函数的叠加,通过频率谱线的特殊分布,建立音频内容和文本的对应关系,以此作为模型训练的基础。
案例:画出语音信号的波形和频率分布,(freq.wav数据地址)
# -*- encoding:utf-8 -*-import numpy as npimport numpy.fft as nfimport scipy.io.wavfile as wfimport matplotlib.pyplot as pltsample_rate, sigs = wf.read('../machine_learning_date/freq.wav')print(sample_rate) # 8000采样率print(sigs.shape) # (3251,)sigs = sigs / (2 ** 15) # 归一化times = np.arange(len(sigs)) / sample_ratefreqs = nf.fftfreq(sigs.size, 1 / sample_rate)ffts = nf.fft(sigs)pows = np.abs(ffts)plt.figure('Audio')plt.subplot(121)plt.title('Time Domain')plt.xlabel('Time', fontsize=12)plt.ylabel('Signal', fontsize=12)plt.tick_params(labelsize=10)plt.grid(linestyle=':')plt.plot(times, sigs, c='dodgerblue', label='Signal')plt.legend()plt.subplot(122)plt.title('Frequency Domain')plt.xlabel('Frequency', fontsize=12)plt.ylabel('Power', fontsize=12)plt.tick_params(labelsize=10)plt.grid(linestyle=':')plt.plot(freqs[freqs >= 0], pows[freqs >= 0], c='orangered', label='Power')plt.legend()plt.tight_layout()plt.show()语音识别
梅尔频率倒谱系数(MFCC)通过与声音内容密切相关的13个特殊频率所对应的能量分布,可以使用梅尔频率倒谱系数矩阵作为语音识别的特征。基于隐马尔科夫模型进行模式识别,找到测试样本最匹配的声音模型,从而识别语音内容。
MFCC
梅尔频率倒谱系数相关API:
import scipy.io.wavfile as wfimport python_speech_features as sfsample_rate, sigs = wf.read('../data/freq.wav')mfcc = sf.mfcc(sigs, sample_rate)案例:画出MFCC矩阵:
python -m pip install python_speech_featuresimport scipy.io.wavfile as wfimport python_speech_features as sfimport matplotlib.pyplot as mpsample_rate, sigs = wf.read( '../ml_data/speeches/training/banana/banana01.wav')mfcc = sf.mfcc(sigs, sample_rate)mp.matshow(mfcc.T, cmap='gist_rainbow')mp.show()隐马尔科夫模型
隐马尔科夫模型相关API:
import hmmlearn.hmm as hlmodel = hl.GaussianHMM(n_components=4, covariance_type='diag', n_iter=1000)# n_components: 用几个高斯分布函数拟合样本数据# covariance_type: 相关矩阵的辅对角线进行相关性比较# n_iter: 最大迭代上限model.fit(mfccs) # 使用模型匹配测试mfcc矩阵的分值 score = model.score(test_mfccs)案例:训练training文件夹下的音频,对testing文件夹下的音频文件做分类
1、读取training文件夹中的训练音频样本,每个音频对应一个mfcc矩阵,每个mfcc都有一个类别(apple)。
2、把所有类别为apple的mfcc合并在一起,形成训练集。
| mfcc | |
| mfcc | apple |
| mfcc | |
.....
由上述训练集样本可以训练一个用于匹配apple的HMM。
3、训练7个HMM分别对应每个水果类别。 保存在列表中。
4、读取testing文件夹中的测试样本,整理测试样本
| mfcc | apple |
| mfcc | lime |
5、针对每一个测试样本:
1、分别使用7个HMM模型,对测试样本计算score得分。
2、取7个模型中得分最高的模型所属类别作为预测类别。
2. 把所有类别为apple的mfcc合并在一起,形成训练集。
4. 读取testing文件夹中的测试样本,针对每一个测试样本:
1. 分别使用7个HMM模型,对测试样本计算score得分。
2. 取7个模型中得分最高的模型所属类别作为预测类别。
'''#读取测试集数据test_samples = \ search_file('../ml_data/speeches/testing')test_x, test_y = [], []for label, filenames in test_samples.items(): mfccs = np.array([]) for filename in filenames: sample_rate, sigs = wf.read(filename) mfcc = sf.mfcc(sigs, sample_rate) if len(mfccs)==0: mfccs = mfcc else: mfccs = np.append(mfccs, mfcc, axis=0) test_x.append(mfccs) test_y.append(label)'''测试集: test_x test_y ----------------- | mfcc | apple | ----------------- | mfcc | banana | ----------------- | mfcc | lime | -----------------'''pred_test_y = []for mfccs in test_x:# 判断mfccs与哪一个HMM模型更加匹配best_score, best_label = None, Nonefor label, model in models.items():score = model.score(mfccs)if (best_score is None) or (best_score<score):best_score = scorebest_label = labelpred_test_y.append(best_label)print(test_y)print(pred_test_y)声音合成
根据需求获取某个声音的模型频域数据,根据业务需要可以修改模型数据,逆向生成时域数据,完成声音的合成。
案例:
import jsonimport numpy as npimport scipy.io.wavfile as wfwith open('../data/12.json', 'r') as f: freqs = json.loads(f.read())tones = [ ('G5', 1.5), ('A5', 0.5), ('G5', 1.5), ('E5', 0.5), ('D5', 0.5), ('E5', 0.25), ('D5', 0.25), ('C5', 0.5), ('A4', 0.5), ('C5', 0.75)]sample_rate = 44100music = np.empty(shape=1)for tone, duration in tones: times = np.linspace(0, duration, duration * sample_rate) sound = np.sin(2 * np.pi * freqs[tone] * times) music = np.append(music, sound)music *= 2 ** 15music = music.astype(np.int16)wf.write('../data/music.wav', sample_rate, music)总结
以上所述是小编给大家介绍的Python实现语音识别和语音合成功能,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
qq语音通话点了静音,对方会听不到我们声音,但是你可以听见对方声音。智能语音技术主要包括语音合成技术、语音识别技术、语音评测技术等。 QQ(TencentQQ
在windows平台上使用pyhton编写语音识别程序需要用到speech模块,speech模块支持的主要功能有:文本合成语音,将键盘输入的文本信息转换为语音信
一、腾讯语音合成介绍腾讯云语音合成技术(TTS)可以将任意文本转化为语音,实现让机器和应用张口说话。腾讯TTS技术可以应用到很多场景,比如,移动APP语音播报新
Android语音合成与语音识别,供大家参考,具体内容如下这里调用科大讯飞语音的API,语音云开放平台介绍调用科大讯飞语音的API,需要加添库文件Msc.jar
本文实例为大家分享了python实现百度语音识别的具体代码,供大家参考,具体内容如下详细百度语音识别api文档先下载python用SDK,可以用pythonse