python语音识别实践之百度语音API
百度语音对上传的语音要求目前必须是单声道,16K采样率,采样深度可以是16位或者8位的PCM编码。其他编码输出的语音识别不出来。
语音的处理技巧:
录制为MP3的语音(通常采样率为44100),要分两步才能正确处理。第一步:使用诸如GoldWave的软件,先保存为16K采样率的MP3;第二步,打开16K采样率的MP3,另存为Wav格式,参数选择PCM,单声道即可。
另外,也可以使用ffmpeg将MP3处理为PCM。后文的程序即采用这种方法。
由于PCM编码的语音没有压缩,文件体积与语音长度成正比。百度语音平台对语音的长度的限制未知。文件太大,网速不好的时候,容易出现”连接错误“的提示。因此,对时间较长的语音,应该将语音分割成多个序列,在分别进行识别。(目前按照等长分割)
以下代码,使用前,需要在baidu开发者上申请相关的APIID,APIKey,SecretKey,并以申请的参数代入到文件中。
#引入SpeechSDK fromaipimportAipSpeech importsubprocess importdatetime importsys importos importtime frompydubimportAudioSegment importmath #定义常量 #APP_ID='你的AppID' APP_ID='937****' #API_KEY='你的APIKey' API_KEY='mOV9QaabNnkur0Aba15T****' #SECRET_KEY='你的SecretKey' SECRET_KEY='097111374ad26d4ba00937c5e332****' #初始化AipSpeech对象 aipSpeech=AipSpeech(APP_ID,API_KEY,SECRET_KEY) #文件处理 defget_wave_filename(fileFullName): #MP3文件转换成wav文件 #判断文件后缀,是mp3的,直接处理为16k采样率的wav文件; #是wav的,判断文件的采样率,不是8k或者16k的,直接处理为16k的采样率的wav文件 #其他情况,就直接返回AudioSegment直接处理 fileSufix=fileFullName[fileFullName.rfind('.')+1:] print(fileSufix) filePath=fileFullName[:fileFullName.find(os.sep)+1] print(filePath) iffileSufix.lower()=="mp3": wavFile="wav_%s.wav"%datetime.datetime.now().strftime('%Y%m%d%H%M%S') wavFile=filePath+wavFile cmdLine="ffmpeg-i\"%s\"-ar16000"%fileFullName cmdLine=cmdLine+"\"%s\""%wavFile print(cmdLine) ret=subprocess.run(cmdLine) print("retcode:%i"%ret.returncode) returnwavFile #ifret.returncode==1: #returnwavFile #else: #returnNone else: returnfileFullName #文件分片 try: script,fileFullName=sys.argv except: print("参数文件名未指定!") exit() ifnotos.path.isfile(fileFullName): print("参数%s不是一个文件名"%fileFullName) exit() ifnotos.path.exists(fileFullName): print("参数%s指定的文件不存在"%fileFullName) exit() filePath=fileFullName[:fileFullName.find(os.sep)+1] #文件处理为Wav,采样率16k的文件,返回文件名 wavFile=get_wave_filename(fileFullName) print(wavFile) record=AudioSegment.from_wav(wavFile) ifwavFile!=fileFullName: time.sleep(1) os.remove(wavFile) recLen=record.duration_seconds interval=120*1000 maxLoop=math.ceil(recLen*1000/float(interval)) forninrange(0,math.ceil(recLen*1000/float(interval))): recSeg=record[n*interval:(n+1)*interval] #print("Segment:%i,startat:%i,length:%i"%n,n*interval/1000,recSeg.duration_seconds) print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>Segment:"+str(n)+"/"+str(maxLoop)) segFile=filePath+"seg%s.wav"%("0"*7+str(n))[-6:] #把分段的语音信息保存为临时文件 file_handle=recSeg.export(segFile,format="wav",codec="libvorbis") file_handle.close() #读取分段的临时文件为字节 file_handle=open(segFile,'rb') file_content=file_handle.read() file_handle.close() #删除临时文件 os.remove(segFile) #用百度API处理该语音 result=aipSpeech.asr(file_content,'pcm',16000,{'lan':'zh'}) ifresult['err_no']==0: print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>"+result['result'][0]) else: print(datetime.datetime.now().strftime('%Y-%m-%d%H:%M:%S')+">>"+"err_no:"+str(result['err_no']))
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。