成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

python開(kāi)發(fā)一款翻譯工具

瀏覽:7日期:2022-07-08 16:23:49

最近,某水果手機(jī)廠在萬(wàn)眾期待中開(kāi)了一場(chǎng)沒(méi)有發(fā)布萬(wàn)眾期待的手機(jī)產(chǎn)品的發(fā)布會(huì),發(fā)布了除手機(jī)外的其他一些產(chǎn)品,也包括最新的水果14系統(tǒng)。幾天后,更新了系統(tǒng)的吃瓜群眾經(jīng)過(guò)把玩突然發(fā)現(xiàn)新系統(tǒng)里一個(gè)超有意思的功能——翻譯,比如這種:

python開(kāi)發(fā)一款翻譯工具

奇怪的翻譯知識(shí)增加了!

相比常見(jiàn)的翻譯工具,同聲翻譯工具更具有實(shí)用價(jià)值,想想不精通其他語(yǔ)言就能和歪果朋友無(wú)障礙交流的場(chǎng)景,真是一件美事,不如自己動(dòng)手實(shí)現(xiàn)個(gè)工具備用!一個(gè)同聲翻譯工具,邏輯大概可以是先識(shí)別,而后翻譯,翻譯能否成功,識(shí)別的準(zhǔn)確率是個(gè)關(guān)鍵因素。為了降低難度,我決定分兩次完成工具開(kāi)發(fā)。首先來(lái)實(shí)現(xiàn)試試語(yǔ)音識(shí)別的部分。

輕車熟路,本次的demo繼續(xù)調(diào)用有道智云API,實(shí)現(xiàn)實(shí)時(shí)語(yǔ)音識(shí)別。

效果展示

先看看界面和結(jié)果哈:

可以選擇多種語(yǔ)音,這里只寫了四種常見(jiàn)的:

python開(kāi)發(fā)一款翻譯工具

偶分別測(cè)試的中文、韓文、英文。看著還不錯(cuò)哦~

python開(kāi)發(fā)一款翻譯工具

調(diào)用API接口的準(zhǔn)備工作

首先,是需要在有道智云的個(gè)人頁(yè)面上創(chuàng)建實(shí)例、創(chuàng)建應(yīng)用、綁定應(yīng)用和實(shí)例,獲取調(diào)用接口用到的應(yīng)用的id和密鑰。具體個(gè)人注冊(cè)的過(guò)程和應(yīng)用創(chuàng)建過(guò)程詳見(jiàn)文章分享一次批量文件翻譯的開(kāi)發(fā)過(guò)程

python開(kāi)發(fā)一款翻譯工具

開(kāi)發(fā)過(guò)程詳細(xì)介紹

下面介紹具體的代碼開(kāi)發(fā)過(guò)程。

首先是根據(jù)實(shí)時(shí)語(yǔ)音識(shí)別文檔來(lái)分析接口的輸入輸出。接口設(shè)計(jì)的目的是對(duì)連續(xù)音頻流的實(shí)時(shí)識(shí)別,轉(zhuǎn)換成文本信息并返對(duì)應(yīng)文字流,因此通信采用websocket,調(diào)用過(guò)程分為認(rèn)證、實(shí)時(shí)通信兩階段。

在認(rèn)證階段,需發(fā)送以下參數(shù):

參數(shù) 類型 必填 說(shuō)明 示例 appKey String 是 已申請(qǐng)的應(yīng)用ID ID salt String 是 UUID UUID curtime String 是 時(shí)間戳(秒) TimeStamp sign String 是 加密數(shù)字簽名。 sha256 signType String 是 數(shù)字簽名類型 v4 langType String 是 語(yǔ)言選擇,參考支持語(yǔ)言列表 zh-CHS format String 是 音頻格式,支持wav wav channel String 是 聲道,支持1(單聲道) 1 version String 是 api版本 v1 rate String 是 采樣率 16000

簽名sign生成方法如下:signType=v4;sign=sha256(應(yīng)用ID+salt+curtime+應(yīng)用密鑰)。

認(rèn)證之后,就進(jìn)入了實(shí)時(shí)通信階段,發(fā)送音頻流,獲取識(shí)別結(jié)果,最后發(fā)送結(jié)束標(biāo)志結(jié)束通信,這里需要注意的是,發(fā)送的音頻最好是16bit位深的單聲道、16k采樣率的清晰的wav音頻文件,這里我開(kāi)發(fā)時(shí)最開(kāi)始因?yàn)橐纛l錄制設(shè)備有問(wèn)題,導(dǎo)致音頻效果極差,接口一直返回錯(cuò)誤碼304(手動(dòng)捂臉)。

Demo開(kāi)發(fā):

這個(gè)demo使用python3開(kāi)發(fā),包括maindow.py,audioandprocess.py,recobynetease.py三個(gè)文件。界面部分,使用python自帶的tkinter庫(kù),來(lái)進(jìn)行語(yǔ)言選擇、錄音開(kāi)始、錄音停止并識(shí)別的操作。audioandprocess.py實(shí)現(xiàn)了錄音、音頻處理的邏輯,最后通過(guò)recobynetease.py中的方法來(lái)調(diào)用實(shí)時(shí)語(yǔ)音識(shí)別API。

1.界面部分:

主要元素:

root=tk.Tk()root.title('netease youdao translation test')frm = tk.Frame(root)frm.grid(padx=’80’, pady=’80’)# label1=tk.Label(frm,text='選擇待翻譯文件:')# label1.grid(row=0,column=0)label=tk.Label(frm,text=’選擇語(yǔ)言類型:’)label.grid(row=0,column=0)combox=ttk.Combobox(frm,textvariable=tk.StringVar(),width=38)combox['value']=lang_type_dictcombox.current(0)combox.bind('<<ComboboxSelected>>',get_lang_type)combox.grid(row=0,column=1)btn_start_rec = tk.Button(frm, text=’開(kāi)始錄音’, command=start_rec)btn_start_rec.grid(row=2, column=0)lb_Status = tk.Label(frm, text=’Ready’, anchor=’w’, fg=’green’)lb_Status.grid(row=2,column=1)btn_sure=tk.Button(frm,text='結(jié)束并識(shí)別',command=get_result)btn_sure.grid(row=3,column=0)root.mainloop()

2.音頻錄制部分,引入pyaudio庫(kù)(需通過(guò)pip安裝)來(lái)調(diào)用音頻設(shè)備,錄制接口要求的wav文件,并通過(guò)wave庫(kù)存儲(chǔ)文件:

def __init__(self, audio_path, language_type,is_recording): self.audio_path = audio_path, self.audio_file_name=’’ self.language_type = language_type, self.language=language_dict[language_type] print(language_dict[language_type]) self.is_recording=is_recording self.audio_chunk_size=1600 self.audio_channels=1 self.audio_format=pyaudio.paInt16 self.audio_rate=16000def record_and_save(self): self.is_recording = True # self.audio_file_name=self.audio_path+’/recordtmp.wav’ self.audio_file_name=’/recordtmp.wav’ threading.Thread(target=self.record,args=(self.audio_file_name,)).start()def record(self,file_name): print(file_name) p=pyaudio.PyAudio() stream=p.open( format=self.audio_format, channels=self.audio_channels, rate=self.audio_rate, input=True, frames_per_buffer=self.audio_chunk_size ) wf = wave.open(file_name, ’wb’) wf.setnchannels(self.audio_channels) wf.setsampwidth(p.get_sample_size(self.audio_format)) wf.setframerate(self.audio_rate) # 讀取數(shù)據(jù)寫入文件 while self.is_recording: data = stream.read(self.audio_chunk_size) wf.writeframes(data) wf.close() stream.stop_stream() stream.close() p.terminate()

3.翻譯接口調(diào)用部分:

def recognise(filepath,language_type): global file_path file_path=filepath nonce = str(uuid.uuid1()) curtime = str(int(time.time())) signStr = app_key + nonce + curtime + app_secret print(signStr) sign = encrypt(signStr) uri = 'wss://openapi.youdao.com/stream_asropenapi?appKey=' + app_key + '&salt=' + nonce + '&curtime=' + curtime + '&sign=' + sign + '&version=v1&channel=1&format=wav&signType=v4&rate=16000&langType=' + language_type print(uri) start(uri, 1600)def encrypt(signStr): hash = hashlib.sha256() hash.update(signStr.encode(’utf-8’)) return hash.hexdigest()def on_message(ws, message): result=json.loads(message) try: resultmessage1 = result[’result’][0] resultmessage2 = resultmessage1['st'][’sentence’] print(resultmessage2) except Exception as e: print(’’)def on_error(ws, error): print(error)def on_close(ws): print('### closed ###')def on_open(ws): count = 0 file_object = open(file_path, ’rb’) while True: chunk_data = file_object.read(1600) ws.send(chunk_data, websocket.ABNF.OPCODE_BINARY) time.sleep(0.05) count = count + 1 if not chunk_data: break print(count) ws.send(’{'end': 'true'}’, websocket.ABNF.OPCODE_BINARY)def start(uri,step): websocket.enableTrace(True) ws = websocket.WebSocketApp(uri,on_message=on_message,on_error=on_error,on_close=on_close) ws.on_open = on_open ws.run_forever()

總結(jié)

有道智云提供的接口一如既往的好用,這次開(kāi)發(fā)主要的精力全都浪費(fèi)在了由于我自己錄制的音頻質(zhì)量差而識(shí)別失敗的問(wèn)題上,音頻質(zhì)量ok后,識(shí)別結(jié)果準(zhǔn)確無(wú)誤,下一步就是拿去翻譯了,有了有道智云API,實(shí)現(xiàn)實(shí)時(shí)翻譯也可以如此簡(jiǎn)單!

以上就是python開(kāi)發(fā)一款翻譯工具的詳細(xì)內(nèi)容,更多關(guān)于python開(kāi)發(fā)翻譯工具的資料請(qǐng)關(guān)注好吧啦網(wǎng)其它相關(guān)文章!

標(biāo)簽: Python 編程
相關(guān)文章: