注冊(cè)帳號(hào)丨忘記密碼?
1.點(diǎn)擊網(wǎng)站首頁(yè)右上角的“充值”按鈕可以為您的帳號(hào)充值
2.可選擇不同檔位的充值金額,充值后按篇按本計(jì)費(fèi)
3.充值成功后即可購(gòu)買網(wǎng)站上的任意文章或雜志的電子版
4.購(gòu)買后文章、雜志可在個(gè)人中心的訂閱/零買找到
5.登陸后可閱讀免費(fèi)專區(qū)的精彩內(nèi)容
打開(kāi)文本圖片集
摘 要:聲紋身份驗(yàn)證技術(shù)越來(lái)越多的應(yīng)用于IoT智能設(shè)備中,針對(duì)多說(shuō)話人語(yǔ)音環(huán)境,應(yīng)用傳統(tǒng)VAD模塊的聲紋驗(yàn)證系統(tǒng)錯(cuò)誤拒絕率嚴(yán)重升高,甚至無(wú)法工作。本文從語(yǔ)音分離技術(shù)入手,設(shè)計(jì)實(shí)現(xiàn)了一種只對(duì)目標(biāo)說(shuō)話人觸發(fā)的輕量化SD-VAD模型。首先,通過(guò)在基線模型中引入CNN和BiLSTM結(jié)構(gòu),使神經(jīng)網(wǎng)絡(luò)獲得更強(qiáng)大的特征提取能力和上下文依賴性。(剩余10877字)
登錄龍?jiān)雌诳W(wǎng)
購(gòu)買文章
多說(shuō)話人語(yǔ)音環(huán)境下目標(biāo)說(shuō)話人聲紋驗(yàn)證方法研究
文章價(jià)格:6.00元
當(dāng)前余額:100.00
閱讀
您目前是文章會(huì)員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報(bào)電話:400-106-1235
舉報(bào)郵箱:longyuandom@163.com