最新的毛片基地免费,国产国语一级毛片,免费国产成人高清在线电影,中天堂国产日韩欧美,中国国产aa一级毛片,国产va欧美va在线观看,成人不卡在线

文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì)與流程

文檔序號:11250872閱讀:2317來源:國知局
文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì)與流程

本發(fā)明涉及多媒體技術(shù)領(lǐng)域,特別是涉及一種文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì)。



背景技術(shù):

隨著互聯(lián)網(wǎng)的發(fā)展,互聯(lián)網(wǎng)用戶每天接觸的信息越來越多,不管是新聞或者電影字幕,如何從海量的信息中提取對互聯(lián)網(wǎng)用戶有用的信息越來越重要。同時,提取信息的關(guān)鍵詞對互聯(lián)網(wǎng)用戶快速理解信息的作者要表達(dá)的意思非常有幫助。目前,常用的關(guān)鍵詞提取算法包括:tf-idf(termfrequency–inversedocumentfrequency,詞頻-逆向文件頻率)算法和textrank算法等。

其中,tf-idf算法通過詞頻判斷一個詞在文中是否重要,同時對在各個文章中都出現(xiàn)的詞降低權(quán)重,對在本文章中出現(xiàn)但在其它文章不出現(xiàn)的詞增加權(quán)重。

根據(jù)tf-idf計算公式:tf-idf(w,di)=tfw*idf(w),計算特征詞w的tf-idf值。根據(jù)tf-idf值即可判斷特征詞的重要性,進(jìn)而根據(jù)特征詞的重要性生成關(guān)鍵詞。

其中,idf計算公式為:idf(w)表示特征詞w在所有文檔中的逆向文檔頻率,|d|表示文檔的總個數(shù),di表示文檔,dfw表示包含特征詞w的文檔的總個數(shù),tfw表示tf值,也即特征詞w在文檔d中出現(xiàn)的個數(shù)。

但是,tf-idf算法僅僅從詞頻的角度挖掘信息,不能體現(xiàn)文本的深層次語義信息。因此,tf-idf算法生成關(guān)鍵詞的準(zhǔn)確性比較低。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明實(shí)施例的目的在于提供一種文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì),以提高關(guān)鍵詞生成的準(zhǔn)確性。具體技術(shù)方案如下:

本發(fā)明實(shí)施例公開了一種文本關(guān)鍵詞生成方法,包括:

獲取待檢測文本,對所述待檢測文本中的每一個字符進(jìn)行向量表示,得到所述待檢測文本的字符矩陣;

將所述待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到所述待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;

計算所述關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)所述相似度獲取所述待檢測文本的關(guān)鍵詞,其中,所述向量模型包括:字符和所述字符對應(yīng)的字符向量。

可選的,在所述獲取待檢測文本之前,所述文本關(guān)鍵詞生成方法還包括:

構(gòu)建訓(xùn)練數(shù)據(jù);

對所述訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到所述每一個樣本文本的字符矩陣;

對所述訓(xùn)練數(shù)據(jù)中每一個樣本文本對應(yīng)的關(guān)鍵詞中的每一個字符進(jìn)行向量表示,得到所述每一個樣本文本的關(guān)鍵詞矩陣;

根據(jù)所述每一個樣本文本的字符矩陣和所述每一個樣本文本的關(guān)鍵詞矩陣的對應(yīng)關(guān)系,通過長短期記憶lstm神經(jīng)網(wǎng)絡(luò)對所述訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立所述關(guān)鍵詞模型。

可選的,所述構(gòu)建訓(xùn)練數(shù)據(jù),包括:

獲取多個待訓(xùn)練文本,對所述多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,得到多個待處理文本;

對所述多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,得到所述樣本文本;

根據(jù)所述每一個樣本文本的長度,以及預(yù)先建立的文本長度和關(guān)鍵詞個數(shù)的對應(yīng)關(guān)系,提取所述每一個樣本文本中的關(guān)鍵詞;

建立所述樣本文本和所述樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系。

可選的,所述對所述多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,包括:

刪除所述每一個待訓(xùn)練文本中的數(shù)字字符和標(biāo)點(diǎn)符號;和/或,

刪除所述每一個待訓(xùn)練文本中出現(xiàn)次數(shù)小于預(yù)設(shè)閾值的詞語。

可選的,所述對所述多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,包括:

在所述待處理文本的長度小于預(yù)設(shè)下限閾值時,在所述待處理文本中添加預(yù)設(shè)字符,使所述待處理文本的長度等于預(yù)設(shè)下限閾值;

在所述待處理文本的長度大于預(yù)設(shè)上限閾值時,對所述待處理文本進(jìn)行截短處理,使所述待處理文本的長度等于預(yù)設(shè)上限閾值。

可選的,所述對所述訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到所述每一個樣本文本的字符矩陣,包括:

對所述每一個樣本文本進(jìn)行文本倒序,得到倒序的樣本文本;

對所述倒序的樣本文本中的每一個字符進(jìn)行向量表示,得到所述倒序的樣本文本的字符矩陣;

所述根據(jù)所述每一個樣本文本的字符矩陣和所述樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對所述訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立所述關(guān)鍵詞模型,包括:

根據(jù)所述倒序的樣本文本的字符矩陣和所述樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對所述訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立所述關(guān)鍵詞模型。

可選的,所述獲取待檢測文本,包括:

刪除文本數(shù)據(jù)中的數(shù)字字符和標(biāo)點(diǎn)符號,得到所述待檢測文本。

可選的,所述計算所述關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)所述相似度獲取所述待檢測文本的關(guān)鍵詞,包括:

計算所述關(guān)鍵詞矩陣中的每一個向量和所述向量模型中的字符向量的余弦值;

將每一個余弦值中最大值對應(yīng)的所述向量模型中的字符作為目標(biāo)字符,依次獲取所述目標(biāo)字符,得到所述待檢測文本的關(guān)鍵詞。

本發(fā)明實(shí)施例還公開了一種文本關(guān)鍵詞生成裝置,包括:

字符矩陣獲取模塊,用于獲取待檢測文本,通過所述待檢測文本中的每一個字符進(jìn)行向量表示,得到所述待檢測文本的字符矩陣;

關(guān)鍵詞矩陣生成模塊,用于將所述待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到所述待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;

關(guān)鍵詞生成模塊,用于計算所述關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)所述相似度獲取所述待檢測文本的關(guān)鍵詞,其中,所述向量模型包括:字符和所述字符對應(yīng)的字符向量。

可選的,本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置,還包括:

訓(xùn)練數(shù)據(jù)構(gòu)建模塊,用于構(gòu)建訓(xùn)練數(shù)據(jù);

樣本字符矩陣生成模塊,用于對所述訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到所述每一個樣本文本的字符矩陣;

樣本關(guān)鍵詞矩陣生成模塊,用于對所述訓(xùn)練數(shù)據(jù)中每一個樣本文本對應(yīng)的關(guān)鍵詞中的每一個字符進(jìn)行向量表示,得到所述每一個樣本文本的關(guān)鍵詞矩陣;

關(guān)鍵詞模型建立模塊,用于根據(jù)所述每一個樣本文本的字符矩陣和所述每一個樣本文本的關(guān)鍵詞矩陣的對應(yīng)關(guān)系,通過長短期記憶lstm神經(jīng)網(wǎng)絡(luò)對所述訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立所述關(guān)鍵詞模型。

可選的,所述訓(xùn)練數(shù)據(jù)構(gòu)建模塊,包括:

預(yù)處理子模塊,用于獲取多個待訓(xùn)練文本,對所述多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,得到多個待處理文本;

長度設(shè)置子模塊,用于對所述多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,得到所述樣本文本;

關(guān)鍵詞提取子模塊,用于根據(jù)所述每一個樣本文本的長度,以及預(yù)先建立的文本長度和關(guān)鍵詞個數(shù)的對應(yīng)關(guān)系,提取所述每一個樣本文本中的關(guān)鍵詞;

對應(yīng)關(guān)系建立子模塊,用于建立所述樣本文本和所述樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系。

可選的,所述預(yù)處理子模塊,包括:

第一刪除單元,用于刪除所述每一個待訓(xùn)練文本中的數(shù)字字符和標(biāo)點(diǎn)符號;和/或,

第二刪除單元,用于刪除所述每一個待訓(xùn)練文本中出現(xiàn)次數(shù)小于預(yù)設(shè)閾值的詞語。

可選的,所述長度設(shè)置子模塊,包括:

第一長度設(shè)置單元,用于在所述待處理文本的長度小于預(yù)設(shè)下限閾值時,在所述待處理文本中添加預(yù)設(shè)字符,使所述待處理文本的長度等于預(yù)設(shè)下限閾值;

第二長度設(shè)置單元,用于在所述待處理文本的長度大于預(yù)設(shè)上限閾值時,對所述待處理文本進(jìn)行截短處理,使所述待處理文本的長度等于預(yù)設(shè)上限閾值。

可選的,所述樣本字符矩陣生成模塊,包括:

倒序設(shè)置子模塊,用于對所述每一個樣本文本進(jìn)行文本倒序,得到倒序的樣本文本;

向量表示子模塊,用于對所述倒序的樣本文本中的每一個字符進(jìn)行向量表示,得到所述倒序的樣本文本的字符矩陣;

所述關(guān)鍵詞模型建立模塊具體用于,根據(jù)所述倒序的樣本文本的字符矩陣和所述樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對所述訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立所述關(guān)鍵詞模型。

可選的,所述字符矩陣獲取模塊具體用于,刪除文本數(shù)據(jù)中的數(shù)字字符和標(biāo)點(diǎn)符號,得到所述待檢測文本。

可選的,所述關(guān)鍵詞生成模塊,包括:

相似度計算子模塊,用于計算所述關(guān)鍵詞矩陣中的每一個向量和所述向量模型中的字符向量的余弦值;

生成子模塊,用于將每一個余弦值中最大值對應(yīng)的所述向量模型中的字符作為目標(biāo)字符,依次獲取所述目標(biāo)字符,得到所述待檢測文本的關(guān)鍵詞。

本發(fā)明實(shí)施例還公開了一種電子設(shè)備,包括:處理器、通信接口、存儲器和通信總線,其中,所述處理器、所述通信接口、所述存儲器通過所述通信總線完成相互間的通信;

所述存儲器,用于存放計算機(jī)程序;

所述處理器,用于執(zhí)行所述存儲器上所存放的程序時,實(shí)現(xiàn)以下步驟:

獲取待檢測文本,對所述待檢測文本中的每一個字符進(jìn)行向量表示,得到所述待檢測文本的字符矩陣;

將所述待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到所述待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;

計算所述關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)所述相似度獲取所述待檢測文本的關(guān)鍵詞,其中,所述向量模型包括:字符和所述字符對應(yīng)的字符向量。

本發(fā)明實(shí)施例還公開了一種計算機(jī)可讀存儲介質(zhì),所述計算機(jī)可讀存儲介質(zhì)內(nèi)存儲有計算機(jī)程序,所述計算機(jī)程序被處理器執(zhí)行時實(shí)現(xiàn)以下步驟:

獲取待檢測文本,對所述待檢測文本中的每一個字符進(jìn)行向量表示,得到所述待檢測文本的字符矩陣;

將所述待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到所述待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;

計算所述關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)所述相似度獲取所述待檢測文本的關(guān)鍵詞,其中,所述向量模型包括:字符和所述字符對應(yīng)的字符向量。

本發(fā)明實(shí)施例提供的文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì),對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣;將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。本發(fā)明實(shí)施例通過時間遞歸神經(jīng)網(wǎng)絡(luò)得到待檢測文本的關(guān)鍵詞,提高了文本關(guān)鍵詞生成的準(zhǔn)確性。當(dāng)然,實(shí)施本發(fā)明的任一產(chǎn)品或方法并不一定需要同時達(dá)到以上所述的所有優(yōu)點(diǎn)。

附圖說明

為了更清楚地說明本發(fā)明實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實(shí)施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹。

圖1為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法的一種流程圖;

圖2為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法的另一種流程圖;

圖3為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置的一種結(jié)構(gòu)圖;

圖4為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置的另一種結(jié)構(gòu)圖;

圖5為本發(fā)明實(shí)施例的電子設(shè)備的結(jié)構(gòu)圖。

具體實(shí)施方式

下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行描述。

由于現(xiàn)有技術(shù)中通過tf-idf得到關(guān)鍵詞的方法僅僅從詞頻的角度挖掘信息,不能體現(xiàn)文本的深層次語義信息。因此,tf-idf算法得到關(guān)鍵詞的準(zhǔn)確性比較低,為了解決該問題,本發(fā)明實(shí)施例提供了一種文本關(guān)鍵詞生成方法及裝置和電子設(shè)備及可讀存儲介質(zhì),以提高文本關(guān)鍵詞生成的準(zhǔn)確性。下面首先對本發(fā)明實(shí)施例所提供的文本關(guān)鍵詞生成方法進(jìn)行介紹。

參見圖1,圖1為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法的一種流程圖,包括:

s101,獲取待檢測文本,對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣。

需要說明的是,word2vec是google在2013年年中開源的一款將詞表征為實(shí)數(shù)值向量的高效工具,word2vec利用深度學(xué)習(xí)的思想,通過訓(xùn)練,把對文本內(nèi)容的處理簡化為k維向量空間中的向量運(yùn)算,而向量空間上的相似度可以用來表示文本語義上的相似度。因此,word2vec輸出的詞向量可以被用來做很多nlp(naturallanguageprocessing,自然語言處理)相關(guān)的工作,比如聚類、找同義詞、詞性分析等等。word2vec把特征映射到k維向量空間,可以為文本尋求更加深層次的特征表示。本發(fā)明實(shí)施例中,待檢測文本可以為一句話、一段話或一篇文章等,可以通過word2vec把待檢測文本中的每一個字符映射為k維向量空間,當(dāng)然,對每一個字符進(jìn)行向量表示的方法也可以是其他任何向量表示的方法。如果待檢測文本中包含m個字符,那么,每一個字符由k維向量表示,待檢測文本就可以表示為m×k的矩陣,即字符矩陣。其中,m為大于0的整數(shù),k維向量一般是高維向量,因此,k為數(shù)值比較大的整數(shù),例如,k可以取值為400,當(dāng)然k也可以為其他數(shù)值,在此不做限定。

s102,將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣。

具體的,關(guān)鍵詞模型為本發(fā)明實(shí)施例對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練得到的模型,訓(xùn)練數(shù)據(jù)包括:訓(xùn)練數(shù)據(jù)中樣本文本的字符矩陣和字符矩陣對應(yīng)的該樣本文本中關(guān)鍵詞的關(guān)鍵詞矩陣,其中,關(guān)鍵詞矩陣為對樣本文本中的關(guān)鍵詞進(jìn)行向量表示得到的矩陣。那么,在得到關(guān)鍵詞模型之后,將待檢測文本的字符矩陣輸入關(guān)鍵詞模型,即可得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣。例如,將s101中待檢測文本的字符矩陣(m×k的矩陣)輸入關(guān)鍵詞模型,得到的待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣可以為n×k的矩陣,其中,n為關(guān)鍵詞中字符的個數(shù)。關(guān)鍵詞模型的建立方法將在下文進(jìn)行詳細(xì)描述,這里不再贅述。

s103,計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞,向量模型包括:字符和字符對應(yīng)的字符向量。

本發(fā)明實(shí)施例中,在通過關(guān)鍵詞模型得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣之后,需要對關(guān)鍵詞矩陣進(jìn)行相似度計算,得到關(guān)鍵詞矩陣對應(yīng)的關(guān)鍵詞。更為具體的,如果關(guān)鍵詞矩陣為n×k的矩陣,k表示每個字符的維數(shù),n為關(guān)鍵詞中字符的個數(shù)。那么,將n個1×k的向量分別與向量模型中存儲的字符向量進(jìn)行相似度計算,即可得到n個相似度最大值對應(yīng)的字符,該n個字符即為得到的待檢測文本的關(guān)鍵詞。需要說明的是,向量模型中存儲的是字符向量和字符的對應(yīng)關(guān)系,因此,通過向量模型可以對字符進(jìn)行向量表示,得到字符對應(yīng)的字符向量,同樣地,通過向量模型可以得到關(guān)鍵詞矩陣對應(yīng)的關(guān)鍵詞??蛇x的,向量模型可以是word2vec。

可見,本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法,通過對獲取到的待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣。將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,即可得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣。計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。本發(fā)明實(shí)施例通過時間遞歸神經(jīng)網(wǎng)絡(luò)得到待檢測文本的關(guān)鍵詞,提高了文本關(guān)鍵詞生成的準(zhǔn)確性。

圖1所示實(shí)施例中,s102中關(guān)鍵詞模型的建立方法,可參見圖2,圖2為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法的另一種流程圖,包括:

s201,構(gòu)建訓(xùn)練數(shù)據(jù)。

本發(fā)明實(shí)施例中,訓(xùn)練數(shù)據(jù)是指用于訓(xùn)練關(guān)鍵詞模型的數(shù)據(jù),并且,每一條數(shù)據(jù)都具有對應(yīng)的關(guān)鍵詞。例如,可以通過抓取4000w條“新華網(wǎng)”的新聞數(shù)據(jù),同時得到每一條新聞數(shù)據(jù)中經(jīng)過人工編輯的關(guān)鍵詞,其中,新聞數(shù)據(jù)涵蓋政治、軍事、財經(jīng)、房產(chǎn)、教育、旅游等方面,新聞數(shù)據(jù)的長度可以在100到800個詞之間,關(guān)鍵詞的個數(shù)可以在4到10個之間。這樣,新聞數(shù)據(jù)以及每一條新聞數(shù)據(jù)對應(yīng)的關(guān)鍵詞構(gòu)成了訓(xùn)練數(shù)據(jù)。

s202,對訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到每一個樣本文本的字符矩陣。

s203,對訓(xùn)練數(shù)據(jù)中每一個樣本文本對應(yīng)的關(guān)鍵詞中的每一個字符進(jìn)行向量表示,得到每一個樣本文本的關(guān)鍵詞矩陣。

需要說明的是,s202和s203中都是對字符進(jìn)行向量表示,不同的是,s202中是對樣本文本中的每一個字符進(jìn)行向量表示,s203中是對樣本文本對應(yīng)的關(guān)鍵詞中的每一個字符進(jìn)行向量表示,其中,對每一個字符進(jìn)行向量表示的方法可以是word2vec,通過word2vec對字符進(jìn)行向量表示的方法可參見s101,這里不再贅述。

s204,根據(jù)每一個樣本文本的字符矩陣和每一個樣本文本的關(guān)鍵詞矩陣的對應(yīng)關(guān)系,通過長短期記憶lstm神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立關(guān)鍵詞模型。

本發(fā)明實(shí)施例中,在得到每一個樣本文本的字符矩陣之后,將每一個樣本文本的字符矩陣和該樣本文本的關(guān)鍵詞矩陣輸入關(guān)鍵詞模型,通過lstm神經(jīng)網(wǎng)絡(luò)對輸入的每一個樣本文本的字符矩陣和樣本文本中的關(guān)鍵詞矩陣進(jìn)行訓(xùn)練,得到關(guān)鍵詞模型。

本發(fā)明實(shí)施例的一種實(shí)現(xiàn)方式中,構(gòu)建訓(xùn)練數(shù)據(jù),包括:

獲取多個待訓(xùn)練文本,對多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,得到多個待處理文本。

對多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,得到樣本文本。

根據(jù)每一個樣本文本的長度,以及預(yù)先建立的文本長度和關(guān)鍵詞個數(shù)的對應(yīng)關(guān)系,提取每一個樣本文本中的關(guān)鍵詞。

建立樣本文本和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系。

本發(fā)明實(shí)施例中,為了得到有效的文本,需要對待訓(xùn)練文本進(jìn)行預(yù)處理,例如,過濾掉待訓(xùn)練文本中不需要的文本和字符等,得到待處理文本。

另外,為了解決輸入關(guān)鍵詞模型中數(shù)據(jù)的變長問題,本發(fā)明實(shí)施例中,對多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,得到樣本文本。具體的,通過構(gòu)建桶,使不同長度的輸入文本和輸出關(guān)鍵詞的個數(shù)根據(jù)桶的大小訓(xùn)練網(wǎng)絡(luò)。構(gòu)建的桶可以為:(200,5)、(300,5)、(600,5)、(200,8)、(300,8)、(600,8)、(200,11)、(300,11)、(600,11)等。當(dāng)然,桶的大小可以根據(jù)實(shí)際情況進(jìn)行設(shè)定,在此不做限定。其中,括號內(nèi)第一個數(shù)字表示輸入文本的長度,括號內(nèi)第二個數(shù)字表示輸入文本對應(yīng)的輸出的關(guān)鍵詞的個數(shù)。

因此,在對每一個待處理文本進(jìn)行長度設(shè)置時,可以根據(jù)待處理文本的長度,將待處理文本的長度設(shè)置為200、300、600等,然后根據(jù)設(shè)置的桶的大小以及待處理文本的長度,提取待處理文本中的關(guān)鍵詞。例如:待處理文本的長度為200,提取的待處理文本中的關(guān)鍵詞的個數(shù)可以為5個或8個。由此,建立樣本文本和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系。

本發(fā)明實(shí)施例的一種實(shí)現(xiàn)方式中,對多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,包括:

刪除每一個待訓(xùn)練文本中的數(shù)字字符和標(biāo)點(diǎn)符號。和/或,

刪除每一個待訓(xùn)練文本中出現(xiàn)次數(shù)小于預(yù)設(shè)閾值的詞語。

通常,待訓(xùn)練文本是包含多種字符的文本,特殊字符對于關(guān)鍵詞的提取是沒有貢獻(xiàn)的,而且,待訓(xùn)練文本中詞頻很低的詞語對于大量的待訓(xùn)練文本來講,也是可以忽略不計的。那么,當(dāng)訓(xùn)練文本中包含特殊字符而不包含詞頻很低的詞語時,可以刪除每一個待訓(xùn)練文本中特殊字符,特殊字符包括:數(shù)字字符和標(biāo)點(diǎn)符號等。當(dāng)待訓(xùn)練文本中包含詞頻很低的詞語而不包含特殊字符時,還可以刪除待訓(xùn)練文本中詞頻很低的詞語。當(dāng)訓(xùn)練文本中同時包含特殊字符和詞頻很低的詞語時,可以將特殊字符和詞頻很低的詞語同時刪除。例如,可以刪除在待訓(xùn)練文本出現(xiàn)次數(shù)小于預(yù)設(shè)閾值的詞語,預(yù)設(shè)閾值可以取值為100,也可以為根據(jù)實(shí)際情況設(shè)定的其他值,例如,可以包括(50,200)范圍內(nèi)的值。

本發(fā)明實(shí)施例的一種實(shí)現(xiàn)方式中,對多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,包括:

在待處理文本的長度小于預(yù)設(shè)下限閾值時,在待處理文本中添加預(yù)設(shè)字符,使待處理文本的長度等于預(yù)設(shè)下限閾值。

在待處理文本的長度大于預(yù)設(shè)上限閾值時,對待處理文本進(jìn)行截短處理,使待處理文本的長度等于預(yù)設(shè)上限閾值。

實(shí)際應(yīng)用中,不同的待處理文本的長度是各不相同的,因此,在構(gòu)建桶的時候,將待處理文本的長度設(shè)置為桶的長度,例如,待處理文本的長度為286,那么,可以根據(jù)預(yù)先設(shè)置的桶(300,5)、(300,8)和(300,11),在待處理文本中添加預(yù)設(shè)字符,將待處理文本的長度設(shè)置為300。在待處理文本的長度小于預(yù)設(shè)下限閾值時,同樣地,在待處理文本中添加預(yù)設(shè)字符,使待處理文本的長度等于預(yù)設(shè)下限閾值。例如,預(yù)設(shè)下限閾值為200,待處理文本的長度為183,可以在待處理文本的后面添加預(yù)設(shè)字符,使待處理文本的長度為200,本發(fā)明實(shí)施例對預(yù)設(shè)字符不做具體限定。在待處理文本的長度大于預(yù)設(shè)上限閾值時,對待處理文本進(jìn)行截短處理,使待處理文本的長度等于預(yù)設(shè)上限閾值。例如,預(yù)設(shè)上限閾值為800,當(dāng)待處理文本的長度為986時,對待處理文本進(jìn)行截短處理,可以取待處理文本中的前800個字符,也可以取待處理文本中的后800個字符。另外,預(yù)設(shè)下限閾值和預(yù)設(shè)上限閾值可以是根據(jù)實(shí)際情況設(shè)定的值,例如預(yù)設(shè)下限閾值可以為(100,300)范圍內(nèi)的值,預(yù)設(shè)上限閾值可以為(700,1000)范圍內(nèi)的值。

本發(fā)明實(shí)施例的一種實(shí)現(xiàn)方式中,對訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到每一個樣本文本的字符矩陣,包括:

對每一個樣本文本進(jìn)行文本倒序,得到倒序的樣本文本。

對倒序的樣本文本中的每一個字符進(jìn)行向量表示,得到倒序的樣本文本的字符矩陣。

根據(jù)每一個樣本文本的字符矩陣和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立關(guān)鍵詞模型,包括:

根據(jù)倒序的樣本文本的字符矩陣和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立關(guān)鍵詞模型。

需要說明的是,文本倒序指的是將文本按照相反的順序進(jìn)行表示。例如:樣本文本為:我是一名來自a大學(xué)的大學(xué)生,那么,得到的倒序的樣本文本為:生學(xué)大的學(xué)大a自來名一是我。通過多次試驗(yàn)表明,將文本倒序輸入關(guān)鍵詞模型會得到更好的效果,即,生成關(guān)鍵詞的準(zhǔn)確性更高。主要原因在于雖然lstm能夠解決長程依賴問題,但是隨著數(shù)據(jù)的傳遞,前向信息的損失也在增加,同時,當(dāng)訓(xùn)練數(shù)據(jù)為新聞數(shù)據(jù)時,由于新聞自身的性質(zhì)決定重要的新聞信息一般都會放在靠前的位置。因此,本發(fā)明實(shí)施例中,對每一個樣本文本進(jìn)行文本倒序,對倒序的樣本文本中的每一個字符進(jìn)行向量表示,得到倒序的樣本文本的字符矩陣,然后對倒序的樣本文本的字符矩陣和對應(yīng)的該樣本文本中的關(guān)鍵詞進(jìn)行訓(xùn)練,得到關(guān)鍵詞模型。

可選的,本發(fā)明實(shí)施例的文本關(guān)鍵詞生成方法中,獲取待檢測文本,包括:

刪除文本數(shù)據(jù)中的數(shù)字字符和標(biāo)點(diǎn)符號,得到待檢測文本。

具體的,待檢測文本可以是對文本數(shù)據(jù)進(jìn)行預(yù)處理之后得到的文本。文本數(shù)據(jù)是包含多種字符的文本,文本數(shù)據(jù)中的特殊字符對于關(guān)鍵詞的提取是沒有貢獻(xiàn)的。那么,可以刪除文本數(shù)據(jù)中的特殊字符,特殊字符包括:數(shù)字字符和標(biāo)點(diǎn)符號等。在對文本數(shù)據(jù)進(jìn)行預(yù)處理之后,得到待檢測文本,然后再對待檢測文本進(jìn)行向量表示,可以減小計算量,提高關(guān)鍵詞生成的效率。

本發(fā)明實(shí)施例的一種實(shí)現(xiàn)方式中,計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞,包括:

計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的余弦值。

將每一個余弦值中最大值對應(yīng)的向量模型中的字符作為目標(biāo)字符,依次獲取目標(biāo)字符,得到待檢測文本的關(guān)鍵詞。

需要說明的是,由于關(guān)鍵詞矩陣和字符向量是一個多維向量,兩個多維向量之間的相似度可以通過計算兩個向量之間的余弦值判斷,兩個向量之間的余弦值指的是,兩個向量形成的夾角的余弦值。在通過余弦值對關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量進(jìn)行判斷時,余弦值與整數(shù)1越接近,表明兩個向量越接近。那么,余弦值中最大值對應(yīng)的向量模型中的字符即為目標(biāo)字符,也就是待檢測文本的關(guān)鍵詞對應(yīng)的字符。由于關(guān)鍵詞矩陣中的每一個向量表示一個字符,因此,得到的目標(biāo)字符為多個,依次獲取目標(biāo)字符,即可得到待檢測文本的關(guān)鍵詞。

另外,也可以通過計算兩個向量之間的歐式距離判斷兩個向量之間的相似度。歐式距離指在多維空間中兩個點(diǎn)之間的真實(shí)距離,或者向量的自然長度。在通過歐式距離進(jìn)行判斷時,歐式距離越小,表明兩個向量之間相似度越高。當(dāng)然,現(xiàn)有的計算向量相似度的方法都屬于本發(fā)明實(shí)施例的保護(hù)范圍。

相應(yīng)于上述方法實(shí)施例,本發(fā)明實(shí)施例還公開了一種文本關(guān)鍵詞生成裝置,參見圖3,圖3為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置的一種結(jié)構(gòu)圖,包括:

字符矩陣獲取模塊301,用于獲取待檢測文本,對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣。

關(guān)鍵詞矩陣生成模塊302,用于將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣。

關(guān)鍵詞生成模塊303,用于計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。

可見,本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置,通過對獲取到的待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣。將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,即可得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣。計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。本發(fā)明實(shí)施例通過時間遞歸神經(jīng)網(wǎng)絡(luò)得到待檢測文本的關(guān)鍵詞,提高了文本關(guān)鍵詞生成的準(zhǔn)確性。

需要說明的是,本發(fā)明實(shí)施例的裝置是應(yīng)用上述文本關(guān)鍵詞生成方法的裝置,則上述文本關(guān)鍵詞生成方法的所有實(shí)施例均適用于該裝置,且均能達(dá)到相同或相似的有益效果。

參見圖4,圖4為本發(fā)明實(shí)施例的文本關(guān)鍵詞生成裝置的另一種結(jié)構(gòu)圖,包括:

訓(xùn)練數(shù)據(jù)構(gòu)建模塊401,用于構(gòu)建訓(xùn)練數(shù)據(jù)。

樣本字符矩陣生成模塊402,用于對訓(xùn)練數(shù)據(jù)中每一個樣本文本中的每一個字符進(jìn)行向量表示,得到每一個樣本文本的字符矩陣。

樣本關(guān)鍵詞矩陣生成模塊403,用于對訓(xùn)練數(shù)據(jù)中每一個樣本文本對應(yīng)的關(guān)鍵詞中的每一個字符進(jìn)行向量表示,得到每一個樣本文本的關(guān)鍵詞矩陣。

關(guān)鍵詞模型建立模塊404,用于根據(jù)每一個樣本文本的字符矩陣和每一個樣本文本的關(guān)鍵詞矩陣的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立關(guān)鍵詞模型。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,訓(xùn)練數(shù)據(jù)構(gòu)建模塊,包括:

預(yù)處理子模塊,用于獲取多個待訓(xùn)練文本,對多個待訓(xùn)練文本中的每一個待訓(xùn)練文本進(jìn)行過濾,得到多個待處理文本。

長度設(shè)置子模塊,用于對多個待處理文本中的每一個待處理文本進(jìn)行長度設(shè)置,得到樣本文本。

關(guān)鍵詞提取子模塊,用于根據(jù)每一個樣本文本的長度,以及預(yù)先建立的文本長度和關(guān)鍵詞個數(shù)的對應(yīng)關(guān)系,提取每一個樣本文本中的關(guān)鍵詞。

對應(yīng)關(guān)系建立子模塊,用于建立樣本文本和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,預(yù)處理子模塊,包括:

第一刪除單元,用于刪除每一個待訓(xùn)練文本中的數(shù)字字符和標(biāo)點(diǎn)符號。和/或,

第二刪除單元,用于刪除每一個待訓(xùn)練文本中出現(xiàn)次數(shù)小于預(yù)設(shè)閾值的詞語。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,長度設(shè)置子模塊,包括:

第一長度設(shè)置單元,用于在待處理文本的長度小于預(yù)設(shè)下限閾值時,在待處理文本中添加預(yù)設(shè)字符,使待處理文本的長度等于預(yù)設(shè)下限閾值。

第二長度設(shè)置單元,用于在待處理文本的長度大于預(yù)設(shè)上限閾值時,對待處理文本進(jìn)行截短處理,使待處理文本的長度等于預(yù)設(shè)上限閾值。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,樣本字符矩陣生成模塊,包括:

倒序設(shè)置子模塊,用于對每一個樣本文本進(jìn)行文本倒序,得到倒序的樣本文本。

向量表示子模塊,用于對倒序的樣本文本中的每一個字符進(jìn)行向量表示,得到倒序的樣本文本的字符矩陣。

關(guān)鍵詞模型建立模塊具體用于,根據(jù)倒序的樣本文本的字符矩陣和樣本文本中關(guān)鍵詞的對應(yīng)關(guān)系,通過lstm神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立關(guān)鍵詞模型。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,字符矩陣獲取模塊具體用于,刪除文本數(shù)據(jù)中的數(shù)字字符和標(biāo)點(diǎn)符號,得到待檢測文本。

可選的,本發(fā)明實(shí)施例的關(guān)鍵詞生成裝置中,關(guān)鍵詞生成模塊,包括:

相似度計算子模塊,用于計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的余弦值。

生成子模塊,用于將每一個余弦值中最大值對應(yīng)的向量模型中的字符作為目標(biāo)字符,依次獲取目標(biāo)字符,得到待檢測文本的關(guān)鍵詞。

本發(fā)明實(shí)施例還提供了一種電子設(shè)備,參見圖5,圖5為本發(fā)明實(shí)施例的電子設(shè)備的結(jié)構(gòu)圖,包括:處理器501、通信接口502、存儲器503和通信總線504,其中,處理器501、通信接口502、存儲器503通過通信總線504完成相互間的通信;

存儲器503,用于存放計算機(jī)程序;

處理器501,用于執(zhí)行存儲器503上所存放的程序時,實(shí)現(xiàn)以下步驟:

獲取待檢測文本,對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣;

將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;

計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞,其中,向量模型包括:字符和所述字符對應(yīng)的字符向量。

需要說明的是,上述電子設(shè)備提到的通信總線504可以是pci(peripheralcomponentinterconnect,外設(shè)部件互連標(biāo)準(zhǔn))總線或eisa(extendedindustrystandardarchitecture,擴(kuò)展工業(yè)標(biāo)準(zhǔn)結(jié)構(gòu))總線等。該通信總線504可以分為地址總線、數(shù)據(jù)總線、控制總線等。為便于表示,圖5中僅用一條粗線表示,但并不表示僅有一根總線或一種類型的總線。

通信接口502用于上述電子設(shè)備與其他設(shè)備之間的通信。

存儲器503可以包括ram(randomaccessmemory,隨機(jī)存取存儲器),也可以包括非易失性存儲器(non-volatilememory),例如至少一個磁盤存儲器??蛇x的,存儲器還可以是至少一個位于遠(yuǎn)離前述處理器的存儲裝置。

上述的處理器501可以是通用處理器,包括:cpu(centralprocessingunit,中央處理器)、np(networkprocessor,網(wǎng)絡(luò)處理器)等;還可以是dsp(digitalsignalprocessing,數(shù)字信號處理器)、asic(applicationspecificintegratedcircuit,專用集成電路)、fpga(field-programmablegatearray,現(xiàn)場可編程門陣列)或者其他可編程邏輯器件、分立門或者晶體管邏輯器件、分立硬件組件。

由以上可見,本發(fā)明實(shí)施例的電子設(shè)備中,處理器通過執(zhí)行存儲器上所存放的程序,從而獲取待檢測文本,對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣;將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。本發(fā)明實(shí)施例通過時間遞歸神經(jīng)網(wǎng)絡(luò)得到待檢測文本的關(guān)鍵詞,提高了文本關(guān)鍵詞生成的準(zhǔn)確性。

本發(fā)明實(shí)施例還提供了一種計算機(jī)可讀存儲介質(zhì),計算機(jī)可讀存儲介質(zhì)內(nèi)存儲有計算機(jī)程序,計算機(jī)程序被處理器執(zhí)行時,使得計算機(jī)執(zhí)行上述實(shí)施例中任一所述的方法。

由以上可見,本發(fā)明實(shí)施例的計算機(jī)可讀存儲介質(zhì)內(nèi)存儲的計算機(jī)程序被處理器執(zhí)行時,獲取待檢測文本,對待檢測文本中的每一個字符進(jìn)行向量表示,得到待檢測文本的字符矩陣;將待檢測文本的字符矩陣輸入預(yù)先建立的關(guān)鍵詞模型,得到待檢測文本的字符矩陣對應(yīng)的關(guān)鍵詞矩陣;計算關(guān)鍵詞矩陣中的每一個向量和向量模型中的字符向量的相似度,根據(jù)相似度獲取待檢測文本的關(guān)鍵詞。本發(fā)明實(shí)施例通過時間遞歸神經(jīng)網(wǎng)絡(luò)得到待檢測文本的關(guān)鍵詞,提高了文本關(guān)鍵詞生成的準(zhǔn)確性。

在本發(fā)明提供的又一實(shí)施例中,還提供了一種包含指令的計算機(jī)程序產(chǎn)品,當(dāng)其在計算機(jī)上運(yùn)行時,使得計算機(jī)執(zhí)行上述實(shí)施例中任一所述的方法。

在上述實(shí)施例中,可以全部或部分地通過軟件、硬件、固件或者其任意組合來實(shí)現(xiàn)。當(dāng)使用軟件實(shí)現(xiàn)時,可以全部或部分地以計算機(jī)程序產(chǎn)品的形式實(shí)現(xiàn)。所述計算機(jī)程序產(chǎn)品包括一個或多個計算機(jī)指令。在計算機(jī)上加載和執(zhí)行所述計算機(jī)程序指令時,全部或部分地產(chǎn)生按照本發(fā)明實(shí)施例所述的流程或功能。所述計算機(jī)可以是通用計算機(jī)、專用計算機(jī)、計算機(jī)網(wǎng)絡(luò)、或者其他可編程裝置。所述計算機(jī)指令可以存儲在計算機(jī)可讀存儲介質(zhì)中,或者從一個計算機(jī)可讀存儲介質(zhì)向另一個計算機(jī)可讀存儲介質(zhì)傳輸,例如,所述計算機(jī)指令可以從一個網(wǎng)站站點(diǎn)、計算機(jī)、服務(wù)器或數(shù)據(jù)中心通過有線(例如同軸電纜、光纖、數(shù)字用戶線(dsl))或無線(例如紅外、無線、微波等)方式向另一個網(wǎng)站站點(diǎn)、計算機(jī)、服務(wù)器或數(shù)據(jù)中心進(jìn)行傳輸。所述計算機(jī)可讀存儲介質(zhì)可以是計算機(jī)能夠存取的任何可用介質(zhì)或者是包含一個或多個可用介質(zhì)集成的服務(wù)器、數(shù)據(jù)中心等數(shù)據(jù)存儲設(shè)備。所述可用介質(zhì)可以是磁性介質(zhì),(例如,軟盤、硬盤、磁帶)、光介質(zhì)(例如,dvd)、或者半導(dǎo)體介質(zhì)(例如固態(tài)硬盤solidstatedisk(ssd))等。

需要說明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語僅僅用來將一個實(shí)體或者操作與另一個實(shí)體或操作區(qū)分開來,而不一定要求或者暗示這些實(shí)體或操作之間存在任何這種實(shí)際的關(guān)系或者順序。而且,術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,并不排除在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。

本說明書中的各個實(shí)施例均采用相關(guān)的方式描述,各個實(shí)施例之間相同相似的部分互相參見即可,每個實(shí)施例重點(diǎn)說明的都是與其他實(shí)施例的不同之處。尤其,對于系統(tǒng)實(shí)施例而言,由于其基本相似于方法實(shí)施例,所以描述的比較簡單,相關(guān)之處參見方法實(shí)施例的部分說明即可。

以上所述僅為本發(fā)明的較佳實(shí)施例而已,并非用于限定本發(fā)明的保護(hù)范圍。凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換、改進(jìn)等,均包含在本發(fā)明的保護(hù)范圍內(nèi)。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1