最新的毛片基地免费,国产国语一级毛片,免费国产成人高清在线电影,中天堂国产日韩欧美,中国国产aa一级毛片,国产va欧美va在线观看,成人不卡在线

基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)及方法與流程

文檔序號(hào):12089245閱讀:958來(lái)源:國(guó)知局
基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)及方法與流程

本發(fā)明屬于圖像識(shí)別技術(shù)領(lǐng)域,尤其涉及一種基于OpenCV圖像識(shí)別的盲人智能拐杖控制系統(tǒng)及方法。



背景技術(shù):

圖像識(shí)別技術(shù)是人工智能的一個(gè)重要領(lǐng)域,是利用計(jì)算機(jī)對(duì)圖像進(jìn)行處理、分析和理解,以識(shí)別各種不同模式的目標(biāo)和對(duì)象的技術(shù)。圖像識(shí)別經(jīng)歷了三個(gè)發(fā)展階段:文字識(shí)別、數(shù)字圖像處理與識(shí)別和物體識(shí)別。文字識(shí)別的研究始于1950年,應(yīng)用于字母、數(shù)字和符號(hào)的識(shí)別,以及從印刷文字到手工文字的識(shí)別;數(shù)字圖像處理與識(shí)別的研究始于1965年,數(shù)字圖像相比于模擬圖像具有存儲(chǔ)方便可壓縮、傳輸不易失真等優(yōu)勢(shì),為圖像識(shí)別技術(shù)的發(fā)展提供強(qiáng)大的動(dòng)力;物體的識(shí)別主要是指對(duì)三維世界的客體和環(huán)境的感知及認(rèn)識(shí),屬于高級(jí)的計(jì)算機(jī)視覺(jué)范疇,它是以數(shù)字圖像處理與識(shí)別為基礎(chǔ),結(jié)合人工智能、系統(tǒng)學(xué)等學(xué)科的研究方向,其研究成果被廣泛應(yīng)用在各種工業(yè)及探測(cè)機(jī)器人上。目前,市場(chǎng)上盲人使用的最多的就是傳統(tǒng)的導(dǎo)盲拐杖和導(dǎo)盲犬,由于導(dǎo)盲犬的訓(xùn)練周期長(zhǎng)、成本較高、動(dòng)物習(xí)性不好控制等諸多問(wèn)題,所以更多的人選擇拐杖。然而傳統(tǒng)意義上的盲人拐杖的結(jié)構(gòu)簡(jiǎn)單,實(shí)現(xiàn)的功能也比較普通,存在很多的不足,諸如不能對(duì)前方將要靠近的障礙物進(jìn)行語(yǔ)音提醒、不能在盲人遇到緊急狀況下向家人求助等。國(guó)內(nèi)學(xué)者研制的隨身便攜式導(dǎo)盲儀,雖然其體積小,輕便好用,但沒(méi)有輔助支撐功能,對(duì)身有殘疾以及腿腳不便的人,仍然需要拐杖輔助行走等技術(shù)不足。

綜上所述,針對(duì)目前市場(chǎng)上盲人智能拐杖安全性低、功能單一,無(wú)法實(shí)現(xiàn)較好的導(dǎo)盲效果這一問(wèn)題,結(jié)合圖像識(shí)別技術(shù),提出了一種基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的在于提供一種基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)及方法,旨在解決目前市場(chǎng)上智能拐杖安全性低、功能單一,無(wú)法實(shí)現(xiàn)較好的導(dǎo)盲效果的這一問(wèn)題。

本發(fā)明是這樣實(shí)現(xiàn)的,一種基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng),所述基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)設(shè)置有:

路況檢測(cè)模塊,用于實(shí)現(xiàn)對(duì)前方未知路況的檢測(cè),當(dāng)遇到前方的障礙物時(shí),系統(tǒng)會(huì)做出相應(yīng)的響應(yīng)提醒盲人用戶;

緊急呼叫模塊,采用SIM900A通信模塊,用于盲人用戶實(shí)現(xiàn)在通過(guò)控制智能拐杖上的按鍵向指定好的電話號(hào)碼撥打電話,實(shí)現(xiàn)了一鍵撥打電話;

人員定位模塊,利用Wi-Fi定位技術(shù),通過(guò)檢測(cè)Wi-Fi信號(hào)強(qiáng)度,結(jié)合KNN算法來(lái)實(shí)現(xiàn)定位。

進(jìn)一步,所述路況檢測(cè)模塊包括:

模型構(gòu)建模塊,利用SURF算法進(jìn)行特征值的提取,使用OpenCV來(lái)檢測(cè)特征點(diǎn),并抽取其特征點(diǎn)描述符,把提取出來(lái)的特征值傳遞給OpenCV進(jìn)行訓(xùn)練,得到預(yù)先指定數(shù)量的類別;統(tǒng)計(jì)出每張圖像樣本的特征點(diǎn)在各個(gè)類別中出現(xiàn)的頻率,構(gòu)造出每張圖片的bag ofwords;

訓(xùn)練分類模塊,利用SVM分類器進(jìn)行分類,對(duì)每一個(gè)類別都訓(xùn)練一個(gè)二元分類器;對(duì)于待分類圖片的特征向量,使用每一個(gè)分類器計(jì)算分在該類的可能性,選擇可能性最高的類別作為這個(gè)特征向量的類別;

實(shí)時(shí)場(chǎng)景輸入模塊,通過(guò)按鍵來(lái)對(duì)當(dāng)前畫(huà)面進(jìn)行捕捉,對(duì)其進(jìn)行模型的構(gòu)建,并將其特征向量作為系統(tǒng)的輸入數(shù)據(jù)進(jìn)行識(shí)別分類,最終以語(yǔ)音播報(bào)的形式反饋給盲人用戶。

進(jìn)一步,所述基于OpenCV圖像識(shí)別的盲人拐杖控制方法的模型構(gòu)建模塊包括:

(1)通過(guò)對(duì)大數(shù)據(jù)樣本進(jìn)行圖像預(yù)處理,主要是對(duì)原圖像樣本進(jìn)行歸一化處理,使得圖像的一些特征在特定變換下具有不變的性質(zhì),進(jìn)而對(duì)每個(gè)圖像樣本進(jìn)行SURF特征點(diǎn)提取,SURF整體思想流程等同于SIFT,而整個(gè)過(guò)程中采用了與SIFT不同的方法,為了實(shí)現(xiàn)尺度不變性的特征點(diǎn)檢測(cè)與匹配,SURF算法利用Hessian矩陣確定候選點(diǎn),生成尺度空間,然后用非極大值抑制初步確定特征點(diǎn)和精確定位特征點(diǎn),確并定特征點(diǎn)的主方向,最后構(gòu)造SURF特征點(diǎn)描述算子,從而可以得到每個(gè)樣本的特征值;

(2)利用K-means算法將提取的每個(gè)樣本的特征值劃分成k個(gè)聚類,以空間中k(本系統(tǒng)中目標(biāo)分類的類別k分別為:樹(shù)、臺(tái)階、汽車和人行橫道)個(gè)點(diǎn)為中心進(jìn)行聚類,對(duì)最靠近他們的對(duì)象歸類。通過(guò)迭代的方法,逐次更新各聚類中心的值,直至得到最好的聚類結(jié)果,以達(dá)到同一聚類中的對(duì)象相似度較高,不同聚類中的對(duì)象相似度較小,從而得到k組向量,每個(gè)向量都代表某個(gè)類別的feature的中心點(diǎn);

(3)構(gòu)造Bag OfWords模型,即圖像中所有圖像塊的特征向量得到的直方圖,BOW是用來(lái)表示圖像的描述特征的。統(tǒng)計(jì)這K個(gè)聚類在每個(gè)樣本特征值中所占的比例,通過(guò)K-means聚類算法后,得到k個(gè)新的聚類中心,即得到了特征直方圖的一個(gè)基,然后將圖像的特征點(diǎn)聚類到k個(gè)已經(jīng)生成的詞典(即n個(gè)聚類中心)中,并且統(tǒng)計(jì)落入每個(gè)詞典中的特征點(diǎn)的個(gè)數(shù)。最終可以得到一幅圖像的特征直方圖,這樣就可以將每張圖片表示成K維數(shù)值向量。

本發(fā)明的另一目的在于提供一種所述基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)的基于OpenCV圖像識(shí)別的盲人拐杖控制方法,所述緊急呼叫模塊采用SIM900A通信模塊,安裝SIM卡,插上耳機(jī)和耳麥后通過(guò)控制智能拐杖上的按鍵向指定好的電話號(hào)碼撥打電話。

本發(fā)明的另一目的在于提供一種所述基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)的基于OpenCV圖像識(shí)別的盲人拐杖控制方法,所述人員定位模塊通過(guò)檢測(cè)Wi-Fi信號(hào)強(qiáng)度,結(jié)合KNN算法來(lái)實(shí)現(xiàn)定位。

進(jìn)一步,所述基于OpenCV圖像識(shí)別的盲人拐杖控制方法的人員定位方法包括:

1)、通過(guò)Wi-Fi Info獲取當(dāng)前位置附近的RSSI信息,利用開(kāi)源的Wi Fi Manager類庫(kù),可以使應(yīng)用程序方便地實(shí)現(xiàn)Wi-Fi連接,其中封裝好的Wi-Fi掃描函數(shù)可輕松掃描設(shè)備通信范圍內(nèi)的所有AP熱點(diǎn),同時(shí)可顯示接入點(diǎn)的SSID、MAC地址、IP和經(jīng)量化處理的RSSI;

2)、利用機(jī)器學(xué)習(xí)相關(guān)的匹配算法,對(duì)實(shí)測(cè)數(shù)據(jù)與儲(chǔ)存在程序中的數(shù)據(jù)進(jìn)行對(duì)比,搜索到一組和測(cè)量典型匹配的數(shù)據(jù)。通過(guò)待測(cè)點(diǎn)接收到來(lái)自第j個(gè)AP的RSSI和第i個(gè)參考點(diǎn)接收到來(lái)自第j個(gè)AP的RSSI值算出歐幾里得距離dis。每個(gè)參考點(diǎn)都有兩個(gè)參數(shù)第一個(gè)是在該位置某一時(shí)刻接收Wi-Fi1的信號(hào)強(qiáng)度,第二個(gè)是在該位置另一時(shí)刻接收Wi-Fi2的信號(hào)強(qiáng)度。然后利用KNN算法在dis中從小到大選擇K個(gè)參考點(diǎn),通過(guò)參考點(diǎn)的實(shí)際坐標(biāo)使用均值法計(jì)算出待測(cè)點(diǎn)的坐標(biāo),進(jìn)而估算出待測(cè)點(diǎn)的位置。

本發(fā)明的另一目的在于提供一種安裝有所述基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)的拐杖。

本發(fā)明提供的基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)及方法,基于OpenCV圖像識(shí)別技術(shù)來(lái)實(shí)現(xiàn)其路況識(shí)別的功能,實(shí)時(shí)幫助盲人用戶了解前方的路況;有效地保證盲人的出行安全問(wèn)題。

本發(fā)明與現(xiàn)有技術(shù)相比,具有以下優(yōu)勢(shì):

(1)本發(fā)明沒(méi)有借助外界的超聲波等輔助硬件即可實(shí)現(xiàn)識(shí)別功能,實(shí)用性強(qiáng),開(kāi)發(fā)成本低,能耗少。本發(fā)明基于Visual Studio2013并使用C++語(yǔ)言在Windows平臺(tái)下進(jìn)行開(kāi)發(fā),因此開(kāi)發(fā)成本低。

(2)本發(fā)明采用了SURF特征提取算法進(jìn)行特征值的提取,安全性高,效率相對(duì)較高,SURF特征提取算法是實(shí)質(zhì)上是改進(jìn)板的SIFT算法,一般來(lái)說(shuō),SURF算法的效率是SIFT算法的3倍左右,而檢測(cè)出的特征點(diǎn)的個(gè)數(shù)是SIFT算法的1/3左右,當(dāng)然也和圖像大小、紋理復(fù)雜程度、算法參數(shù)設(shè)置有關(guān);對(duì)于SURF算法,它采用Hessian矩陣確定候選點(diǎn),然后進(jìn)行非極大抑制,降低了計(jì)算復(fù)雜度。SURF算法的主要特點(diǎn)是快速性,同時(shí)也具有尺度不變的特性,對(duì)光照變化和仿射、透視變化也具有較強(qiáng)的魯棒性。

(3)本發(fā)明采用了K-means算法對(duì)提取的特征值進(jìn)行聚類訓(xùn)練,通過(guò)不斷地取離聚類中心最近均值的方法,最終確定聚類的類別;該算法采用EM思想,算法快速、簡(jiǎn)單、對(duì)大數(shù)據(jù)集有較高的效率并且是可伸縮性的、時(shí)間復(fù)雜度近于線性,而且適合挖掘大規(guī)模數(shù)據(jù)集。

(4)用戶不需要任何的專業(yè)知識(shí)便可對(duì)軟件熟練使用,用戶操作體驗(yàn)相對(duì)好,通過(guò)拐杖上僅有的三個(gè)物理按鍵便可直接實(shí)現(xiàn)預(yù)期的各項(xiàng)功能。

附圖說(shuō)明

圖1是本發(fā)明實(shí)施例提供的基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)結(jié)構(gòu)示意圖;

圖中:1、路況檢測(cè)模塊;2、緊急呼叫模塊;3、人員定位模塊。

圖2是本發(fā)明實(shí)施例提供的模型構(gòu)建模塊的構(gòu)建流程圖。

具體實(shí)施方式

為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,以下結(jié)合實(shí)施例,對(duì)本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說(shuō)明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。

下面結(jié)合附圖對(duì)本發(fā)明的應(yīng)用原理作詳細(xì)的描述。

如圖1所示,本發(fā)明實(shí)施例提供的基于OpenCV圖像識(shí)別的盲人拐杖控制系統(tǒng)包括:

路況檢測(cè)模塊1,用于實(shí)現(xiàn)對(duì)前方未知路況的檢測(cè),當(dāng)遇到前方的障礙物(樹(shù)、汽車、臺(tái)階、人行橫道和紅綠燈),做出相應(yīng)的響應(yīng)提醒盲人用戶。

緊急呼叫模塊2,采用SIM900A通信模塊,用于盲人用戶實(shí)現(xiàn)在通過(guò)控制智能拐杖上的按鍵向指定好的電話號(hào)碼撥打電話,實(shí)現(xiàn)了一鍵撥打電話。

人員定位模塊3,利用Wi-Fi定位技術(shù),通過(guò)檢測(cè)Wi-Fi信號(hào)強(qiáng)度,結(jié)合KNN算法來(lái)實(shí)現(xiàn)定位。

路況檢測(cè)模塊1包括:模型構(gòu)建模塊、訓(xùn)練分類模塊和實(shí)時(shí)場(chǎng)景輸入模塊三大模塊組成。

1)模型構(gòu)建模塊,利用SURF算法進(jìn)行特征值的提取,使用OpenCV來(lái)檢測(cè)特征點(diǎn),并抽取其特征點(diǎn)描述符,把提取出來(lái)的特征值傳遞給OpenCV進(jìn)行訓(xùn)練,得到預(yù)先指定數(shù)量的類別。最后,統(tǒng)計(jì)出每張圖像樣本的特征點(diǎn)在各個(gè)類別中出現(xiàn)的頻率,進(jìn)而構(gòu)造出每張圖片的bag ofwords。當(dāng)傳入一張圖片時(shí),系統(tǒng)就會(huì)構(gòu)造出這張圖片的BOW與事先訓(xùn)練好的模型進(jìn)行比較分類。

2)、訓(xùn)練分類模塊。訓(xùn)練分類模塊主要利用SVM分類器進(jìn)行分類,使用經(jīng)典的1vs all方法實(shí)現(xiàn)多類分類。對(duì)每一個(gè)類別都訓(xùn)練一個(gè)二元分類器。訓(xùn)練好后,對(duì)于待分類圖片的特征向量(也就是該圖片的BOW),使用每一個(gè)分類器計(jì)算分在該類的可能性,然后選擇那個(gè)可能性最高的類別作為這個(gè)特征向量的類別,也就是該待分類圖像所屬的類別。

3)、實(shí)時(shí)場(chǎng)景輸入模塊。實(shí)時(shí)場(chǎng)景載入模型主要是通過(guò)按鍵來(lái)對(duì)當(dāng)前畫(huà)面進(jìn)行捕捉,對(duì)其進(jìn)行模型的構(gòu)建,并將其特征向量作為系統(tǒng)的輸入數(shù)據(jù)進(jìn)行識(shí)別分類,最終以語(yǔ)音播報(bào)的形式反饋給盲人用戶。

緊急呼叫模塊2,主要是采用SIM900A通信模塊,盲人用戶在使用時(shí),首先在該模塊上安裝一張有效的SIM卡,插上耳機(jī)和耳麥后就可以通過(guò)控制智能拐杖上的按鍵向指定好的電話號(hào)碼撥打電話,實(shí)現(xiàn)了一鍵撥打電話的功能。

人員定位模塊3,主要利用Wi-Fi定位技術(shù),通過(guò)檢測(cè)Wi-Fi信號(hào)強(qiáng)度,結(jié)合KNN算法來(lái)實(shí)現(xiàn)定位,具體實(shí)現(xiàn)過(guò)程如下:

1)、通過(guò)Wi-Fi Info獲取當(dāng)前位置附近的RSSI信息,測(cè)量到待定位的地方AP的信號(hào)強(qiáng)度和物理地址。

2)、利用機(jī)器學(xué)習(xí)相關(guān)的匹配算法,對(duì)實(shí)測(cè)數(shù)據(jù)與儲(chǔ)存在程序中的數(shù)據(jù)進(jìn)行對(duì)比,搜索到一組和測(cè)量典型匹配的數(shù)據(jù),進(jìn)而估算出待測(cè)點(diǎn)的位置。

如圖2所示,本發(fā)明實(shí)施例提供的模型構(gòu)建模塊的構(gòu)建方法包括:

S201:通過(guò)對(duì)大數(shù)據(jù)樣本進(jìn)行圖像預(yù)處理,進(jìn)而對(duì)每個(gè)圖像樣本進(jìn)行SURF特征點(diǎn)提取,得到每個(gè)樣本的特征值;

S202:利用K-means算法將提取的每個(gè)樣本的特征值劃分成k個(gè)聚類,從而得到k組向量,每個(gè)向量都代表某個(gè)類別的feature的中心點(diǎn),也就是說(shuō),這k類中的每一類就相當(dāng)于是圖片的“單詞”,即該系統(tǒng)中目標(biāo)分類的類別:樹(shù)、臺(tái)階、汽車、人行橫道和紅綠燈。

S303:構(gòu)造Bag OfWords模型,BOW是用來(lái)表示圖像的描述特征的。統(tǒng)計(jì)這K個(gè)聚類在每個(gè)樣本特征值中所占的比例,從而可將每張圖片表示成K維數(shù)值向量。

本發(fā)明提供了一種基于OpenCV圖像識(shí)別的盲人智能拐杖系統(tǒng),OpenCV提供的視覺(jué)處理算法非常豐富,加上其開(kāi)源的特性,不需要添加新的外部支持也可以完整的編譯鏈接生成執(zhí)行程序,所以用它可以來(lái)做算法的移植,OpenCV的代碼經(jīng)過(guò)適當(dāng)改寫可以正常的運(yùn)行在DSP系統(tǒng)和單片機(jī)系統(tǒng)中,最終用于實(shí)現(xiàn)預(yù)期的功能。

以上所述僅為本發(fā)明的較佳實(shí)施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1