最新的毛片基地免费,国产国语一级毛片,免费国产成人高清在线电影,中天堂国产日韩欧美,中国国产aa一级毛片,国产va欧美va在线观看,成人不卡在线

一種基于圖像識(shí)別的無人值守視力檢測(cè)方法及系統(tǒng)與流程

文檔序號(hào):41952000發(fā)布日期:2025-05-16 14:13閱讀:3來源:國(guó)知局
一種基于圖像識(shí)別的無人值守視力檢測(cè)方法及系統(tǒng)與流程

本發(fā)明涉及圖像識(shí)別,尤其涉及一種基于圖像識(shí)別的無人值守視力檢測(cè)方法及系統(tǒng)。


背景技術(shù):

1、基于圖像識(shí)別的無人值守視力檢測(cè)方法是一種通過計(jì)算機(jī)視覺自動(dòng)分析和評(píng)估用戶視力狀態(tài)的方法。其主要用途是利用圖像識(shí)別技術(shù),在無人監(jiān)管的情況下自動(dòng)進(jìn)行視力檢測(cè)和評(píng)估。

2、現(xiàn)有技術(shù)僅依靠基礎(chǔ)的計(jì)算機(jī)視覺方法對(duì)用戶視力狀態(tài)進(jìn)行自動(dòng)分析和評(píng)估,在復(fù)雜空間結(jié)構(gòu)或用戶相對(duì)位置頻繁變化的情況下,容易造成空間定位的誤差較大,難以有效應(yīng)對(duì)視線變化與相機(jī)視角變動(dòng)帶來的實(shí)時(shí)空間不穩(wěn)定性,導(dǎo)致視力評(píng)估結(jié)果的穩(wěn)定性較差;同時(shí)缺乏對(duì)多視角數(shù)據(jù)的融合處理,難以識(shí)別并校正用戶姿態(tài)與視線方向的空間位置差異,使得場(chǎng)景分析結(jié)果缺乏空間一致性驗(yàn)證,評(píng)估結(jié)論易受外界干擾因素影響,降低了檢測(cè)結(jié)果的可靠性和準(zhǔn)確性。因此,需要進(jìn)行改進(jìn)。


技術(shù)實(shí)現(xiàn)思路

1、本發(fā)明的目的是解決現(xiàn)有技術(shù)中存在的缺點(diǎn),而提出的一種基于圖像識(shí)別的無人值守視力檢測(cè)方法及系統(tǒng)。

2、為了實(shí)現(xiàn)上述目的,本發(fā)明采用了如下技術(shù)方案,一種基于圖像識(shí)別的無人值守視力檢測(cè)方法,包括以下步驟:

3、采集視力檢測(cè)現(xiàn)場(chǎng)圖像數(shù)據(jù),進(jìn)行場(chǎng)景結(jié)構(gòu)線檢測(cè)與平面檢測(cè)獲取線段集與平面參數(shù),建立基礎(chǔ)幾何描繪元;基于所述基礎(chǔ)幾何描繪元,結(jié)合檢測(cè)所得的用戶視線區(qū)域坐標(biāo)與視力檢測(cè)屏幕邊界坐標(biāo)進(jìn)行空間整合,獲取初始場(chǎng)景幾何結(jié)構(gòu)信息;

4、基于所述初始場(chǎng)景幾何結(jié)構(gòu)信息,追蹤連續(xù)圖像幀中相機(jī)姿態(tài)變化,計(jì)算獲取相機(jī)相對(duì)于初始幾何結(jié)構(gòu)的位移與旋轉(zhuǎn)參數(shù),得到相機(jī)相對(duì)位姿序列,基于所述相機(jī)相對(duì)位姿序列,構(gòu)建三維空間坐標(biāo)系并解算用戶視線區(qū)域至視力檢測(cè)屏幕坐標(biāo)變換,生成用戶屏幕動(dòng)態(tài)空間矢量;

5、獲取視力檢測(cè)現(xiàn)場(chǎng)多視角圖像數(shù)據(jù),在各視角下分別識(shí)別用戶行為特征點(diǎn)和場(chǎng)景關(guān)鍵元素的三維位置信息,匯集為單視角要素定位表,基于所述單視角要素定位表與用戶屏幕動(dòng)態(tài)空間矢量定義的統(tǒng)一坐標(biāo)系,進(jìn)行跨視角數(shù)據(jù)映射與融合,建立多視角融合場(chǎng)景狀態(tài)點(diǎn)集;

6、基于所述多視角融合場(chǎng)景狀態(tài)點(diǎn)集,匹配不同視角下的對(duì)應(yīng)用戶行為特征點(diǎn)與場(chǎng)景元素,計(jì)算在統(tǒng)一坐標(biāo)系下的空間位置差異值,將空間位置差異值與預(yù)設(shè)空間容差閾值進(jìn)行比較判斷,獲取空間狀態(tài)一致性判定結(jié)果。

7、較佳的,所述基礎(chǔ)幾何描繪元的獲取步驟為:

8、采集視力檢測(cè)現(xiàn)場(chǎng)圖像數(shù)據(jù),基于所采集的視力檢測(cè)現(xiàn)場(chǎng)圖像數(shù)據(jù),進(jìn)行圖像邊緣梯度分析計(jì)算邊緣點(diǎn)像素梯度變化,提取場(chǎng)景內(nèi)各物體邊界處的邊緣輪廓,組合邊緣點(diǎn)形成結(jié)構(gòu)線段,生成視力檢測(cè)現(xiàn)場(chǎng)結(jié)構(gòu)線段集;

9、基于所述視力檢測(cè)現(xiàn)場(chǎng)結(jié)構(gòu)線段集,提取線段集中所有線段端點(diǎn)的空間坐標(biāo)數(shù)據(jù),判斷線段端點(diǎn)空間坐標(biāo)共面性,根據(jù)線段端點(diǎn)坐標(biāo)共面性篩選共面點(diǎn)組,擬合計(jì)算共面點(diǎn)組空間位置對(duì)應(yīng)的平面方程參數(shù),生成結(jié)構(gòu)線段對(duì)應(yīng)的平面參數(shù);

10、基于所述結(jié)構(gòu)線段對(duì)應(yīng)的平面參數(shù),調(diào)用視力檢測(cè)現(xiàn)場(chǎng)結(jié)構(gòu)線段集中的線段端點(diǎn)坐標(biāo),將線段端點(diǎn)空間坐標(biāo)與對(duì)應(yīng)的平面參數(shù)逐一進(jìn)行空間投影計(jì)算,確定線段與對(duì)應(yīng)平面之間空間位置關(guān)系,建立線段端點(diǎn)坐標(biāo)與平面參數(shù)之間的空間映射關(guān)系,生成基礎(chǔ)幾何描繪元。

11、較佳的,所述初始場(chǎng)景幾何結(jié)構(gòu)信息的獲取步驟為:

12、基于所述基礎(chǔ)幾何描繪元,調(diào)用基礎(chǔ)幾何描繪元中的線段端點(diǎn)坐標(biāo)與平面參數(shù),結(jié)合視力檢測(cè)屏幕邊界坐標(biāo),進(jìn)行空間坐標(biāo)變換與投影計(jì)算,確定視力檢測(cè)屏幕在基礎(chǔ)幾何描繪元中的空間位置關(guān)系,生成屏幕邊界空間映射坐標(biāo);

13、基于所述屏幕邊界空間映射坐標(biāo),獲取用戶視線區(qū)域坐標(biāo),進(jìn)行坐標(biāo)系對(duì)齊和空間坐標(biāo)變換,整合用戶視線區(qū)域與屏幕邊界的空間位置關(guān)系,建立視線區(qū)域坐標(biāo)與屏幕邊界坐標(biāo)之間的映射對(duì)應(yīng)關(guān)系,生成視線屏幕整合空間坐標(biāo);

14、基于所述視線屏幕整合空間坐標(biāo),確定視線屏幕整合空間坐標(biāo)與基礎(chǔ)幾何描繪元之間的空間匹配關(guān)系,得到初始場(chǎng)景幾何結(jié)構(gòu)信息。

15、較佳的,所述相機(jī)相對(duì)位姿序列的獲取步驟為:

16、基于所述初始場(chǎng)景幾何結(jié)構(gòu)信息,獲取用戶視線區(qū)域三維邊界點(diǎn)與視力檢測(cè)屏幕邊界角點(diǎn)坐標(biāo),結(jié)合連續(xù)圖像幀中記錄的圖像采集時(shí)間戳與相機(jī)內(nèi)參,計(jì)算圖像幀之間對(duì)應(yīng)邊界點(diǎn)的匹配誤差與重投影偏移量,生成連續(xù)圖像幀匹配誤差序列;

17、根據(jù)所述連續(xù)圖像幀匹配誤差序列,計(jì)算相機(jī)姿態(tài)變化角度值;

18、根據(jù)所述相機(jī)姿態(tài)變化角度值,結(jié)合連續(xù)圖像幀匹配誤差序列中每幀圖像的邊界點(diǎn)三維偏移量,獲取相鄰幀之間的三維旋轉(zhuǎn)軸偏移與方向向量變化,得到相機(jī)相對(duì)位姿序列。

19、較佳的,所述用戶屏幕動(dòng)態(tài)空間矢量的獲取步驟為:

20、基于所述相機(jī)相對(duì)位姿序列,獲取各幀的旋轉(zhuǎn)矩陣與平移向量,結(jié)合相機(jī)內(nèi)參中的焦距、圖像中心坐標(biāo)、像素尺寸與圖像尺寸參數(shù),依次對(duì)用戶視線區(qū)域起點(diǎn)坐標(biāo)與屏幕角點(diǎn)坐標(biāo)進(jìn)行坐標(biāo)與空間向量重構(gòu),生成用戶視線至屏幕初始三維向量組;

21、根據(jù)所述用戶視線至屏幕初始三維向量組,計(jì)算用戶視線向量至屏幕目標(biāo)位置的空間變換值;

22、基于所述用戶視線向量至屏幕目標(biāo)位置的空間變換值,進(jìn)行向量方向歸一與投影差異校正,得到用戶屏幕動(dòng)態(tài)空間矢量。

23、較佳的,所述單視角要素定位表的獲取步驟為:

24、獲取視力檢測(cè)現(xiàn)場(chǎng)多視角圖像數(shù)據(jù),提取視力檢測(cè)現(xiàn)場(chǎng)多視角圖像數(shù)據(jù)中用戶行為特征區(qū)域與場(chǎng)景關(guān)鍵元素區(qū)域的像素信息,通過空間映射識(shí)別用戶行為特征點(diǎn)的三維位置信息,生成用戶行為特征點(diǎn)空間坐標(biāo)集合;

25、基于所述用戶行為特征點(diǎn)空間坐標(biāo)集合,識(shí)別視力檢測(cè)現(xiàn)場(chǎng)多視角圖像數(shù)據(jù)中場(chǎng)景關(guān)鍵元素的輪廓邊緣,并進(jìn)行空間坐標(biāo)匹配與三維空間擬合,生成場(chǎng)景關(guān)鍵元素三維空間位置坐標(biāo)集合;

26、基于所述場(chǎng)景關(guān)鍵元素三維空間位置坐標(biāo)集合,匯總對(duì)應(yīng)視角下用戶行為特征點(diǎn)與場(chǎng)景關(guān)鍵元素的三維空間位置坐標(biāo),建立單視角要素定位表。

27、較佳的,所述多視角融合場(chǎng)景狀態(tài)點(diǎn)集的獲取步驟為:

28、基于所述單視角要素定位表,提取每個(gè)視角下的用戶行為特征點(diǎn)三維坐標(biāo)、場(chǎng)景關(guān)鍵元素三維坐標(biāo)、圖像幀編號(hào)、相機(jī)內(nèi)參矩陣與用戶屏幕動(dòng)態(tài)空間矢量坐標(biāo)端點(diǎn),統(tǒng)一轉(zhuǎn)換至用戶屏幕動(dòng)態(tài)空間矢量定義的統(tǒng)一坐標(biāo)系下,生成統(tǒng)一坐標(biāo)系內(nèi)多視角三維定位矩陣集;

29、根據(jù)所述統(tǒng)一坐標(biāo)系內(nèi)多視角三維定位矩陣集,計(jì)算每個(gè)視角的融合穩(wěn)定偏移量;

30、基于所述融合穩(wěn)定偏移量,遍歷各視角定位點(diǎn)對(duì),按照融合穩(wěn)定偏移量從小到大的順序進(jìn)行空間位置融合優(yōu)先排序,篩選滿足空間重合度條件的點(diǎn)對(duì)并合并為統(tǒng)一空間點(diǎn)位,建立多視角融合場(chǎng)景狀態(tài)點(diǎn)集。

31、較佳的,所述空間狀態(tài)一致性判定結(jié)果的獲取步驟為:

32、基于所述多視角融合場(chǎng)景狀態(tài)點(diǎn)集,提取各個(gè)視角下對(duì)應(yīng)的用戶行為特征點(diǎn)三維坐標(biāo)、場(chǎng)景關(guān)鍵元素三維坐標(biāo)、相機(jī)光心位置、相機(jī)視軸向量、用戶屏幕動(dòng)態(tài)空間矢量方向與用戶行為特征點(diǎn)朝向向量,生成多視角點(diǎn)位方向?qū)φ站仃嚕?/p>

33、根據(jù)所述多視角點(diǎn)位方向?qū)φ站仃?,?jì)算統(tǒng)一坐標(biāo)系下的空間位置差異值;

34、基于所述空間位置差異值,與已設(shè)定的空間容差閾值進(jìn)行逐對(duì)比對(duì),篩選所有滿足空間容差閾值范圍內(nèi)的匹配點(diǎn)對(duì),并依據(jù)點(diǎn)對(duì)在所有視角中的一致匹配情況輸出統(tǒng)一判斷結(jié)果,獲取空間狀態(tài)一致性判定結(jié)果。

35、本發(fā)明提供無人值守視力檢測(cè)系統(tǒng),包括:

36、數(shù)據(jù)采集模塊,基于視力檢測(cè)現(xiàn)場(chǎng)圖像數(shù)據(jù),進(jìn)行圖像采集,獲取視力檢測(cè)現(xiàn)場(chǎng)的多角度和多視角圖像數(shù)據(jù),進(jìn)行場(chǎng)景結(jié)構(gòu)線與平面檢測(cè),通過提取線段集與平面參數(shù),構(gòu)建場(chǎng)景幾何特征集;

37、場(chǎng)景建模模塊,基于場(chǎng)景幾何特征集,進(jìn)行空間整合,通過結(jié)合檢測(cè)所得的用戶視線區(qū)域坐標(biāo)與視力檢測(cè)屏幕邊界坐標(biāo),獲得初始場(chǎng)景幾何結(jié)構(gòu);根據(jù)初始場(chǎng)景幾何結(jié)構(gòu),追蹤連續(xù)圖像幀中相機(jī)姿態(tài)變化,計(jì)算獲取相機(jī)相對(duì)位姿,進(jìn)而構(gòu)建三維空間坐標(biāo)系,生成相機(jī)相對(duì)位姿序列,解算出用戶視線區(qū)域到視力檢測(cè)屏幕的坐標(biāo)變換,得到用戶屏幕動(dòng)態(tài)空間矢量;

38、視線跟蹤模塊,基于相機(jī)相對(duì)位姿序列與用戶屏幕動(dòng)態(tài)空間矢量,進(jìn)行連續(xù)圖像幀的姿態(tài)變化追蹤,計(jì)算視線方向和用戶行為的動(dòng)態(tài)變化,生成用戶視線跟蹤序列;

39、多視角融合模塊,基于視力檢測(cè)現(xiàn)場(chǎng)的多視角圖像數(shù)據(jù),在各視角下進(jìn)行用戶行為特征點(diǎn)與場(chǎng)景關(guān)鍵元素的識(shí)別,獲取三維空間位置數(shù)據(jù),匯集為單視角要素定位表;結(jié)合用戶視線跟蹤序列與單視角要素定位表,進(jìn)行跨視角數(shù)據(jù)映射與融合,生成多視角融合場(chǎng)景狀態(tài)點(diǎn)集;

40、空間一致性模塊,基于多視角融合場(chǎng)景狀態(tài)點(diǎn)集,對(duì)不同視角下的用戶行為特征點(diǎn)與場(chǎng)景元素進(jìn)行匹配,計(jì)算空間位置差異值,比較空間位置差異值與預(yù)設(shè)空間容差閾值,判斷一致性,得到空間一致性判定結(jié)果。

41、與現(xiàn)有技術(shù)相比,本發(fā)明的優(yōu)點(diǎn)和積極效果在于:

42、本發(fā)明通過采集視力檢測(cè)現(xiàn)場(chǎng)的圖像數(shù)據(jù)進(jìn)行場(chǎng)景結(jié)構(gòu)線檢測(cè)和平面檢測(cè),獲取線段集和平面參數(shù),建立基礎(chǔ)幾何描繪元,結(jié)合用戶視線區(qū)域和視力檢測(cè)屏幕邊界的空間整合實(shí)現(xiàn)初始場(chǎng)景幾何結(jié)構(gòu)的構(gòu)建,提升現(xiàn)場(chǎng)空間結(jié)構(gòu)分析的穩(wěn)定性;進(jìn)一步追蹤連續(xù)圖像幀中的相機(jī)姿態(tài)變化,實(shí)時(shí)計(jì)算位移與旋轉(zhuǎn)參數(shù),生成相機(jī)相對(duì)位姿序列,實(shí)現(xiàn)用戶視線區(qū)域至屏幕之間的準(zhǔn)確動(dòng)態(tài)空間矢量構(gòu)建,降低動(dòng)態(tài)場(chǎng)景中位姿變化所造成的檢測(cè)誤差;同時(shí)獲取多視角圖像數(shù)據(jù)識(shí)別各視角下用戶行為特征點(diǎn)與場(chǎng)景關(guān)鍵元素的空間位置,構(gòu)建單視角要素定位表并跨視角融合,提升多視角數(shù)據(jù)的一致性和定位準(zhǔn)確性;最終進(jìn)行統(tǒng)一坐標(biāo)系下的空間位置差異值精準(zhǔn)計(jì)算與空間容差閾值的判斷,提高空間狀態(tài)一致性判定結(jié)果的可靠性與自動(dòng)化程度,保障視力檢測(cè)整體過程的精準(zhǔn)性與智能性,而空間狀態(tài)一致性判定結(jié)果用于確認(rèn)用戶視線區(qū)域與視力檢測(cè)屏幕顯示區(qū)域在多視角圖像中位置是否精確重合,判定用戶在檢測(cè)過程中是否保持正確的姿態(tài)與視線方向。通過計(jì)算不同視角下用戶行為特征點(diǎn)與視力檢測(cè)屏幕元素之間的位置差異,判斷其是否處于預(yù)定的容差范圍內(nèi),若位置差異超出容差范圍,則說明用戶視線偏離檢測(cè)屏幕或姿態(tài)異常,此時(shí)能夠排除當(dāng)前無效檢測(cè)數(shù)據(jù),從而確保無人值守視力檢測(cè)過程的有效性與評(píng)估結(jié)果的真實(shí)性、準(zhǔn)確性。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1