本發(fā)明涉及圖像處理,具體為一種基于飽和度快速深度學(xué)習(xí)圖像去霧方法。
背景技術(shù):
1、去霧是圖像處理領(lǐng)域中用于改善因大氣條件(如霧、煙或霾)導(dǎo)致圖像質(zhì)量下降的一種技術(shù)。霧天條件下,圖像會(huì)因?yàn)楣饩€散射而變得對(duì)比度降低、顏色失真和細(xì)節(jié)模糊。去霧技術(shù)旨在恢復(fù)圖像的清晰度和真實(shí)色彩,提升視覺(jué)效果。去霧算法通?;谖锢砟P?,模擬光線在大氣中的傳播過(guò)程,估計(jì)霧對(duì)圖像的影響,并進(jìn)行相應(yīng)的校正。常見(jiàn)的去霧方法包括基于物理大氣光散射模型的方法和基于深度學(xué)習(xí)的方法。近年來(lái),深度學(xué)習(xí)技術(shù)的發(fā)展為去霧技術(shù)帶來(lái)了新的突破,提高了去霧效果的準(zhǔn)確性和魯棒性。隨著技術(shù)的發(fā)展,去霧技術(shù)在交通監(jiān)控、衛(wèi)星圖像分析和攝影等領(lǐng)域有著廣泛的應(yīng)用。
2、這些方法可以分為三類(lèi):第一類(lèi)是基于飽和度的傳統(tǒng)算法,第二類(lèi)則是專(zhuān)注于將大氣光散射模型與深度學(xué)習(xí)相結(jié)合,第三類(lèi)是使用參數(shù)多、計(jì)算量大的神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)端到端去霧。
3、一方面,基于飽和度的傳統(tǒng)算法[1]算法相對(duì)簡(jiǎn)單,不需要額外的場(chǎng)景深度信息或大氣光信息,僅依賴(lài)于圖像本身的飽和度信息。但是具有環(huán)境依賴(lài)性,在非均勻霧或特殊光照條件下,飽和度的變化可能不足以準(zhǔn)確估計(jì)霧密度,簡(jiǎn)單的拉伸函數(shù)也不能很好地適應(yīng)于全圖的不同區(qū)域,另外算法的效果很大程度上依賴(lài)于參數(shù)的選擇(如拉伸函數(shù)曲線),而這些參數(shù)往往需要根據(jù)具體的霧條件進(jìn)行調(diào)整。
4、另一方面,對(duì)于大氣光散射模型與深度學(xué)習(xí)結(jié)合的工作,aodnet[2]最先將大氣光散射模型變形,將大氣光散射模型中兩個(gè)關(guān)鍵變量大氣光a和傳輸圖t(x)合并進(jìn)同一個(gè)變量k(x)并且直接使用神經(jīng)網(wǎng)絡(luò)估計(jì)k(x),接下來(lái)有一些工作如light-dehazenet[3]和lfd-net[4]延續(xù)使用了這個(gè)思路。但是由于k(x)中包含有大氣光散射模型的兩個(gè)關(guān)鍵變量,使用一個(gè)輕量化網(wǎng)絡(luò)直接估計(jì)k(x)難以實(shí)現(xiàn)準(zhǔn)確、理想的效果。
5、最后,參數(shù)多、計(jì)算量大的端到端深度學(xué)習(xí)模型計(jì)算速度往往很慢,難以在邊緣設(shè)備場(chǎng)景如自動(dòng)駕駛做到實(shí)時(shí)。因此,現(xiàn)有方法通常難以在實(shí)時(shí)性要求較高的場(chǎng)景中得到應(yīng)用。
6、現(xiàn)有技術(shù)中利用飽和度的去霧傳統(tǒng)方法雖然能夠在一定程度上改善圖像質(zhì)量,但仍存在以下顯著缺點(diǎn):
7、1.對(duì)霧氣特征適應(yīng)性不足,部分場(chǎng)景霧氣有殘留。
8、霧氣在不同環(huán)境和不同條件下表現(xiàn)出不同的特征,顏色、密度和分布上可能有很大差異?,F(xiàn)有的去霧算法往往基于特定的霧模型設(shè)計(jì),可能無(wú)法適應(yīng)所有類(lèi)型的霧氣特征,導(dǎo)致在某些場(chǎng)景下無(wú)法完全去除霧氣。圖像中除了霧氣外,還可能包含其他影響視覺(jué)感知的因素,如陰影、光照變化等。這些因素可能與霧氣特征相混淆,使得算法難以區(qū)分和處理,進(jìn)而影響去霧效果。
9、另外,對(duì)于霧終全圖飽和度不宜使用相同拉伸曲線,在[1]中僅便用簡(jiǎn)單的全局拉伸函數(shù)如?(其中表示霧圖飽和度,表示估計(jì)的無(wú)霧圖飽和度),這種方法無(wú)法很好地適應(yīng)圖像中不同區(qū)域的霧霾特征。
10、2.對(duì)于神經(jīng)網(wǎng)絡(luò)估計(jì)k(x)的困難。
11、k(x)中包含有大氣光散射模型的兩個(gè)關(guān)鍵變量——大氣光和傳輸圖,含有較大的信息量。但是輕量化網(wǎng)絡(luò)通常意味著較少的參數(shù)和較低的計(jì)算復(fù)雜度,這限制了網(wǎng)絡(luò)的表達(dá)能力和靈活性,使得直接準(zhǔn)確估計(jì)k(x)變得困難,尤其是在面對(duì)復(fù)雜和多變的霧條件時(shí)。另外,現(xiàn)有網(wǎng)絡(luò)很少對(duì)去霧加速進(jìn)行針對(duì)性設(shè)計(jì),這使得現(xiàn)有算法難以用于一些實(shí)時(shí)性要求較高的場(chǎng)景。
12、綜上,可以看出現(xiàn)有技術(shù)在精確性和計(jì)算效率方面仍存在顯著的不足,因此,本發(fā)明旨在克服這些問(wèn)題,提出了一種改進(jìn)的去霧方法。
13、與本發(fā)明相關(guān)的現(xiàn)有技術(shù)有如下參考文獻(xiàn):
14、[1]?se?eun?kim,?tae?hee?park,?and?ll?kyu?eom,?“fast?single?imagedehazingusing?saturation?based?transmission?map?estimation,”?ieeetransactionson?image?processing,vol.29,pp.1985-1998,?2020.
15、[2]?boyi?li,?xiulian?peng,?zhangyang?wang,?jizheng?xu,?and?dan?feng“aod-net:?all-in-one?dehazing?network,”?in?2017?leee?internationalconferenceon?computer?vision(iccv),2017,pp.4780-4788.
16、[3]?hayat?ullah,?khan?muhammad,muhammad?fan,saeed?anwar,muhammadsajjad,?ali?sharig?imran,?and?victor?hugo?c.de?albuquerque,?“l(fā)ight-dehazenet:a?novel?lightweight?cnn?architecture?forsingle?image?dehazing,,leeetransactions?on?image?processing,?vol.30,pp.8968-8982,2021.
17、[4]?yizhu?jin,?jiaxing?chen,?feng?tian,?and?kun?hu,?“l(fā)fd-net:lightweightfeature-interaction?dehazing?network?for?real-time?remote?sensingtasks,?ieee?journal?of?selected?topics?in?applied?earth?observationsandremote?sensing,?vol.?16,?pp.9139-9153,?2023.
18、[5]?kaiming?he,?jian?sun,?and?xiaoou?tang,?“single?image?haze?removalusing?dark?channel?prior,”?ieee?transactions?on?pattern?analysis?and?machineintelligence,?vol.?33,?no.?12,?pp.?2341–2353,?2011.
19、[6]?bolun?cai,?xiangmin?xu,?kui?jia,?chunmei?qing,?and?dacheng?tao,“dehazenet:?an?end-to-end?system?for?single?image?haze?removal,”?ieeetransactions?on?image?processing,?vol.?25,?no.?11,?pp.?5187–?5198,?2016.
20、[7]?shiyu?zhao,?lin?zhang,?ying?shen,?and?yicong?zhou,?“refinednet:?aweakly?supervised?refinement?framework?for?single?image?dehazing,”?ieeetransactions?on?image?processing,?vol.?30,?pp.?3391–3404,?2021.
21、[8]?zeyuan?chen,?yangchao?wang,?yang?yang,?and?dong?liu,?“psd:principled?synthetic-to-real?dehazing?guided?by?physical?priors,”?inproceedings?of?the?ieee/cvf?conference?on?computer?vision?and?patternrecognition?(cvpr),?june?2021,?pp.?7180–7189.
22、[9]?jinshan?pan,?jiangxin?dong,?yang?liu,?jiawei?zhang,?jimmy?ren,jinhui?tang,?yu-wing?tai,?and?ming-hsuan?yang,?“physics-based?generativeadversarial?models?for?image?restoration?and?beyond,”?ieee?transactions?onpattern?analysis?and?machine?intelligence,?vol.?43,?no.?7,?pp.?2449–2462,2021.
23、[10]?yudong?liang,?bin?wang,?wangmeng?zuo,?jiaying?liu,?and?wenqiren,?“self-supervised?learning?and?adaptation?for?single?image?dehazing,”?072022,?pp.?1112–1118.
24、[11]?xudong?wang,?xi’ai?chen,?weihong?ren,?zhi?han,?huijie?fan,yandong?tang,?and?lianqing?liu,?“compensation?atmospheric?scattering?modeland?two-branch?network?for?single?image?dehazing,”?ieee?transactions?onemerging?topics?in?computational?intelligence,?vol.?8,?no.?4,?pp.?2880–2896,2024.
25、[12]?boyi?li,?wengi?ren,?dengpan?fu,?dacheng?tao,?dan?feng,?wenjunzeng,and?zhangyang?wang,“benchmarking?single-image?dehazing?and?beyond,,leeetransactions?on?image?processing,?vol.?28,?no.?1,?pp.492-505,2019.
技術(shù)實(shí)現(xiàn)思路
1、針對(duì)現(xiàn)有技術(shù)的不足,本發(fā)明提供了一種基于飽和度快速深度學(xué)習(xí)圖像去霧方法,解決了現(xiàn)有圖像去霧方法在霧氣特征適應(yīng)性、去霧效果準(zhǔn)確性、計(jì)算速度等方面的不足。
2、為實(shí)現(xiàn)以上目的,本發(fā)明通過(guò)以下技術(shù)方案予以實(shí)現(xiàn):一種基于飽和度快速深度學(xué)習(xí)圖像去霧方法,包括以下步驟:
3、計(jì)算輸入霧圖的強(qiáng)度信息和飽和度信息;
4、將霧圖和其對(duì)應(yīng)的飽和度信息拼接,作為深度學(xué)習(xí)網(wǎng)絡(luò)的輸入;
5、通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)估計(jì)飽和度校正變量;
6、利用所述飽和度校正變量、大氣光值和霧圖,通過(guò)復(fù)原公式生成去霧后的圖像。
7、優(yōu)選的,所述計(jì)算輸入霧圖的強(qiáng)度信息和飽和度信息的步驟包括:
8、根據(jù)輸入霧圖的rgb三通道像素值,計(jì)算強(qiáng)度信息;
9、基于所述強(qiáng)度信息和rgb三通道像素值的最小值,計(jì)算飽和度信息。
10、優(yōu)選的,將霧圖與其飽和度信息拼接后輸入的所述深度學(xué)習(xí)網(wǎng)絡(luò)包括:
11、初始特征提取模塊,使用卷積層提取初始特征圖;
12、特征提取部分卷積模塊,用于通過(guò)部分通道卷積和拉普拉斯卷積提取高頻特征,并降低計(jì)算復(fù)雜度;
13、交叉注意力模塊,用于計(jì)算通道注意力和空間注意力,增強(qiáng)關(guān)鍵區(qū)域特征表達(dá)。
14、優(yōu)選的,所述特征提取部分卷積模塊包括:
15、將輸入特征圖按通道劃分為三部分,其中一部分進(jìn)行3×3卷積,另一部分進(jìn)行拉普拉斯卷積以提取高頻信息,其余部分直接復(fù)制;
16、將經(jīng)過(guò)不同處理的特征圖拼接形成輸出特征圖。
17、優(yōu)選的,所述特征提取部分卷積模塊采用動(dòng)態(tài)通道分割策略,以?xún)?yōu)化特征提取過(guò)程。
18、優(yōu)選的,所述交叉注意力模塊包括:
19、將輸入特征圖分為通道注意力部分和空間注意力部分;
20、通過(guò)通道注意力機(jī)制生成通道注意力圖,并與通道特征相乘;
21、通過(guò)空間注意力機(jī)制生成空間注意力圖,并與空間特征相乘;
22、將經(jīng)過(guò)注意力機(jī)制處理后的特征圖拼接輸出。
23、優(yōu)選的,所述交叉注意力模塊替換為多頭注意力機(jī)制或自注意力機(jī)制,用于捕獲特征圖中的長(zhǎng)距離依賴(lài)。
24、優(yōu)選的,所述通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)估計(jì)飽和度校正變量的步驟包括:
25、使用深度學(xué)習(xí)網(wǎng)絡(luò)估計(jì)飽和度校正變量,其定義為:
26、
27、其中,為輸入霧圖在位置的強(qiáng)度,為輸入霧圖在位置的飽和度,為無(wú)霧圖在位置的飽和度,由深度學(xué)習(xí)網(wǎng)絡(luò)通過(guò)訓(xùn)練過(guò)程估計(jì)得到。
28、優(yōu)選的,所述復(fù)原公式用于根據(jù)校正變量和大氣光值生成去霧圖像,具體為:
29、
30、其中,為輸入霧圖的像素值,為根據(jù)深度學(xué)習(xí)網(wǎng)絡(luò)估計(jì)的飽和度校正變量,為大氣光值,用于模擬環(huán)境光照對(duì)圖像的影響。
31、本發(fā)明還提供一種基于飽和度快速深度學(xué)習(xí)圖像去霧的裝置,包括:
32、飽和度計(jì)算模塊,用于計(jì)算輸入霧圖的強(qiáng)度信息和飽和度信息;
33、深度學(xué)習(xí)網(wǎng)絡(luò)模塊,用于接收霧圖及其飽和度信息,估計(jì)飽和度校正變量;
34、圖像復(fù)原模塊,用于根據(jù)飽和度校正變量、大氣光值和輸入霧圖,通過(guò)復(fù)原公式生成去霧后的圖像。
35、本發(fā)明提供了一種基于飽和度快速深度學(xué)習(xí)圖像去霧方法。具備以下有益效果:
36、1、本發(fā)明通過(guò)結(jié)合深度學(xué)習(xí)技術(shù)與飽和度信息,能夠根據(jù)不同霧霾強(qiáng)度自適應(yīng)調(diào)整飽和度校正變量,從而提高去霧效果的準(zhǔn)確性。該方法能夠在復(fù)雜場(chǎng)景下恢復(fù)更多的圖像細(xì)節(jié),避免過(guò)度去霧或失真。通過(guò)精準(zhǔn)的飽和度校正,圖像的顏色和亮度得到有效恢復(fù),視覺(jué)效果更加自然。
37、2、本發(fā)明通過(guò)特征提取部分卷積模塊(fepc)和交叉注意力模塊(scab)的優(yōu)化,在保持高質(zhì)量去霧效果的同時(shí),顯著提升了計(jì)算效率。與傳統(tǒng)去霧方法相比,本發(fā)明在處理速度上表現(xiàn)優(yōu)異,尤其適合實(shí)時(shí)應(yīng)用場(chǎng)景。該方法能夠在大多數(shù)實(shí)際應(yīng)用中實(shí)現(xiàn)快速響應(yīng),滿足對(duì)計(jì)算速度和處理效率的高要求。
38、3、本發(fā)明采用基于飽和度的特征提取與深度學(xué)習(xí)估計(jì),能夠自適應(yīng)處理不同強(qiáng)度和種類(lèi)的霧霾。通過(guò)網(wǎng)絡(luò)對(duì)圖像的動(dòng)態(tài)調(diào)整,本方法能夠在不同的霧霾環(huán)境下保持高效的去霧效果。無(wú)論是在戶(hù)外復(fù)雜場(chǎng)景還是合成的測(cè)試數(shù)據(jù)上,均表現(xiàn)出較強(qiáng)的魯棒性和靈活性。
39、4、本發(fā)明通過(guò)創(chuàng)新的去霧框架,能夠有效恢復(fù)圖像中的高頻細(xì)節(jié)和結(jié)構(gòu)信息。該方法不僅提高了圖像的峰值信噪比(psnr)和結(jié)構(gòu)相似度(ssim),還降低了圖像的感知相似度(lpips),從而更好地還原原始圖像的細(xì)節(jié)。去霧后的圖像質(zhì)量在視覺(jué)上更接近無(wú)霧場(chǎng)景,增強(qiáng)了圖像的清晰度和真實(shí)感。