本發(fā)明涉及圖像數(shù)據(jù)重建,尤其涉及一種基于深度學習的生存曲線圖像數(shù)據(jù)重建方法。
背景技術(shù):
1、隨著深度學習和人工智能技術(shù)的快速發(fā)展,數(shù)據(jù)重建技術(shù)在醫(yī)學、生物統(tǒng)計學領(lǐng)域得到了廣泛應用,生存曲線作為醫(yī)學統(tǒng)計和生物學研究的重要工具,用于描述事件隨時間變化的發(fā)生概率,例如患者的生存率或疾病復發(fā)率,然而,受限于數(shù)據(jù)采集設備的能力以及環(huán)境因素的干擾,生存曲線圖像數(shù)據(jù)的完整性和質(zhì)量往往難以保障,這對相關(guān)領(lǐng)域的研究和臨床應用帶來了諸多挑戰(zhàn)。
2、目前,針對生存曲線圖像數(shù)據(jù)的重建與優(yōu)化,傳統(tǒng)方法主要依賴于插值算法或統(tǒng)計建模技術(shù),通過線性插值法在缺失點之間進行簡單的線性擬合來填補數(shù)據(jù),統(tǒng)計建模方法則基于一定的數(shù)學模型對數(shù)據(jù)進行擬合,然而,傳統(tǒng)方法在實際應用中存在明顯的局限性,首先線性插值法過于簡單,僅能適用于數(shù)據(jù)變化趨勢較為線性的場景,無法準確還原生存曲線中可能存在的復雜非線性特征;其次,統(tǒng)計建模方法雖然能夠處理一定程度的非線性問題,但對模型假設的依賴較強,當數(shù)據(jù)缺失較多或質(zhì)量較差時,往往難以生成符合實際的生存曲線。
3、近年來,基于深度學習的圖像重建技術(shù)逐漸興起,并展現(xiàn)出強大的數(shù)據(jù)非線性建模和特征提取能力,一些研究嘗試利用卷積神經(jīng)網(wǎng)絡或生成對抗網(wǎng)絡對生存曲線圖像數(shù)據(jù)進行重建,但這些方法在實際應用中依然存在以下問題:一方面,現(xiàn)有深度學習模型對超參數(shù)設置和權(quán)重初始化的依賴較大,當輸入數(shù)據(jù)具有高噪聲或嚴重缺失時,模型容易陷入局部最優(yōu);另一方面,現(xiàn)有方法往往忽略了醫(yī)學統(tǒng)計中生存曲線的統(tǒng)計特征和結(jié)構(gòu)一致性要求,導致重建結(jié)果的可信度不足。此外,目前的深度學習模型訓練過程計算成本較高,難以滿足實際應用中對高效性的需求。
4、綜上所述,現(xiàn)有技術(shù)在處理生存曲線圖像數(shù)據(jù)時,面臨著重建精度低、適應性差和計算成本高問題,無法有效滿足醫(yī)學統(tǒng)計和臨床研究中對生存曲線數(shù)據(jù)高質(zhì)量重建的需求,因此,亟需一種基于深度學習的改進方法,能夠針對生存曲線圖像數(shù)據(jù)的特性,結(jié)合優(yōu)化算法提升重建精度,同時提高模型的效率與魯棒性,從而克服現(xiàn)有技術(shù)的缺陷,滿足實際應用的需求。
技術(shù)實現(xiàn)思路
1、本發(fā)明的一個目的在于提出一種基于深度學習的生存曲線圖像數(shù)據(jù)重建方法,本發(fā)明有效避免了特征丟失和過擬合問題,顯著提高了重建精度,確保了生成的生存曲線圖像數(shù)據(jù)在像素級和結(jié)構(gòu)級的一致性。
2、根據(jù)本發(fā)明實施例的一種基于深度學習的生存曲線圖像數(shù)據(jù)重建方法,所述方法包括以下步驟:
3、s1、獲取待重建的生存曲線圖像數(shù)據(jù);
4、s2、對所述待重建的生存曲線圖像數(shù)據(jù)進行標準化處理、去噪處理和分塊處理;
5、s3、構(gòu)建改進深度學習網(wǎng)絡模型,;
6、s4、基于蜘蛛蜂優(yōu)化算法對深度學習網(wǎng)絡模型的超參數(shù)和網(wǎng)絡權(quán)重進行優(yōu)化;
7、s5、將待重建的生存曲線圖像數(shù)據(jù)輸入訓練完成的深度學習網(wǎng)絡模型,生成重建的生存曲線圖像數(shù)據(jù)。
8、可選的,所述s1具體包括:
9、s11、通過數(shù)據(jù)庫中獲取生存曲線圖像數(shù)據(jù)d,所述生存曲線圖像數(shù)據(jù)用于描述事件隨時間變化的發(fā)生概率,所述生存曲線圖像數(shù)據(jù)d包括完整生存曲線圖像數(shù)據(jù)、不完整生存曲線圖像數(shù)據(jù)或受損生存曲線圖像數(shù)據(jù),其中:
10、完整生存曲線圖像數(shù)據(jù)dc表示數(shù)據(jù)采集過程中未丟失或未受損的生存曲線圖像數(shù)據(jù);
11、不完整生存曲線圖像數(shù)據(jù)di表示采集過程中因數(shù)據(jù)丟失而存在部分時間點或事件概率缺失的生存曲線圖像數(shù)據(jù);
12、受損生存曲線圖像數(shù)據(jù)dd表示因噪聲干擾、采集設備限制或存儲錯誤導致圖像部分區(qū)域失真或模糊的生存曲線圖像數(shù)據(jù);
13、s12、對生存曲線圖像數(shù)據(jù)中的時間范圍和事件概率范圍進行檢查:
14、定義時間范圍t={t1,t2,...,tn},其中t1和tn分別為生存曲線圖像數(shù)據(jù)的起始時間和終止時間;
15、定義事件概率范圍p(t)∈[0,1],其中p(t)為時間點t對應的事件發(fā)生概率;
16、s13、對不完整生存曲線圖像數(shù)據(jù)di和受損生存曲線圖像數(shù)據(jù)dd的異常點進行標記,生成異常點集合e={e1,e2,...,em},其中em表示異常點在時間軸上的位置,時間軸范圍為t;
17、s15、將標注后的完整生存曲線圖像數(shù)據(jù)、不完整生存曲線圖像數(shù)據(jù)和受損生存曲線圖像數(shù)據(jù)以及異常點集合e,組成生存曲線圖像數(shù)據(jù)集:
18、d'=(d,e)。
19、可選的,所述s2具體包括:
20、s21、對待重建的生存曲線圖像數(shù)據(jù)d'進行標準化處理,定義時間軸范圍,將所有生存曲線圖像數(shù)據(jù)的時間范圍歸一化為標準時間區(qū)間;
21、s22、對生存曲線圖像數(shù)據(jù)d'中的噪聲進行去噪處理,利用中值濾波方法對生存曲線圖像中的局部噪聲進行平滑處理,對于全局噪聲,采用小波變換分解信號s分解為近似分量a和細節(jié)分量d,對細節(jié)分量d應用軟閾值函數(shù)進行處理;
22、s23、對去噪后的生存曲線圖像數(shù)據(jù)d”進行分塊處理,將時間軸范圍t'均勻劃分為k個子區(qū)間tk,每個子區(qū)間定義為:
23、tk={t′j∣t′k-1≤t′j<t′k},k∈{1,2,...,k};
24、其中,t′k表示子區(qū)間的邊界值;
25、將對應子區(qū)間tk的事件概率值p(tk)作為分塊后的特征子集,并生成分塊后的生存曲線數(shù)據(jù)集合:
26、db={(tk,p(tk))∣k∈{1,2,...,k}}。
27、可選的,所述s3具體包括:
28、s31、搭建改進深度學習網(wǎng)絡模型,改進深度學習網(wǎng)絡模型包括輸入層、并行多尺度特征提取網(wǎng)絡、交叉注意力機制模塊、殘差式重建網(wǎng)絡以及輸出層;
29、s32、將處理后的生存曲線圖像數(shù)據(jù)集合db輸入到所述輸入層,輸入層接收并規(guī)范化數(shù)據(jù)維度,將生存曲線圖像數(shù)據(jù)集合db分配至并行多尺度特征提取網(wǎng)絡的多個分支;
30、s33、在并行多尺度特特征提取網(wǎng)絡中采用多組卷積層對不同尺度的生存曲線圖像數(shù)據(jù)進行特征提取,令第m個分支提取得到的特征圖為:
31、fm=σ(wm*db,m+bm);
32、其中,db,m為輸入層分配至第m個分支的生存曲線圖像數(shù)據(jù),wm和bm分別表示第m個分支卷積層的權(quán)重與偏置,σ為激活函數(shù),m∈{1,2,...,m}表示并行分支編號;
33、將多個分支提取的特征圖通過級聯(lián)或加和方式融合得到多尺度融合特征fms;
34、s34、在所述交叉注意力機制模塊中,對所述多尺度融合特征fms進行通道和空間維度的綜合加權(quán),計算通道注意力權(quán)重αc,通道特征值為hc,通道數(shù)目為c,則:
35、
36、計算空間注意力圖β(x,y),令f(x,y)為位置(x,y)對應的特征值,空間注意力權(quán)重為:
37、
38、其中,u表示特征圖的所有像素位置,將通道注意力權(quán)重和空間注意力權(quán)重共同作用于多尺度融合特征fms得到加權(quán)特征fca;
39、s35、在所述殘差式重建網(wǎng)絡中對所述加權(quán)特征fca進行反卷積操作與跳躍連接相結(jié)合的重建處理,重建過程中在每一層保留輸入與輸出的殘差信號,第r層反卷積的輸出為:
40、
41、其中,rr-1為前一層的輸出特征圖,sr-1為前一層的跳躍連接特征,用于保留局部生存曲線圖像數(shù)據(jù)細節(jié),和分別表示第r層的反卷積權(quán)重和偏置;
42、將最終一層的輸出作為重建的生存曲線圖像數(shù)據(jù)r;
43、s36、將殘差式重建網(wǎng)絡輸出的生存曲線圖像數(shù)據(jù)r輸入到輸出層,輸出層對重建結(jié)果進行維度或格式上的規(guī)范處理,得到最終的重建生存曲線圖像數(shù)據(jù)。
44、可選的,所述s4具體包括:
45、s41、初始化蜘蛛種群,設定種群大小為n,每個蜘蛛個體表示深度學習網(wǎng)絡模型的一個超參數(shù)組合或網(wǎng)絡權(quán)重組合,第i個個體的初始狀態(tài)為:
46、xi={p1,p2,...,pm};
47、其中,xi表示第i個個體的參數(shù)組合,pj表示深度學習網(wǎng)絡的第j個超參數(shù)或權(quán)重,m為參數(shù)總數(shù);
48、s42、定義適應度函數(shù),適應度函數(shù)基于生成的重建的生存曲線圖像數(shù)據(jù)的重建誤差進行評價,適應度值f(xi)計算為:
49、f(xi)=α·lmse+β·lssim;
50、其中,f(xi)為第i個個體的適應度值,適應度值越小表示個體優(yōu)化效果越優(yōu),lmse為重建的生存曲線圖像數(shù)據(jù)與真實生存曲線圖像數(shù)據(jù)的像素級均方誤差,lssim為重建的生存曲線圖像數(shù)據(jù)與真實生存曲線圖像數(shù)據(jù)的結(jié)構(gòu)相似性度量,α和β為權(quán)重系數(shù);
51、s43、基于局部鄰域信息優(yōu)化蜘蛛個體的位置計算第i個個體與鄰域個體的交互影響力:
52、
53、其中,和分別為第i個個體在t輪和t+1輪中的位置,ni為第i個個體的鄰域集合,wk為鄰域個體k的權(quán)重,表示其對i個體的影響程度,λ1為步長因子,用于控制更新幅度;
54、s44、進行全局搜索權(quán)重參數(shù),通過模擬蛛網(wǎng)信息傳播行為,隨機選擇部分個體向全局最優(yōu)位置靠近:
55、
56、其中,為當前迭代中適應度值最低的個體位置,γ為全局搜索因子,用于控制全局探索步長;
57、s45、迭代更新適應度函數(shù)值,迭代終止條件為達到最大迭代次數(shù)t或適應度函數(shù)收斂至設定閾值,最終輸出全局最優(yōu)參數(shù)組合:
58、
59、其中,xopt表示優(yōu)化后的深度學習網(wǎng)絡模型的超參數(shù)和網(wǎng)絡權(quán)重組合。
60、可選的,所述s42具體包括:
61、s421、lmse表示均方誤差,用于衡量重建的生存曲線圖像數(shù)據(jù)與真實生存曲線圖像數(shù)據(jù)在像素級的平均差異:
62、
63、其中,yj為真實生存曲線圖像數(shù)據(jù)中第j個像素點的值,為重建的生存曲線圖像數(shù)據(jù)中第j個像素點的值,n為像素點總數(shù);
64、s422、lssim表示結(jié)構(gòu)相似性指數(shù),用于評估重建的生存曲線圖像數(shù)據(jù)在視覺結(jié)構(gòu)上的一致性:
65、
66、其中,表示真實數(shù)據(jù)y與重建數(shù)據(jù)的結(jié)構(gòu)相似性指數(shù):
67、
68、其中,μy和分別為y和的均值,和分別為y和的方差,為y和的協(xié)方差,c1和c2為常量,用于避免分母為零;
69、s423、根據(jù)優(yōu)化后的深度學習網(wǎng)絡模型生成的重建生存曲線圖像數(shù)據(jù)r,計算其與真實生存曲線圖像數(shù)據(jù)y的適應度值f(xi),綜合反映重建數(shù)據(jù)的像素精度和視覺結(jié)構(gòu)一致性;
70、s424、通過調(diào)整權(quán)重系數(shù)α和β控制適應度函數(shù)對均方誤差lmse和結(jié)構(gòu)相似性lssim的敏感性,用于適應不同應用場景的優(yōu)化需求。
71、可選的,所述s5具體包括:
72、s51、將待重建的生存曲線圖像數(shù)據(jù)集合db輸入到優(yōu)化的深度學習網(wǎng)絡模型;
73、s52、在并行多尺度特征提取網(wǎng)絡中,基于卷積操作提取輸入生存曲線圖像數(shù)據(jù)的多尺度特征,生成融合的多尺度特征圖fms,并通過交叉注意力機制模塊對多尺度特征圖fms進行加權(quán)處理,生成優(yōu)化后的多尺度特征圖fca;
74、s53、將優(yōu)化后的多尺度特征圖fca輸入到殘差式重建網(wǎng)絡,重建網(wǎng)絡通過多層反卷積操作與跳躍連接相結(jié)合,生成重建的生存曲線圖像數(shù)據(jù)r;
75、s54、輸出層對最后一層的重建結(jié)果進行處理,生成最終的重建生存曲線圖像數(shù)據(jù)rfinal,并將最終的重建生存曲線圖像數(shù)據(jù)rfinal輸出作為深度學習網(wǎng)絡的重建結(jié)果;
76、s55、將生成的重建生存曲線圖像數(shù)據(jù)rfinal與適應度函數(shù)評價標準對比,驗證的重建效果,使重建生存曲線圖像數(shù)據(jù)滿足像素級精度和結(jié)構(gòu)相似性的一致性要求。
77、本發(fā)明的有益效果是:
78、(1)本發(fā)明采用了改進深度學習網(wǎng)絡模型,構(gòu)建了并行多尺度特征提取網(wǎng)絡、交叉注意力機制模塊和殘差式重建網(wǎng)絡,并行多尺度特征提取網(wǎng)絡通過卷積操作提取不同尺度的特征,實現(xiàn)了對生存曲線圖像復雜結(jié)構(gòu)特征的全面捕捉,交叉注意力機制模塊通過在通道和空間維度動態(tài)加權(quán)提高了網(wǎng)絡對生存曲線關(guān)鍵區(qū)域的關(guān)注度,殘差式重建網(wǎng)絡則結(jié)合跳躍連接機制保留了生存曲線圖像中的細節(jié)特征,有效避免了特征丟失和過擬合問題,顯著提高了重建精度,確保了生成的生存曲線圖像數(shù)據(jù)在像素級和結(jié)構(gòu)級的一致性。
79、(2)本發(fā)明通過蜘蛛蜂優(yōu)化算法對深度學習網(wǎng)絡模型的超參數(shù)和權(quán)重進行全局優(yōu)化,蜘蛛蜂算法利用局部鄰域優(yōu)化和全局搜索策略,有效解決了深度學習模型在面對高噪聲數(shù)據(jù)或數(shù)據(jù)缺失時容易陷入局部最優(yōu)的問題,適應度函數(shù)結(jié)合了均方誤差和結(jié)構(gòu)相似性指標,綜合評估重建結(jié)果的像素精度和視覺一致性,確保了優(yōu)化結(jié)果的可靠性,實驗結(jié)果表明,本發(fā)明的優(yōu)化算法使網(wǎng)絡模型對不同數(shù)據(jù)質(zhì)量具有更高的適應性,在生存曲線圖像數(shù)據(jù)重建中表現(xiàn)出更強的魯棒性。
80、(3)本發(fā)明實現(xiàn)了從生存曲線圖像數(shù)據(jù)的預處理、網(wǎng)絡訓練到重建輸出的全流程自動化處理,避免了傳統(tǒng)方法中對參數(shù)調(diào)節(jié)和模型調(diào)整的大量人工干預,通過蜘蛛蜂優(yōu)化算法的高效搜索機制顯著減少了深度學習網(wǎng)絡訓練所需的迭代次數(shù),優(yōu)化后的模型不僅提升了計算效率,還降低了對硬件資源的依賴,在大規(guī)模生存曲線圖像數(shù)據(jù)的重建任務中表現(xiàn)出更高的效率,能夠滿足實際應用對數(shù)據(jù)處理的時效性需求。