本發(fā)明涉及水電機組螺栓應力測算,具體涉及一種水電機組螺栓服役應力云圖反演優(yōu)化算法。
背景技術:
1、在水電機組裝備的故障診斷,已有技術主要集中在結構力學和材料工程,以及螺栓的應力分析。以下是目前應對水電機組螺栓故障診斷的現(xiàn)有技術方案特點:
2、(1)在結構力學和材料工程方面,現(xiàn)有技術主要通過結構力學和材料工程的原理,對水電機組螺栓結構進行建模和分析;側重于結構的靜態(tài)分析,考慮材料的強度和剛度等基本力學性質。
3、(2)在螺栓的應力分析方面,對螺栓的應力分析主要基于靜力學原理,關注螺栓在受力條件下的應力狀態(tài);針對螺栓的材料和幾何形狀,計算受力狀態(tài)下的應力分布。
4、(3)在有限元仿真技術方面:常用技術方案采用有限元仿真技術,但通常在建模時存在簡化,可能無法準確反映實際工作環(huán)境。有限元仿真在考慮整體結構的同時,對于局部區(qū)域的精細建模有一定難度。
5、(4)在數(shù)字孿生技術方面:多數(shù)現(xiàn)有技術未充分應用數(shù)字孿生技術,缺乏對實際運行環(huán)境的準確數(shù)字模擬,未能全面考慮實際運行數(shù)據(jù)對結構和螺栓應力的影響。
技術實現(xiàn)思路
1、本發(fā)明旨在提供一種水電機組螺栓服役應力云圖反演優(yōu)化算法,通過對水電機組螺栓有限元仿真模型的設計,精準刻畫部件實際運行狀態(tài);通過對有限元仿真數(shù)據(jù)及實際測量數(shù)據(jù)的清洗,獲得高質量數(shù)據(jù),用于預測模型的訓練與測試;構建內嵌物理知識神經網絡以實現(xiàn)有限元輸入參數(shù)優(yōu)化和三維流場的快速重構;利用有限元評價指標構建系統(tǒng)的評價者網絡與基于梯度下降迭代更新的參與者網絡,實現(xiàn)內嵌物理知識神經網絡參數(shù)更新及水電機組部件模型有限元仿真輸入參數(shù)的迭代優(yōu)化。
2、為了實現(xiàn)上述發(fā)明目的,本發(fā)明的技術方案如下:
3、一種水電機組螺栓服役應力云圖反演優(yōu)化算法,包括如下步驟:
4、s1:有限元仿真模型構建,包括如下步驟:
5、s1.1:確定部件基本結構:
6、將水電機組分解成流體計算域和結構計算域,采用三維建模軟件對水電機組流體計算域及頂蓋螺栓結構計算域進行三維建模;
7、流體計算域包括蝸殼、固定導葉及活動導葉區(qū)、轉輪區(qū)和尾水管;結構計算域包括外頂蓋法蘭、內頂蓋以及螺栓。
8、s1.2:有限元仿真模型建立與計算:將步驟s1.1中流體計算域及頂蓋螺栓結構計算域的三維模型進行網格劃分后建立有限元仿真模型,在有限元仿真模型中設定各部件的接觸約束和流體計算域的邊界條件,并將多組不同工況載荷輸入有限元仿真模型中,建立水電機組有限元仿真模型,開展流固體耦合仿真計算得到不同工況載荷下的物理場仿真數(shù)據(jù)。
9、所述網格劃分為采用非結構四面體網格對水電機組全流道進行網格劃分,對頂蓋過流面區(qū)域、葉輪和導葉的網格進行加密。
10、流體計算域的邊界條件包括蝸殼進口(采用壓力進口邊界條件,給定水電機組的總工作水頭)、壁面(采用無滑移壁面邊界條件)、尾水管出口(采用質量流量邊界條件)、轉輪區(qū)(由于轉輪是旋轉部件,該區(qū)域采用旋轉參考坐標系方法,給定轉輪的轉速值,在動靜交界處使用凍結轉子)。
11、接觸約束為內頂蓋法蘭和外頂蓋法蘭之間的水平接觸、螺栓頭與內頂蓋法蘭之間的水平接觸和螺栓底部螺紋與內頂蓋螺紋孔之間的接觸。
12、不同工況載荷包括:多組不同載荷位置、不同載荷強度和不同載荷施加方式的工況荷載。
13、流固體耦合仿真計算包括,根據(jù)重力加速度施加水輪機的重力載荷,施加螺栓的預緊載荷并對螺栓預緊力進行鎖緊,對頂蓋和水導軸承座施加水壓力,即外部流體計算的水壓力載荷通過流固耦合面?zhèn)鬟f到頂蓋和水導軸承座上,根據(jù)工況載荷情況及邊界條件,通過流固耦合仿真對流固耦合方程進行求解,得到不同工況下的物理場仿真數(shù)據(jù)。
14、有限元仿真模型建立還包括網格無關性驗證,網格無關性驗證在現(xiàn)有有限元仿真模型的基礎上,增加網格數(shù)量;當隨著網格數(shù)量的增加,物理場的變化不超過5%時,驗證完成;當隨著網格數(shù)量增加,物理場的變化超過5%時,繼續(xù)增加網格數(shù)量進行無關性驗證,直至驗證完成。
15、s2:對步驟s1.2中得到的物理場仿真數(shù)據(jù)和現(xiàn)場測量數(shù)據(jù)進行數(shù)據(jù)清洗,得到物理場數(shù)據(jù)集;
16、數(shù)據(jù)清洗包括如下步驟:
17、s2.1:處理缺失值:檢測物理場仿真數(shù)據(jù)和現(xiàn)場測量數(shù)據(jù)中的缺失值,并采用填充缺失值或刪除包含缺失值的行或列的方法處理缺失值。
18、s2.2:處理異常值:檢測物理場仿真數(shù)據(jù)和現(xiàn)場測量數(shù)據(jù)中的異常值,并采用包括替代值、刪除、規(guī)范化數(shù)據(jù)和校驗數(shù)據(jù)方法處理異常值。
19、s2.3:轉換數(shù)據(jù)類型:根據(jù)分析目標或建模需求,確定每個字段需要的數(shù)據(jù)類型,并據(jù)此調整物理場仿真數(shù)據(jù)和現(xiàn)場測量數(shù)據(jù)的類型,包括數(shù)值型、類別型等數(shù)據(jù)的轉換。
20、s2.4:標準化數(shù)據(jù):對物理場仿真數(shù)據(jù)和現(xiàn)場測量數(shù)據(jù)進行標準化,使每組數(shù)據(jù)具有相同的維度和分布,與強化學習算法的輸入維度相匹配,并得到物理場數(shù)據(jù)集;以便于接下來的服役應力云圖反演優(yōu)化算法構建。
21、s3:利用步驟s2中得到的物理場數(shù)據(jù)集建立水電機組螺栓強化學習應力云圖反演模型,并對水電機組螺栓強化學習應力云圖反演模型進行迭代更新,通過在實際工況與有限元仿真的運行結果與反演結果進行對比來驗證有限元應力云圖反演的效果;
22、所述建立水電機組螺栓強化學習應力云圖反演模型,包括:將步驟s2中得到的物理場數(shù)據(jù)集構建馬爾科夫決策鏈模型,建立強化學習模型,應用強化學習模型求解馬爾科夫決策鏈模型,強化學習模型與馬爾科夫決策鏈模型相耦合得到水電機組螺栓強化學習應力云圖反演模型;
23、將物理場數(shù)據(jù)集的有限元輸入參數(shù)作為水電機組螺栓強化學習應力云圖反演模型的輸入,反演出水電機組螺栓應力云圖,所述水電機組螺栓應力云圖為有限元仿真模型在網格劃分后的每個網格點的應力值,其中應力云圖的邊界的應力值為邊界應力值;
24、馬爾科夫決策鏈模型包括狀態(tài) s t、動作a t、馬爾科夫決策鏈模型反饋 r( s t);
25、其中狀態(tài) s t為馬爾科夫決策鏈模型初始化決定的應力反演結果,在每次動作a t后的應力反演結果為 s t+1,動作a t為每次改變應力大小的步長,用來改變每個迭代循環(huán)的狀態(tài) s t;
26、通過navier-stokes方程,利用固壁邊界條件,即流體在固體邊界處的速度為零的條件,通過水電機組中的流體物理參數(shù)計算得到理論物理場的應力邊界值;navier-stokes方程的一般形式為:
27、
28、其中,ρ是流體的密度,v是速度場,p是壓力場,μ是流體的粘性系數(shù),f是外部力,如重力;
29、對于水電機組螺栓,設立固壁邊界條件,設置邊界處的速度為零,求解該方程,得到當前狀態(tài) s t的應力邊界值;
30、馬爾科夫決策鏈模型反饋為當前狀態(tài)st的應力值與物理場數(shù)據(jù)集的應力值的均方誤差,加上計算出的理論應力云圖邊界值和應力云圖反演模型反演出的邊界應力值之差的和,用來衡量當前預測應力也就是狀態(tài)st與真實數(shù)據(jù)集的差值;其中,每個周期馬爾科夫決策鏈模型狀態(tài)的迭代公式如下:
31、。
32、所述強化學習模型包括策略網絡i(參與者)和價值網絡i(評價者);
33、所述策略網絡i負責產生決策,即做出有限元輸入參數(shù)的變化方向(變大還是變?。┑臎Q策;價值網絡i負責評估策略網絡i輸出的決策的好壞,即基于有限元仿真結果預測值與數(shù)據(jù)集中的仿真結果真實值計算誤差,誤差越小說明決策越好;
34、策略網絡i由徑向基函數(shù)神經網絡組成,包括一個輸入層、兩個隱藏層和一個輸出層,通過逐漸積累系統(tǒng)經驗生成相應的控制策略;
35、價值網絡i部分包括一個輸入層、一個隱藏層和一個輸出層,通過比較有限元仿真結果的物理場仿真數(shù)據(jù)和實際測試數(shù)據(jù)之間的差異,評估當前有限元參數(shù)決策的性能,根據(jù)誤差的變化趨勢生成獎勵(誤差變?。┗蛘邞土P(誤差變大)作為自適應學習的反饋值,同時引入長期成本函數(shù)作為評價標準;
36、策略網絡i和價值網絡i的輸入輸出維度(數(shù)據(jù)格式)根據(jù)有限元仿真的輸入參數(shù)數(shù)量以及所提取的有限元仿真物理場中節(jié)點的個數(shù)決定。
37、所述迭代更新包括:通過隨機梯度下降算法對策略網絡i進行更新,并通過貝爾曼迭代方程對馬爾科夫決策鏈模型狀態(tài)價值進行修正,并進行仿真應用與驗證,實現(xiàn)應力云圖的反演預測;
38、所述通過隨機梯度下降算法對策略網絡i進行更新包括,利用基于內嵌物理知識策略網絡i中的梯度方法,通過隨機梯度下降對策略網絡i進行更新(如何更新在下一段),并通過價值網絡i的評價確保策略網絡i生成的有限元參數(shù)能夠最大程度地提高馬爾科夫決策鏈模型評價指標;
39、所述隨機梯度下降算法用于訓練策略網絡i的目標函數(shù),衡量當前策略的表現(xiàn),并指導更新網絡參數(shù);隨機梯度下降算法由兩部分之和構成:第一部分為傳感器對應的有限元仿真結果和實際測量值之差構成的損失函數(shù),第二部分為策略網絡i預測的場邊界條件與理想邊界條件之差;預測的邊界條件為仿真結果中的流體邊界上的速度和壓力,理想邊界條件為符合前面流固耦合基本方程的流體邊界上的速度和壓力;
40、所述通過隨機梯度下降算法對策略網絡i與價值網絡i進行更新,包括:首先,目標馬爾科夫決策鏈模型隨機生成馬爾科夫決策鏈模型初始狀態(tài)或在迭代更新后的當前狀態(tài)st,基于策略網絡i初始化生成的策略π,根據(jù)當前馬爾科夫決策鏈模型狀態(tài)st來決定執(zhí)行動作a t,將動作a t與馬爾科夫決策鏈模型交互,并根據(jù)馬爾科夫決策鏈模型狀態(tài)的迭代公式轉移至新的狀態(tài)st+1,獲得馬爾科夫決策鏈模型反饋;價值網絡i通過馬爾科夫決策鏈模型反饋來估計動作的價值,的表達式為:
41、
42、其中,s為馬爾科夫決策鏈模型狀態(tài), g t為馬爾科夫決策鏈模型反饋的數(shù)學期望值;
43、通過價值函數(shù)可以計算每個狀態(tài)動作組?(st,at)的優(yōu)勢函數(shù) a π:
44、
45、并基于優(yōu)勢函數(shù)來計算策略網絡i的梯度,從而根據(jù)隨機梯度下降算法來更新策略網絡i,進而修正策略網絡i對馬爾科夫決策鏈模型狀態(tài)的價值判斷與策略制定過程;價值網絡i的迭代需要基于貝爾曼迭代方程進行馬爾科夫決策鏈模型狀態(tài)價值修正,并計算修正前與修正后的參數(shù)梯度,進行根據(jù)隨機梯度下降算法來更新價值網絡i;
46、其中,策略網絡i的梯度計算如下:
47、
48、為定義策略網絡i的網絡參數(shù),是在給定狀態(tài)st下,動作at對應的策略的對數(shù)概率;為優(yōu)勢函數(shù)。
49、價值函數(shù)的迭代公式如下:
50、
51、其中,為衰減系數(shù),為馬爾科夫決策鏈模型反饋。
52、所述仿真應用與驗證包括:所述強化學習算法在每個迭代周期與馬爾科夫決策鏈模型交互,策略網絡i基于馬爾科夫決策鏈模型的狀態(tài) s t產生決策動作at,所述決策動作at為做出有限元輸入參數(shù)的變化方向的決策;馬爾科夫決策鏈模型基于決策動作at產生反饋,并且馬爾科夫決策鏈模型狀態(tài)從 s t轉變至 s t+1;價值網絡i負責評估策略網絡i輸出的決策的好壞,所述評估為基于馬爾科夫決策鏈模型的反饋,也就是有限元仿真結果預測值與數(shù)據(jù)集中的仿真結果真實值計算之差加上基于物理公式計算出的理論應力云圖邊界值與反演的應力邊界值之差,兩個差值的和為誤差,誤差越小說明決策越好;當誤差大于5%時,繼續(xù)進行應力云圖反演優(yōu)化算法迭代;當誤差小于5%時,應力云圖反演優(yōu)化算法迭代完成。
53、s4:最優(yōu)參數(shù)搜索,包括利用步驟s3中所得水電機組螺栓強化學習應力云圖反演模型,建立水電機組螺栓強化學習工況參數(shù)搜索模型,進行最優(yōu)工況參數(shù)搜索,并驗證和可視化展示搜索結果,得到水電機組螺栓服役應力云圖反演優(yōu)化算法;
54、s4步驟包括以下步驟:
55、s4.1:利用水電機組螺栓強化學習應力云圖反演模型,構建水電機組工況參數(shù)搜索模型,包括:
56、通過歷史數(shù)據(jù)或測量獲得水電機組在不同工況下的運行環(huán)境,選擇合適的邊界類型,根據(jù)工況的測量數(shù)據(jù)或標準規(guī)范,確定每個邊界條件的數(shù)值;基于性能指標或能源效率,選定優(yōu)化任務中的目標函數(shù),將仿真結果中的應力指標映射到該目標函數(shù)上,以確保目標函數(shù)能夠真實反映設備部件的應力狀態(tài),并與實際運行情況緊密相關;基于實際情況設定環(huán)境中各動作變量的范圍和水壓力分布的約束條件,構建得到水電機組工況參數(shù)搜索模型;
57、邊界類型包括固定邊界條件和對稱邊界條件。
58、s4.2:在步驟s4.1中所得水電機組工況參數(shù)搜索模型中通過最大熵強化學習算法構建工況參數(shù)搜索模型面向工況設計參數(shù)的強化學習環(huán)境,包括:
59、s4.21:構建最大熵強化學習算法,在最大熵強化學習算法中引入可調整的熵值項;
60、最大熵強化學習算法包括價值網絡ⅱ和策略網絡ⅱ,在每個迭代周期中,策略網絡ⅱ通過基于強化學習環(huán)境的狀態(tài) s t對其制定動作 a t,并從強化學習環(huán)境中獲得獎勵函數(shù),狀態(tài) s t轉移至新狀態(tài) s t+1;價值網絡ⅱ通過評估獎勵函數(shù)與策略熵之和來對當前強化學習環(huán)境的狀態(tài) s t進行價值評估;基于優(yōu)勢函數(shù)來計算策略網絡ⅱ的梯度,從而根據(jù)隨機梯度下降算法來更新策略網絡ⅱ,進而修正策略網絡ⅱ對系統(tǒng)狀態(tài)的價值判斷與策略制定過程;價值網絡ⅱ的迭代需要基于貝爾曼迭代方程進行系統(tǒng)狀態(tài)價值修正,并計算修正前與修正后的參數(shù)梯度,進行根據(jù)隨機梯度下降算法來更新價值網絡ⅱ;為定義策略網絡ⅱ的網絡參數(shù),是在給定狀態(tài) s t下,動作對應的策略的對數(shù)概率;為優(yōu)勢函數(shù);
61、s4.22:在水電機組螺栓強化學習工況參數(shù)搜索模型中,分析有限元仿真環(huán)境中的控制變量,通過將這些控制變量映射為強化學習中的動作,確定強化學習的動作空間,使策略網絡ⅱ能夠在不同工況下調整這些變量進行優(yōu)化;
62、s4.23:確定強化學習環(huán)境中的狀態(tài)空間,考慮到由動作引起的狀態(tài)變化,策略特征可定義為螺栓的應力分布情況,環(huán)境中不發(fā)生改變的固有特征為構建的三維水電機組模型的尺寸情況及流固耦合計算形式;
63、s4.24:確定環(huán)境約束條件,根據(jù)目標函數(shù)設計強化學習獎勵函數(shù);獎勵函數(shù)通過為接近最優(yōu)參數(shù)的動作提供正反饋,指導策略網絡ⅱ學習和選擇最優(yōu)的工況參數(shù),確保獎勵函數(shù)反映目標函數(shù)的優(yōu)化方向;
64、s4.3:得到最優(yōu)工況參數(shù):工況參數(shù)搜索模型在強化學習環(huán)境中,利用最大熵強化學習算法完成工況參數(shù)的在線搜索與優(yōu)化,基于最大熵強化學習進行強化學習最優(yōu)策略的迭代,并基于最優(yōu)策略搜索到最優(yōu)工況參數(shù);包括:
65、基于s4.2中建立的強化學習環(huán)境,通過最大熵強化學習算法對強化學習環(huán)境進行求解;
66、由累積獎勵和策略熵兩項組成價值函數(shù)的評估函數(shù),并通過價值函數(shù)的評估函數(shù)計算得到最優(yōu)策略,將最優(yōu)策略導入策略網絡ⅱ中輸出得到最優(yōu)工況參數(shù);
67、所述價值函數(shù)的評估函數(shù)為:
68、
69、其中,為狀態(tài)動作組在概率分布為時的期望獎勵值; s t和 a t分別為t時刻下的狀態(tài)和動作;為在狀態(tài) s t下進行動作 a t得到的獎勵值;為狀態(tài) s t時策略π的熵值;為溫度參數(shù)決定著其對不同策略的探索能力; π為控制策略; π *為最優(yōu)的控制策略。
70、s4.4:驗證搜索所得的最優(yōu)工況參數(shù),包括:
71、使用搜索所得的最優(yōu)工況參數(shù)進行有限元仿真,對比有限元仿真結果中物理場仿真數(shù)據(jù)和工況參數(shù)搜索模型輸出的物理場仿真數(shù)據(jù)的差異,驗證搜索算法的可行性和有效性;
72、利用采樣算法在最優(yōu)搜索參數(shù)附近新生成多個參數(shù)點,將搜索所得的最優(yōu)工況參數(shù)與其附近的采樣點及相應的有限元仿真數(shù)據(jù)擴充到新的訓練集中,用于強化學習應力云圖反演模型的在線迭代更新;
73、在實際設備上驗證最優(yōu)工況參數(shù),觀察和測量實際工作性能,將有限元仿真模型、應力云圖反演模型和工況參數(shù)搜索模型整合,整體的模型為數(shù)字孿生模型,將優(yōu)化前的工況參數(shù)與優(yōu)化后的工況參數(shù)分別施加于實際設備與有限元仿真模型中,觀察優(yōu)化前后的對比結果,確認數(shù)字孿生模型中所得最優(yōu)工況參數(shù)的有效性。
74、s4.5:將參數(shù)搜索結果展示,包括:
75、參數(shù)搜索和迭代過程采用圖標的形式進行可視化,包括每次迭代的時間、精度,當搜索得到的最優(yōu)參數(shù)與實際工況下的物理場重合精度達到90%以上,迭代訓練停止,得到水電機組螺栓服役應力云圖反演優(yōu)化算法。
76、所述服役應力云圖反演優(yōu)化算法還包括對步驟s1.2中的物理場模擬結果驗證與誤差分析,所述物理場模擬結果驗證與誤差分析包括:對步驟s1.2中的有限元仿真模型進行驗證,比較有限元仿真模型預測的物理場仿真數(shù)據(jù)與實際測量值之間的誤差;當誤差大于10%時,將該組有限元仿真數(shù)據(jù)暫留,并使用滿足誤差條件的有限元仿真數(shù)據(jù)建立反演優(yōu)化算法模型,并通過反演優(yōu)化算法對當前有限元仿真中的工況參數(shù)載荷進行優(yōu)化,并更新有限元仿真,直到誤差小于10%,滿足誤差條件后;將該組有限元仿真數(shù)據(jù)加入反演優(yōu)化算法模型的訓練集中;
77、現(xiàn)場測量數(shù)據(jù)包括實際環(huán)境中應力,實際環(huán)境中應力測量采用中空空心圓柱筒型受力傳感器,傳感器包括內置彈性元件、電阻應變片、溫度補償電路和轉換電路;傳感器測得實際的螺栓受到的平均應力;單個傳感器安裝于頂蓋螺栓和內頂蓋之間;現(xiàn)場試驗工況為高水頭下的機組從停機狀態(tài)到開機,改變開度到最后停機的整個啟停過程;通過實際工況下測得的螺栓應力分布,與有限元仿真結果進行比較分析;
78、實際測量值為通過中空空心圓柱筒型受力傳感器測得實際的螺栓受到的平均應力;現(xiàn)場試驗工況為高水頭下的機組從停機狀態(tài)到開機,改變開度到最后停機的整個啟停過程。
79、本發(fā)明的有益效果:
80、1.?本發(fā)明中的水電機組螺栓服役應力云圖反演優(yōu)化算法,針對水電機組的不同工況,基于有限元應力仿真結果,構建應力云圖反演模型,并基于構建的應力云圖反演模型,搜索水電機組螺栓最佳工況參數(shù)。本算法相對其他工況參數(shù)搜索算法,利用有限元仿真數(shù)據(jù)庫建立應力云圖反演模型,在搜索過程中,搜索算法不必與長時間的有限元仿真交互,而是高效率的應力云圖反演模型交互,大大提高了搜索效率,節(jié)約了算力等硬件資源與時間資源。并且在模型訓練過程中,嚴格控制模型的準確率,因此本算法的工況參數(shù)搜索結果準確可信。
81、1.?本發(fā)明中的水電機組螺栓有限元仿真模型,針對不同工況及其對應的物理場仿真數(shù)據(jù),建立發(fā)電裝備部件正常狀態(tài)的精確預測模型,以衡量多種工況下的物理場仿真數(shù)據(jù)。利用模型預測值與實際測量值之間的差異,評估預測模型的準確性,準確刻畫發(fā)電裝備部件運行狀態(tài),實現(xiàn)設備狀態(tài)模擬,為云圖反演優(yōu)化提供了仿真數(shù)據(jù)。
82、2.?本發(fā)明中的高效的數(shù)據(jù)清洗清晰和預處理方法,針對發(fā)電裝備部件的局部有限元仿真測試數(shù)據(jù)及實際測量數(shù)據(jù),研發(fā)高質量有效的數(shù)據(jù)清洗方法,以確保高質量的數(shù)據(jù)輸出,并建立高魯棒性的聯(lián)合數(shù)據(jù),用作核心算法環(huán)節(jié)的訓練與測試依據(jù)。
83、3.?本發(fā)明采用基于策略梯度優(yōu)化算法與貝爾曼迭代方程的強化學習算法,并基于內嵌物理知識對強化學習的收斂進行指導,使得馬爾科夫決策鏈模型參數(shù)自主決策更加智能和精準。強化學習算法增強了馬爾科夫決策鏈模型的學習和適應能力,對馬爾科夫決策鏈模型性能的提升具有積極作用。
84、4.?本發(fā)明中的最優(yōu)工況參數(shù)搜索算法:針對不同工況下物理場仿真數(shù)據(jù)的預測模型,采用基于智能技術的深度強化學習框架,開發(fā)最優(yōu)工況參數(shù)自動搜索算法。構建更新最優(yōu)策略的合理目標函數(shù),實現(xiàn)對發(fā)電設備部件最優(yōu)參數(shù)的合理探索,提升算法對預測模型的探索能力。