最新的毛片基地免费,国产国语一级毛片,免费国产成人高清在线电影,中天堂国产日韩欧美,中国国产aa一级毛片,国产va欧美va在线观看,成人不卡在线

一種電力需求預(yù)測(cè)方法

文檔序號(hào):41942875發(fā)布日期:2025-05-16 13:59閱讀:6來(lái)源:國(guó)知局
一種電力需求預(yù)測(cè)方法

本發(fā)明屬于電力系統(tǒng)預(yù)測(cè),具體涉及一種電力需求預(yù)測(cè)方法。


背景技術(shù):

1、電力需求預(yù)測(cè)是電力系統(tǒng)規(guī)劃、調(diào)度和運(yùn)營(yíng)的核心環(huán)節(jié)。準(zhǔn)確的預(yù)測(cè)能夠幫助電力公司優(yōu)化發(fā)電計(jì)劃、降低運(yùn)營(yíng)成本、提高電網(wǎng)穩(wěn)定性,并為可再生能源的接入提供支持。然而,電力需求受到多種復(fù)雜因素的影響,如天氣變化、經(jīng)濟(jì)發(fā)展、社會(huì)活動(dòng)等,導(dǎo)致其具有非線性、非平穩(wěn)和周期性等特點(diǎn),給準(zhǔn)確預(yù)測(cè)帶來(lái)了巨大挑戰(zhàn)。

2、傳統(tǒng)預(yù)測(cè)方法,如時(shí)間序列分析(arima)、回歸分析等,難以捕捉電力需求中的非線性特征和復(fù)雜模式。機(jī)器學(xué)習(xí)類方法,如支持向量機(jī)(svm)、神經(jīng)網(wǎng)絡(luò)、隨機(jī)森林(rf)等,雖然在一定程度上能夠捕捉非線性關(guān)系,提高了預(yù)測(cè)精度,但對(duì)高維以及長(zhǎng)序列數(shù)據(jù)的處理能力有限,無(wú)法有效挖掘數(shù)據(jù)中的長(zhǎng)期依賴關(guān)系和全局特征。深度學(xué)習(xí)類方法,如lstm、gru等,能夠捕捉時(shí)間序列中的長(zhǎng)期依賴關(guān)系,但在處理多尺度、非平穩(wěn)信號(hào)時(shí)表現(xiàn)不足。信號(hào)分解類方法,如經(jīng)驗(yàn)?zāi)B(tài)分解(emd)、變分模態(tài)分解(vmd)等,能夠?qū)⒎瞧椒€(wěn)信號(hào)分解為多個(gè)模態(tài)分量,但存在模態(tài)混疊和參數(shù)選擇困難的問(wèn)題。

3、電力需求數(shù)據(jù)具有非平穩(wěn)性、非線性和多尺度特性。因此,需要一種更加有效的電力需求預(yù)測(cè)方法和系統(tǒng),能夠充分考慮電力需求數(shù)據(jù)的特點(diǎn),準(zhǔn)確捕捉數(shù)據(jù)中的復(fù)雜特征和長(zhǎng)期依賴關(guān)系,以提高預(yù)測(cè)的準(zhǔn)確性和可靠性。


技術(shù)實(shí)現(xiàn)思路

1、發(fā)明目的:本發(fā)明所要解決的技術(shù)問(wèn)題是針對(duì)現(xiàn)有技術(shù)的不足,提供一種基于冠豪豬優(yōu)化器(cpo)優(yōu)化變分模態(tài)分解(vmd)和改進(jìn)深度學(xué)習(xí)模型(xlstm-informer)的電力需求預(yù)測(cè)方法,適用于電力系統(tǒng)的負(fù)荷預(yù)測(cè)、能源管理和智能電網(wǎng)優(yōu)化等領(lǐng)域。

2、本發(fā)明具體提供了一種電力需求預(yù)測(cè)方法,包含如下步驟:

3、步驟1,數(shù)據(jù)獲取與預(yù)處理:收集新格蘭2018年電力負(fù)荷數(shù)據(jù)集,對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,剔除缺失值和異常值;

4、步驟2,輸入經(jīng)過(guò)步驟1中預(yù)處理后的電力負(fù)荷數(shù)據(jù)集,執(zhí)行冠豪豬優(yōu)化算法cpo(crested?porcupine?optimizer,?cpo)優(yōu)化變分模態(tài)分解vmd(variational?modedecomposition,?vmd)算法動(dòng)態(tài)參數(shù)(cpo-vmd):引入冠豪豬優(yōu)化算法cpo獲取最優(yōu)vmd算法參數(shù),包括最優(yōu)模態(tài)數(shù)k和二次懲罰因子;獲取電力負(fù)荷數(shù)據(jù)分解后的兩個(gè)以上本征模態(tài)函數(shù)(intrinsic?mode?function,?imf)分量,每個(gè)imf分量代表不同頻率尺度的信號(hào)特征;

5、步驟3,建立串行模型xlstm-informer,所述串行模型xlstm-informer包括擴(kuò)展長(zhǎng)短期記憶(extended?long?short-term?memory)網(wǎng)絡(luò)xlstm模型和informer模型;首先使用擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型進(jìn)行特征提?。簩⒉襟E2得到的每個(gè)imf分量與經(jīng)過(guò)步驟1中預(yù)處理后的電力負(fù)荷數(shù)據(jù)組成數(shù)據(jù)集,輸入到擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型中進(jìn)行特征提取,獲取時(shí)間序列的深層特征;

6、步驟4,采用informer模型進(jìn)行數(shù)據(jù)預(yù)測(cè):將擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型提取的特征輸入到informer模型中進(jìn)行電力需求預(yù)測(cè),輸出電力需求預(yù)測(cè)值與真實(shí)值的對(duì)比結(jié)果;

7、步驟5,模型評(píng)估:通過(guò)r2、均方誤差(mse)、均方根誤差(rmse)、平均絕對(duì)誤差(mae)和平均絕對(duì)百分比誤差(mape)對(duì)步驟4中得到的電力需求預(yù)測(cè)模型進(jìn)行評(píng)估。

8、步驟2包括:

9、步驟2.1,vmd算法的分解目標(biāo)是將本征模態(tài)函數(shù)imf帶寬總和最小化,約束為imf分量總和逼近原始信號(hào),達(dá)到將疊加的本征模態(tài)函數(shù)imf分離的目的,將原始信號(hào)劃分為k個(gè)imf分量,包括如下步驟:

10、步驟2.1.1,初始化兩個(gè)集合和,和迭代次數(shù)n的初始值為0;其中是在第n次迭代vmd分解后得到的第k個(gè)模態(tài)分量,是在第n次迭代vmd分解后的第k個(gè)模態(tài)分量的中心頻率,表示拉格朗日算子;

11、步驟2.1.2,執(zhí)行;

12、步驟2.1.3,令,執(zhí)行,當(dāng)時(shí),利用模態(tài)分量公式和中心頻率公式更新和,其中表示在第次迭代時(shí)vmd分解后得到的前個(gè)已更新的imf分量在頻率處的和,表示在第n次迭代時(shí)后個(gè)imf分量在頻率處的和,是在第次迭代vmd分解后得到的第k個(gè)模態(tài)分量,表示原始信號(hào),是第n次迭代時(shí)拉格朗日乘子在頻率處的值,表示懲罰因子,用于平衡分解精度和噪聲抑制效果,d是積分符號(hào);

13、步驟2.1.4,利用公式更新拉格朗日乘子,其中表示第次迭代時(shí)拉格朗日乘子在頻率處的值,為保真度系數(shù);

14、步驟2.1.5,迭代步驟2.1.3和步驟2.1.4,當(dāng)滿足時(shí),停止迭代,否則轉(zhuǎn)到步驟2.1.2,繼續(xù)執(zhí)行,其中為精度收斂判據(jù);

15、步驟2.2,冠豪豬優(yōu)化算法cpo屬于基于自然的一類優(yōu)化算法,它的設(shè)計(jì)靈感源于冠豪豬別具一格的防御行為;冠豪豬優(yōu)化算法cpo包括如下步驟:

16、步驟2.2.1,種群初始化:與多數(shù)元啟發(fā)式算法一致,引入隨機(jī)數(shù),在定義的上下界的搜索范圍內(nèi)隨機(jī)生成初始種群;

17、步驟2.2.2,循環(huán)種群縮減技術(shù):在實(shí)施該策略的過(guò)程中,會(huì)有一些冠豪豬被移出群體,隨后又將生成一批新的個(gè)體,在維持種群多樣性的同時(shí),有效提升收斂速率。公式為:

18、?,

19、其中n代表種群數(shù)量,是個(gè)體數(shù)量,為新生成種群中的最小個(gè)體數(shù),群體大小不能小于,代表決定循環(huán)次數(shù)的變量,表示函數(shù)求值的最大循環(huán)次數(shù),為新生成種群中個(gè)體的最小數(shù)量,m是當(dāng)前函數(shù)計(jì)算值,是余數(shù)或模運(yùn)算符;

20、步驟2.2.3,探索階段:冠豪豬與其他動(dòng)物最大的差異,在于其面對(duì)捕食者時(shí)所采用的獨(dú)特防御手段。cpo算法正是借鑒了冠豪豬這種在捕食者威脅下的特殊生存防御策略,執(zhí)行過(guò)程包括全局勘探與局部開(kāi)發(fā)兩個(gè)階段:

21、全局勘探階段:此階段冠豪豬距離捕食者較遠(yuǎn),通過(guò)采取視覺(jué)和聲音兩種防御策略來(lái)威脅捕食者,包括第一防御策略和第二防御策略;

22、第一防御策略:冠豪豬通過(guò)舉起并扇動(dòng)羽毛,達(dá)到給捕食者警告的目的,數(shù)學(xué)模型為:

23、?,

24、第二防御策略:冠豪豬制造噪音并進(jìn)一步威脅捕食者,數(shù)學(xué)模型為:

25、?,

26、其中,表示第i個(gè)個(gè)體在第n次迭代時(shí)的位置,表示第i個(gè)個(gè)體在第次迭代時(shí)的位置,是服從正態(tài)分布的隨機(jī)數(shù),、是位于之間的隨機(jī)數(shù),是現(xiàn)存最優(yōu)解,是當(dāng)前冠豪豬cp(crested?porcupine,?cp)和從種群中隨機(jī)選擇的冠豪豬cp之間生成的向量,用于表示在第n次迭代時(shí)第i個(gè)捕食者所處的位置;y表示捕食者的位置,為一個(gè)二元向量,和是之間的隨機(jī)整數(shù),和為隨機(jī)選取的兩個(gè)冠豪豬cp個(gè)體位置;

27、局部開(kāi)發(fā)階段:此時(shí)捕食者已經(jīng)距離冠豪豬較近,冠豪豬會(huì)采取防御行動(dòng),利用釋放獨(dú)特氣味和發(fā)動(dòng)物理攻擊兩種方式,對(duì)來(lái)犯的捕食者予以堅(jiān)決反擊,包括第三防御策略和第四防御策略;

28、第三防御策略:冠豪豬會(huì)分泌一種惡臭在周圍區(qū)域傳播,以防止捕食者進(jìn)一步接近,數(shù)學(xué)模型為:

29、?,

30、第四防御策略:當(dāng)之前的所有策略都失效后,冠豪豬會(huì)對(duì)捕食者發(fā)起物理攻擊,數(shù)學(xué)模型為:

31、,

32、其中是之間的隨機(jī)數(shù),為一隨機(jī)選取的冠豪豬cp個(gè)體位置,代表預(yù)防因子,代表氣味擴(kuò)散因子,為控制搜索方向的參數(shù),是收斂速度因子,、是位于之間的隨機(jī)數(shù),是個(gè)體物理攻擊捕食者時(shí)產(chǎn)生的非彈性碰撞力;

33、步驟2.3,利用冠豪豬優(yōu)化算法cpo優(yōu)化vmd參數(shù):包絡(luò)熵作為信號(hào)分析領(lǐng)域的關(guān)鍵量化指標(biāo),能夠精準(zhǔn)表征信號(hào)的稀疏特性,其大小與信號(hào)的周期性呈反相關(guān)。以最小包絡(luò)熵作為適應(yīng)度函數(shù),對(duì)vmd分解算法中的分解模態(tài)數(shù)k和二次懲罰因子參數(shù)進(jìn)行優(yōu)化,使得vmd分解后得到的各imf分量能夠最好地覆蓋數(shù)據(jù)集中的不同類別或取值,從而代表整個(gè)數(shù)據(jù)集的特征;其中k決定分解得到的imf數(shù)目,決定imf帶寬的寬度;定義包絡(luò)熵:

34、?,

35、?,

36、?,

37、其中,為imf信號(hào),,m為imf信號(hào)長(zhǎng)度,為的標(biāo)準(zhǔn)化,表示信號(hào)的概率分布,是imf信號(hào)的包絡(luò)熵,是imf信號(hào)經(jīng)過(guò)希爾伯特(hilbert)解調(diào)得到的包絡(luò)信號(hào)序列,表示hilbert變換;

38、以最小包絡(luò)熵作為優(yōu)化目標(biāo),使用冠豪豬優(yōu)化算法cpo優(yōu)化vmd算法的參數(shù),得到最優(yōu)分解模態(tài)數(shù)k和二次懲罰因子。

39、步驟3中,所述擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型對(duì)傳統(tǒng)lstm模型框架的指數(shù)門(mén)控和記憶結(jié)構(gòu)進(jìn)行修改,引入slstm(標(biāo)量lstm)和mlstm(矩陣lstm),進(jìn)一步形成xlstm塊和完整架構(gòu)。slstm引入指數(shù)門(mén)控和新的記憶混合技術(shù),mlstm?采用矩陣內(nèi)存和協(xié)方差更新規(guī)則提升存儲(chǔ)容量,且實(shí)現(xiàn)了完全并行化。與lstm模型相比,擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型的計(jì)算精度更高。擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型的具體構(gòu)造步驟包括建立slstm模塊和mlstm模塊:

40、步驟3.1,通過(guò)向前傳遞計(jì)算和穩(wěn)定化處理建立slstm模塊;

41、所述向前傳遞計(jì)算包括如下步驟:

42、步驟3.1.1,更新細(xì)胞狀態(tài):

43、?,

44、其中表示時(shí)刻t的細(xì)胞狀態(tài),為時(shí)刻的細(xì)胞狀態(tài),表示遺忘門(mén),用于控制上一時(shí)刻細(xì)胞狀態(tài)信息的保留程度;表示輸入門(mén),用于控制當(dāng)前輸入信息進(jìn)入細(xì)胞狀態(tài)的程度;表示細(xì)胞輸入,由計(jì)算獲得,中間參數(shù),其中是當(dāng)前時(shí)刻的輸入,為輸入到細(xì)胞輸入的權(quán)重向量,是時(shí)刻的隱藏狀態(tài)到細(xì)胞輸入的循環(huán)權(quán)重,是細(xì)胞輸入的偏置項(xiàng),是激活函數(shù),t是轉(zhuǎn)置符號(hào);

45、步驟3.1.2,更新歸一化器狀態(tài):

46、?,

47、其中是時(shí)刻t的歸一化器狀態(tài),用于對(duì)細(xì)胞狀態(tài)進(jìn)行歸一化,是時(shí)刻的歸一化器狀態(tài);

48、步驟3.1.3,計(jì)算隱藏狀態(tài):

49、?,

50、?,

51、其中是時(shí)刻t的隱藏狀態(tài),是輸出門(mén),用于控制細(xì)胞狀態(tài)輸出到隱藏狀態(tài)的程度;是經(jīng)過(guò)歸一化處理后的細(xì)胞狀態(tài),用于計(jì)算隱藏狀態(tài);

52、步驟3.1.4,計(jì)算門(mén):

53、?,

54、?,

55、或?,

56、?,

57、?,

58、?,

59、其中是輸入到輸入門(mén)的權(quán)重向量,是隱藏狀態(tài)到輸入門(mén)的循環(huán)權(quán)重,為輸入門(mén)的偏置項(xiàng);是輸入到遺忘門(mén)的權(quán)重向量,是隱藏狀態(tài)到遺忘門(mén)的循環(huán)權(quán)重,是遺忘門(mén)的偏置項(xiàng),是sigmoid激活函數(shù),?;是輸入到輸出門(mén)的權(quán)重向量,是隱藏狀態(tài)到輸出門(mén)的循環(huán)權(quán)重,是輸出門(mén)的偏置項(xiàng);exp是自然指數(shù)函數(shù),和是門(mén)控單元在計(jì)算過(guò)程中的中間變量,分別是遺忘門(mén)和輸出門(mén)在經(jīng)過(guò)權(quán)重矩陣運(yùn)算和偏置項(xiàng)相加后的結(jié)果;

60、所述穩(wěn)定化處理包括如下步驟:

61、步驟3.1.5,為了防止指數(shù)激活函數(shù)導(dǎo)致的值過(guò)大問(wèn)題,引入穩(wěn)定狀態(tài):

62、?,

63、其中是上一時(shí)刻(時(shí)刻)的穩(wěn)定狀態(tài)值;

64、步驟3.1.6,對(duì)輸入門(mén)和遺忘門(mén)進(jìn)行穩(wěn)定化;

65、?,

66、?,

67、其中是經(jīng)過(guò)穩(wěn)定化處理后的輸入門(mén)值,是未經(jīng)過(guò)穩(wěn)定化處理前計(jì)算輸入門(mén)時(shí)的中間值,是穩(wěn)定化后的遺忘門(mén)值;

68、步驟3.2,通過(guò)向前傳遞計(jì)算構(gòu)造mlstm模塊,包括如下步驟:

69、步驟3.2.1,更新細(xì)胞狀態(tài):

70、?,

71、?,

72、?,

73、其中表示時(shí)刻t的矩陣形式的細(xì)胞狀態(tài),表示時(shí)刻的矩陣形式的細(xì)胞狀態(tài)。和分別表示時(shí)刻t的價(jià)值向量和鍵向量,、是響應(yīng)的權(quán)重矩陣,、是偏置項(xiàng),s表示向量的維度;

74、步驟3.2.2,更新歸一化器狀態(tài):

75、;

76、步驟3.2.3,計(jì)算隱藏狀態(tài):

77、?,

78、?,

79、其中是查詢向量,為權(quán)重矩陣,為偏置項(xiàng);是經(jīng)過(guò)計(jì)算和處理后的中間結(jié)果,用于得到最終隱藏狀態(tài),表示逐元素相乘;

80、步驟3.2.4,計(jì)算門(mén):

81、?,

82、?,

83、或?,

84、?,

85、?,

86、?;

87、步驟3.3,構(gòu)建xlstm模型:

88、slstm塊和mlstm塊是xlstm塊的基礎(chǔ)單元,兩個(gè)以上x(chóng)lstm塊以殘差堆疊的方式構(gòu)成xlstm架構(gòu),基于xlstm架構(gòu)訓(xùn)練得到的模型為所述擴(kuò)展長(zhǎng)短期記憶網(wǎng)絡(luò)xlstm模型。

89、步驟4包括:

90、步驟4.1,輸入編碼;

91、首先,輸入序列,其中表示實(shí)數(shù)空間,l是時(shí)間序列的長(zhǎng)度,是模型維度;其次,對(duì)輸入序列進(jìn)行位置編碼,以保留時(shí)間信息,位置編碼pe的公式為:

92、?,

93、?,

94、其中是時(shí)間步位置,,是維度索引,,表示位置編碼pe在位置、維度索引為時(shí)的值;然后,將輸入序列與位置編碼相加,得到編碼后的輸入;

95、步驟4.2,概率稀疏自注意力;

96、傳統(tǒng)的自注意力計(jì)算復(fù)雜度為,informer通過(guò)概率稀疏自注意力機(jī)制將其降低到。

97、定義查詢向量稀疏性度量:

98、?,

99、其中是第i個(gè)查詢向量,是用來(lái)衡量第i個(gè)查詢向量的稀疏性指標(biāo),是鍵矩陣,,表示第j個(gè)鍵向量,是的轉(zhuǎn)置向量;

100、只選擇稀疏性最高的個(gè)查詢向量進(jìn)行計(jì)算,其余查詢向量被忽略:

101、,

102、其中,是經(jīng)過(guò)稀疏化處理后的查詢矩陣,是一個(gè)操作符,表示從給定的集合中選取排名前個(gè)元素的操作,是一個(gè)超參數(shù);

103、步驟4.3,自注意力蒸餾;

104、步驟4.4,建立編碼器;

105、步驟4.5,建立解碼器。

106、步驟4.3包括:為了進(jìn)一步降低序列長(zhǎng)度和內(nèi)存占用,informer引入了注意力蒸餾機(jī)制:

107、對(duì)每一層的輸出進(jìn)行卷積和下采樣:

108、?,

109、其中是第 l層的輸出矩陣,表示第層的輸出矩陣,和是可學(xué)習(xí)的卷積核和偏置,relu是激活函數(shù),用于引入非線性,maxpool1d表示一維最大池化操作,用于對(duì)卷積后的結(jié)果進(jìn)行下采樣,減少序列長(zhǎng)度。通過(guò)蒸餾操作,序列長(zhǎng)度逐漸減少,保留最重要的信息。

110、步驟4.4包括:編碼器由兩個(gè)以上概率稀疏自注意力層和自注意力蒸餾層堆疊組成;

111、每層的輸出經(jīng)過(guò)層歸一化和殘差連接:

112、?,

113、其中是第 l層的輸入,是第 l層的輸出,表示對(duì)第 l層輸入進(jìn)行概率稀疏自注意力計(jì)算的結(jié)果,layernorm是層歸一化操作,用于對(duì)輸入進(jìn)行歸一化,加速模型的收斂。

114、步驟4.5包括:解碼器采用生成式解碼器結(jié)構(gòu),直接生成整個(gè)輸出序列,而不是逐步預(yù)測(cè)。輸入包括:目標(biāo)序列的前綴(已知部分)和編碼器的輸出(上下文信息)。解碼器的自注意力層使用全注意力機(jī)制,而不是概率稀疏注意力機(jī)制。最終輸出通過(guò)全連接層映射到目標(biāo)維度:

115、?,

116、其中是解碼器的輸出,fc是全連接層,是最終的預(yù)測(cè)結(jié)果。

117、步驟5包括:

118、使用決定系數(shù)衡量模型對(duì)目標(biāo)變量的解釋能力:

119、?,

120、其中是模型預(yù)測(cè)值,是實(shí)際值,是所有實(shí)際觀測(cè)值的平均值,為樣本容量,即觀測(cè)值數(shù)量;決定系數(shù)取值范圍為,越接近1,模型對(duì)數(shù)據(jù)的解釋能力越強(qiáng);

121、均方誤差mse是預(yù)測(cè)值與真實(shí)值之間差異的平方的平均值:

122、?,

123、其中mse越小,模型的預(yù)測(cè)誤差越小。其對(duì)異常值敏感,因?yàn)檎`差被平方放大。

124、均方根誤差rmse是mse的平方根,與目標(biāo)變量的量綱一致:

125、?,

126、其中rmse越小,模型的預(yù)測(cè)誤差越小。rmse對(duì)異常值敏感,但比mse更為直觀。

127、平均絕對(duì)誤差mae是預(yù)測(cè)值與真實(shí)值之間絕對(duì)差異的平均值:

128、?,

129、其中mae越小,模型的預(yù)測(cè)誤差越小。mae對(duì)異常值不敏感,因?yàn)檎`差未被平方。

130、平均絕對(duì)百分比誤差(mape)是預(yù)測(cè)值與真實(shí)值之間絕對(duì)差異的百分比的平均值:

131、?,

132、其中mape值越小,模型的預(yù)測(cè)結(jié)果越好。

133、本發(fā)明還提供了一種電子設(shè)備,包括處理器和存儲(chǔ)器,所述存儲(chǔ)器存儲(chǔ)有程序代碼,當(dāng)所述程序代碼被所述處理器執(zhí)行時(shí),使得所述處理器執(zhí)行所述的方法的步驟。

134、本發(fā)明還提供了一種存儲(chǔ)介質(zhì),存儲(chǔ)有計(jì)算機(jī)程序或指令,當(dāng)所述計(jì)算機(jī)程序或指令在計(jì)算機(jī)上運(yùn)行時(shí),執(zhí)行所述的方法的步驟。

135、本發(fā)明方法通過(guò)改進(jìn)的信號(hào)分解方法和深度學(xué)習(xí)模型,提高對(duì)非平穩(wěn)、非線性電力需求數(shù)據(jù)的處理能力。利用cpo優(yōu)化vmd參數(shù),解決傳統(tǒng)vmd方法中參數(shù)選擇困難的問(wèn)題。增強(qiáng)深度學(xué)習(xí)模型對(duì)多尺度時(shí)間序列的建模能力,提高預(yù)測(cè)精度。為電力系統(tǒng)的負(fù)荷預(yù)測(cè)、能源管理和智能電網(wǎng)優(yōu)化提供可靠的技術(shù)支持。

136、有益效果:本發(fā)明提出了一種基于vmd-xlstm-informer的電力需求預(yù)測(cè)方法,采用的模型通過(guò)cpo優(yōu)化vmd參數(shù),解決了傳統(tǒng)vmd方法中參數(shù)選擇困難的問(wèn)題。冠豪豬優(yōu)化算法cpo具有全局搜索能力強(qiáng)、收斂速度快的特點(diǎn),能夠有效減少模態(tài)混疊現(xiàn)象,提高信號(hào)分解的精度和穩(wěn)定性。在xlstm-informer預(yù)測(cè)模型中,結(jié)合x(chóng)lstm的擴(kuò)展記憶能力和informer的自注意力機(jī)制,增強(qiáng)了對(duì)多尺度時(shí)間序列的建模能力,在保證計(jì)算效率的同時(shí),顯著提高了預(yù)測(cè)精度。本發(fā)明能夠有效處理非平穩(wěn)、非線性的電力需求數(shù)據(jù),適用于復(fù)雜的電力系統(tǒng)場(chǎng)景。在實(shí)際應(yīng)用中表現(xiàn)出較高的預(yù)測(cè)精度和穩(wěn)定性,為電力系統(tǒng)的優(yōu)化管理提供了可靠的技術(shù)支持。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1