本發(fā)明涉及一種提升大語言模型在社交領(lǐng)域表現(xiàn)的方法,尤其涉及一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,屬于大語言模型優(yōu)化。
背景技術(shù):
1、大語言模型(large?language?models,llms)是當前人工智能領(lǐng)域的熱門話題之一,其通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成連貫、有意義的文本,甚至能夠進行一些需要理解和推理的任務(wù)。隨著越來越多能力強大的通用模型基座的出現(xiàn)以及模型微調(diào)數(shù)據(jù)的豐富與微調(diào)技術(shù)的成熟,大模型在科研、教育、醫(yī)藥、汽車等領(lǐng)域已經(jīng)產(chǎn)生了許多優(yōu)秀的應(yīng)用,產(chǎn)生了很大的影響,極大的推動了相關(guān)行業(yè)的發(fā)展。
2、然而,微調(diào)大語言模型需要較高的成本,同時會在一定程度上損失大語言模型的通用能力,因此在不微調(diào)模型的情況下提升模型的性能是一個重要的工作,提示工程(prompt?engineering)與檢索增強生成(rag,retrieval-augmented?generation)都可以在不微調(diào)大模型的情況下顯著提升模型輸出的質(zhì)量。但由于大語言模型生成的文本書面性較強,與人們?nèi)粘I钪惺褂玫恼Z言有較大差異,因此大模型在社交領(lǐng)域下的表現(xiàn)總是不夠理想。
3、綜上所述,需要一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法。
技術(shù)實現(xiàn)思路
1、在下文中給出了關(guān)于本發(fā)明的簡要概述,以便提供關(guān)于本發(fā)明的某些方面的基本理解。應(yīng)當理解,這個概述并不是關(guān)于本發(fā)明的窮舉性概述。它并不是意圖確定本發(fā)明的關(guān)鍵或重要部分,也不是意圖限定本發(fā)明的范圍。其目的僅僅是以簡化的形式給出某些概念,以此作為稍后論述的更詳細描述的前序。
2、鑒于此,為解決現(xiàn)有技術(shù)中傳統(tǒng)的大語言模型在社交領(lǐng)域下生成文本社交質(zhì)量較差的問題,本發(fā)明提供一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法。
3、技術(shù)方案如下:一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,包括以下步驟:
4、s1.構(gòu)建大語言模型,采集待生成評論語料及其對應(yīng)的社交領(lǐng)域語料;
5、s2.通過分析社交領(lǐng)域語料篩選出最高質(zhì)量的文本,結(jié)合向量檢索庫構(gòu)建主流社交語言的知識庫;
6、s3.通過知識庫提升大語言模型性能,將當前待生成評論語料輸入大語言模型,輸出適合社交環(huán)境的生成文本。
7、進一步地,所述s2中,具體包括以下步驟:
8、s21.對社交領(lǐng)域語料進行統(tǒng)計,查看數(shù)據(jù)分布,確定分位點;
9、s22.根據(jù)分位點制定最高質(zhì)量文本的篩選策略,確保滿足設(shè)定的篩選數(shù)量,選擇最高質(zhì)量文本;
10、s23.以待生成評論語料和最高質(zhì)量文本的主題作為鍵,以文本本身作為值,構(gòu)建基于向量數(shù)據(jù)庫的知識庫;
11、所述s22中,篩選策略表示為:將篩選指標設(shè)置為人與人之間針對社交領(lǐng)域語料的評價,根據(jù)評價越高社交領(lǐng)域語料的質(zhì)量越高,設(shè)定評價范圍,對不符合評價范圍的社交領(lǐng)域語料中的文本進行刪除,篩選出社交領(lǐng)域語料中最高質(zhì)量文本;
12、所述s23中,使用向量數(shù)據(jù)庫作為知識庫的載體,根據(jù)待生成評論語料和最高質(zhì)量文本,用嵌入模型對最高質(zhì)量文本的主題進行向量化,并將對應(yīng)的待生成評論語料和最高質(zhì)量文本作為元信息存入到向量數(shù)據(jù)庫中,使得每一個主題-文本的鍵值對,對應(yīng)知識庫中的一條數(shù)據(jù),得到基于向量數(shù)據(jù)庫的知識庫。
13、進一步地,所述s3中,具體包括以下步驟:
14、s31.參照知識庫,通過大語言模型得到生成文本;
15、s32.自我評價生成文本質(zhì)量,由大語言模型發(fā)表適合社交環(huán)境的生成文本;
16、所述s31中,通過嵌入模型將當前待生成評論語料轉(zhuǎn)化成向量,依據(jù)知識庫對向量進行查詢,得到向量之間的相似度,由知識庫輸出相似度最高的社交領(lǐng)域語料,將相似度最高的社交領(lǐng)域語料和當前待生成評論語料輸入到大語言模型,輸出生成文本;
17、所述s32中,通過預(yù)設(shè)的標準對生成文本進行評價,驗證生成文本質(zhì)量,如果生成文本不適合社交環(huán)境,則重復(fù)步驟s31,直至生成文本適合社交環(huán)境由大語言模型進行輸出。
18、本發(fā)明的有益效果如下:本發(fā)明所涉及的是一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,通過對其他人發(fā)言的學(xué)習(xí),構(gòu)建了高質(zhì)量的社交語言知識庫,再使用知識庫輔助大語言模型進行社交領(lǐng)域的文本生成;本發(fā)明可以降低大語言模型在缺少社交能力的情況下生成社交質(zhì)量較低的文本的概率,同時主流社交語言的知識庫的構(gòu)建隨著社交活動不斷進行,參照知識庫使得大語言模型輸出的生成文本質(zhì)量越來越高。
1.一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,其特征在于,包括以下步驟:
2.根據(jù)權(quán)利要求1所述的一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,其特征在于,所述s2中,具體包括以下步驟:
3.根據(jù)權(quán)利要求2所述的一種在不對大語言模型進行微調(diào)的情況下提升其在社交領(lǐng)域表現(xiàn)的方法,其特征在于,所述s3中,具體包括以下步驟: