-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
如何用GPT寫論文(gpt2論文)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于如何用GPT寫論文的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、BERT詳解(附帶ELMo、GPT 介紹)
首先我會(huì)詳細(xì)闡述 BERT 原理,然后簡單介紹一下 ELMO 以及 GPT
BERT 全稱為 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 無監(jiān)督的方式利用大量無標(biāo)注文本 「煉成」的語言模型,其架構(gòu)為 Transformer 中的 Encoder(BERT=Encoder of Transformer)
我在 Transformer 詳解 中已經(jīng)詳細(xì)的解釋了所有 Transformer 的相關(guān)概念,這里就不再贅述
以往為了解決不同的 NLP 任務(wù),我們會(huì)為該任務(wù)設(shè)計(jì)一個(gè)最合適的神經(jīng)網(wǎng)絡(luò)架構(gòu)并做訓(xùn)練,以下是一些簡單的例子
不同的 NLP 任務(wù)通常需要不同的模型,而設(shè)計(jì)這些模型并測試其 performance 是非常耗成本的(人力,時(shí)間,計(jì)算資源)。如果有一個(gè)能 直接處理各式 NLP 任務(wù)的通用架構(gòu) 該有多好?
隨著時(shí)代演進(jìn),不少人很自然地有了這樣子的想法,而 BERT 就是其中一個(gè)將此概念付諸實(shí)踐的例子
Google 在預(yù)訓(xùn)練 BERT 時(shí)讓它同時(shí)進(jìn)行兩個(gè)任務(wù):
1. 漏字填空
2. 下個(gè)句子預(yù)測
對(duì)正常人來說,要完成這兩個(gè)任務(wù)非常簡單。只要稍微看一下前后文就知道完形填空任務(wù)中 [MASK] 里應(yīng)該填 退了 ;而 醒醒吧 后面接 你沒有妹妹 也十分合理(?)
接下來我會(huì)分別詳細(xì)介紹論文中這兩個(gè)任務(wù)的設(shè)計(jì)細(xì)節(jié)
在 BERT 中,Masked LM(Masked Language Model)構(gòu)建了語言模型,簡單來說,就是 隨機(jī)遮蓋或替換 一句話里面的任意字或詞,然后讓模型通過上下文預(yù)測那一個(gè)被遮蓋或替換的部分,之后 做 Loss 的時(shí)候也只計(jì)算被遮蓋部分的 Loss ,這其實(shí)是一個(gè)很容易理解的任務(wù),實(shí)際操作如下:
這樣做的好處是,BERT 并不知道 [MASK] 替換的是哪一個(gè)詞,而且 任何一個(gè)詞都有可能是被替換掉的,比如它看到的 apple 可能是被替換的詞 。這樣強(qiáng)迫模型在編碼當(dāng)前時(shí)刻詞的時(shí)候 不能太依賴當(dāng)前的詞 ,而要考慮它的上下文,甚至根據(jù)上下文進(jìn)行 "糾錯(cuò)"。比如上面的例子中,模型在編碼 apple 時(shí),根據(jù)上下文 my dog is,應(yīng)該 把 apple 編碼成 hairy 的語義而不是 apple 的語義
我們首先拿到屬于上下文的一對(duì)句子,也就是兩個(gè)句子,之后我們要在這兩個(gè)句子中加一些特殊的 token: [CLS]上一句話[SEP]下一句話[SEP] 。也就是在句子開頭加一個(gè) [CLS] ,在兩句話之間和句末加 [SEP] ,具體地如下圖所示
可以看到,上圖中的兩句話明顯是連續(xù)的。如果現(xiàn)在有這么一句話 [CLS] 我的狗很可愛 [SEP] 企鵝不擅長飛行 [SEP] ,可見這兩句話就 不是連續(xù)的 。在實(shí)際訓(xùn)練中,我們會(huì)讓這兩種情況出現(xiàn)的數(shù)量為** 1:1**
Token Embedding 就是正常的詞向量,即 PyTorch 中的 nn.Embedding()
Segment Embedding 的作用是用 embedding 的信息讓模型 分開上下句 ,我們給上句的 token 全 0,下句的 token 全 1,讓模型得以判斷上下句的起止位置,例如
Position Embedding 和 Transformer 中的不一樣,不是三角函數(shù),而是 學(xué)習(xí)出來的
BERT 預(yù)訓(xùn)練階段實(shí)際上是將上述兩個(gè)任務(wù)結(jié)合起來,同時(shí)進(jìn)行,然后將所有的 Loss 相加,例如
BERT 的 Fine-Tuning 共分為 4 種類型,以下內(nèi)容、圖片均來自臺(tái)大李宏毅老師 Machine Learning 課程 (以下內(nèi)容 圖在上,解釋在下)
為什么要用CLS?
這里李宏毅老師有一點(diǎn)沒講到,就是為什么要用第一個(gè)位置,即 [CLS] 位置的 output。這里我看了網(wǎng)上的一些博客,結(jié)合自己的理解解釋一下。因?yàn)?BERT 內(nèi)部是 Transformer,而 Transformer 內(nèi)部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句話的完整信息 ,這是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其實(shí)是占大頭的,現(xiàn)在假設(shè)使用 的 output 做分類,那么這個(gè) output 中實(shí)際上會(huì)更加看重 ,而 又是一個(gè)有實(shí)際意義的字或詞,這樣難免會(huì)影響到最終的結(jié)果。但是 [CLS] 是沒有任何實(shí)際意義的,只是一個(gè)占位符而已,所以就算 [CLS] 的 output 中自己的值占大頭也無所謂。當(dāng)然你 也可以將所有詞的 output 進(jìn)行 concat,作為最終的 output
首先將問題和文章通過 [SEP] 分隔,送入 BERT 之后,得到上圖中黃色的輸出。此時(shí)我們還要訓(xùn)練兩個(gè) vector,即上圖中橙色和黃色的向量。首先將橙色和所有的黃色向量進(jìn)行 dot product,然后通過 softmax,看哪一個(gè)輸出的值最大,例如上圖中 對(duì)應(yīng)的輸出概率最大,那我們就認(rèn)為 s=2
同樣地,我們用藍(lán)色的向量和所有黃色向量進(jìn)行 dot product,最終預(yù)測得 的概率最大,因此 e=3。最終,答案就是 s=2,e=3
你可能會(huì)覺得這里面有個(gè)問題,假設(shè)最終的輸出 s>e 怎么辦,那不就矛盾了嗎?其實(shí)在某些訓(xùn)練集里,有的問題就是沒有答案的,因此此時(shí)的預(yù)測搞不好是對(duì)的,就是沒有答案
以上就是 BERT 的詳細(xì)介紹,參考以下文章
ELMo是Embedding from language Model的縮寫,它通過無監(jiān)督的方式對(duì)語言模型進(jìn)行預(yù)訓(xùn)練來學(xué)習(xí)單詞表示
這篇論文的想法其實(shí)非常簡單,但是效果卻很好。它的思路是用 深度的雙向 Language Model 在大量未標(biāo)注數(shù)據(jù)上訓(xùn)練語言模型 ,如下圖所示
在實(shí)際任務(wù)中,對(duì)于輸入的句子,我們使用上面的語言模型來處理它,得到輸出向量,因此這可以看作是一種 特征提取 。但是 ELMo 與普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息 的
具體來說,給定一個(gè)長度為 N 的句子,假設(shè)為 ,語言模型會(huì)計(jì)算給定 的條件下出現(xiàn) 的概率:
傳統(tǒng)的 N-gram 模型 不能考慮很長的歷史 ,因此現(xiàn)在的主流是使用 多層雙向 LSTM 。在時(shí)刻 ,LSTM 的第 層會(huì)輸出一個(gè)隱狀態(tài) ,其中 , 是 LSTM 的層數(shù)。最上層是 ,對(duì)它進(jìn)行 softmax 之后得到輸出詞的概率
類似的,我們可以用 一個(gè)反向 來計(jì)算概率:
通過這個(gè) LSTM,我們可以得到 。我們的損失函數(shù)是這兩個(gè) LSTM 的 加和 :
這兩個(gè) LSTM 有各自的參數(shù) 和 ,而 Word Embedding 參數(shù) 和 Softmax 參數(shù) 是共享的
為了用于下游(DownStream)的特定任務(wù),我們會(huì)把不同層的隱狀態(tài)組合起來,具體組合的參數(shù)是根據(jù)不同的特定任務(wù)學(xué)習(xí)出來的,公式如下:
GPT 得到的語言模型參數(shù)不是固定的,它會(huì)根據(jù)特定的任務(wù)進(jìn)行調(diào)整(通常是微調(diào)),這樣的到的句子表示能更好的適配特定任務(wù)。它的思想也很簡單,使用 單向 Transformer 學(xué)習(xí)一個(gè)語言模型 ,對(duì)句子進(jìn)行無監(jiān)督的 Embedding,然后 根據(jù)具體任務(wù)對(duì) Transformer 的參數(shù)進(jìn)行微調(diào) 。GPT 與 ELMo 有兩個(gè)主要的區(qū)別:
這里解釋一下上面提到的 單向 Transformer 。在 Transformer 的文章中,提到了 Encoder 與 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每個(gè)詞都只能對(duì) 包括自己在內(nèi)的前面所有詞進(jìn)行 Attention ,這就是單向 Transformer。GPT 使用的 Transformer 結(jié)構(gòu)就是將 Encoder 中的 Self-Attention 替換成了 Masked Self-Attention ,具體結(jié)構(gòu)如下圖所示
訓(xùn)練的過程也非常簡單,就是將 n 個(gè)詞的詞嵌入 ( ) 加上位置嵌入 ( ),然后輸入到 Transformer 中,n 個(gè)輸出分別預(yù)測該位置的下一個(gè)詞
這里的位置編碼沒有使用傳統(tǒng) Transformer 固定編碼的方式,而是動(dòng)態(tài)學(xué)習(xí)的
Pretraining 之后,我們還需要針對(duì)特定任務(wù)進(jìn)行 Fine-Tuning。假設(shè)監(jiān)督數(shù)據(jù)集合 的輸入 是一個(gè)詞序列 ,輸出是一個(gè)分類的標(biāo)簽 ,比如情感分類任務(wù)
我們把 輸入 Transformer 模型,得到最上層最后一個(gè)時(shí)刻的輸出 ,將其通過我們新增的一個(gè) Softmax 層(參數(shù)為 )進(jìn)行分類,最后用 CrossEntropyLoss 計(jì)算損失,從而根據(jù)標(biāo)準(zhǔn)數(shù)據(jù)調(diào)整 Transformer 的參數(shù)以及 Softmax 的參數(shù) 。這等價(jià)于最大似然估計(jì):
正常來說,我們應(yīng)該調(diào)整參數(shù)使得 最大,但是 為了提高訓(xùn)練速度和模型的泛化能力 ,我們使用 Multi-Task Learning,同時(shí)讓它最大似然 和
這里使用的 還是之前語言模型的損失(似然),但是使用的數(shù)據(jù)不是前面無監(jiān)督的數(shù)據(jù) ,而是使用當(dāng)前任務(wù)的數(shù)據(jù) ,而且只使用其中的 ,而不需要標(biāo)簽
針對(duì)不同任務(wù),需要簡單修改下輸入數(shù)據(jù)的格式,例如對(duì)于相似度計(jì)算或問答,輸入是兩個(gè)序列,為了能夠使用 GPT,我們需要一些特殊的技巧把兩個(gè)輸入序列變成一個(gè)輸入序列
ELMo 和 GPT 最大的問題就是 傳統(tǒng)的語言模型是單向的 —— 我們根據(jù)之前的歷史來預(yù)測當(dāng)前詞。但是我們不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我們?cè)诰幋a it 的語義的時(shí)候需要同時(shí)利用前后的信息,因?yàn)樵谶@個(gè)句子中, it 可能指代 animal 也可能指代 street 。根據(jù) tired ,我們推斷它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。傳統(tǒng)的語言模型,都 只能利用單方向的信息 。比如前向的 RNN,在編碼 it 的時(shí)候它看到了 animal 和 street ,但是它還沒有看到 tired ,因此它不能確定 it 到底指代什么。如果是后向的 RNN,在編碼的時(shí)候它看到了 tired ,但是它還根本沒看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理論上是可以同時(shí)關(guān)注到這兩個(gè)詞的,但是根據(jù)前面的介紹,為了使用 Transformer 學(xué)習(xí)語言模型,必須 用 Mask 來讓它看不到未來的信息 ,所以它也不能解決這個(gè)問題的
根據(jù)上文內(nèi)容預(yù)測下一個(gè)可能跟隨的單詞,就是常說的自左向右的語言模型任務(wù),或者反過來也行,就是根據(jù)下文預(yù)測前面的單詞,這種類型的LM被稱為自回歸語言模型。(GPT,ELMO)GPT 就是典型的自回歸語言模型。ELMO盡管看上去利用了上文,也利用了下文,但是本質(zhì)上仍然是自回歸LM,這個(gè)跟模型具體怎么實(shí)現(xiàn)有關(guān)系。ELMO是做了兩個(gè)方向(從左到右以及從右到左兩個(gè)方向的語言模型),但是是分別有兩個(gè)方向的自回歸LM,然后把LSTM的兩個(gè)方向的隱節(jié)點(diǎn)狀態(tài)拼接到一起,來體現(xiàn)雙向語言模型這個(gè)事情的。所以其實(shí)是兩個(gè)自回歸語言模型的拼接,本質(zhì)上仍然是自回歸語言模型。
自回歸語言模型有優(yōu)點(diǎn)有缺點(diǎn),缺點(diǎn)是只能利用上文或者下文的信息,不能同時(shí)利用上文和下文的信息,當(dāng)然,貌似ELMO這種雙向都做,然后拼接看上去能夠解決這個(gè)問題,因?yàn)槿诤夏J竭^于簡單,所以效果其實(shí)并不是太好。它的優(yōu)點(diǎn),其實(shí)跟下游NLP任務(wù)有關(guān),比如生成類NLP任務(wù),比如文本摘要,機(jī)器翻譯等,在實(shí)際生成內(nèi)容的時(shí)候,就是從左向右的, 自回歸語言模型天然匹配這個(gè)過程 。而Bert這種DAE模式,在生成類NLP任務(wù)中,就面臨訓(xùn)練過程和應(yīng)用過程不一致的問題,導(dǎo)致 生成類的NLP任務(wù)到目前為止都做不太好 。
自回歸語言模型只能根據(jù)上文預(yù)測下一個(gè)單詞,或者反過來,只能根據(jù)下文預(yù)測前面一個(gè)單詞。相比而言,Bert通過 在輸入X中隨機(jī)Mask掉一部分單詞 ,然后預(yù)訓(xùn)練過程的主要任務(wù)之一是根據(jù)上下文單詞來預(yù)測這些被Mask掉的單詞,如果你對(duì)Denoising Autoencoder比較熟悉的話,會(huì)看出,這確實(shí)是典型的DAE的思路。那些被Mask掉的單詞就是在輸入側(cè)加入的所謂噪音。類似Bert這種預(yù)訓(xùn)練模式,被稱為DAE LM。
這種DAE LM的優(yōu)缺點(diǎn)正好和自回歸LM反過來,它能比較自然地融入雙向語言模型,同時(shí)看到被預(yù)測單詞的上文和下文,這是好處。缺點(diǎn)是啥呢? 主要在輸入側(cè)引入[Mask]標(biāo)記,導(dǎo)致預(yù)訓(xùn)練階段和Fine-tuning階段不一致的問題 ,因?yàn)镕ine-tuning階段是看不到[Mask]標(biāo)記的。DAE嗎,就要引入噪音,[Mask] 標(biāo)記就是引入噪音的手段,這個(gè)正常。
XLNet的出發(fā)點(diǎn)就是:能否 融合自回歸LM和DAE LM兩者的優(yōu)點(diǎn) 。就是說如果站在自回歸LM的角度,如何引入和雙向語言模型等價(jià)的效果;如果站在DAE LM的角度看,它本身是融入雙向語言模型的,如何拋掉表面的那個(gè)[Mask]標(biāo)記,讓預(yù)訓(xùn)練和Fine-tuning保持一致。當(dāng)然,XLNet還講到了一個(gè)Bert被Mask單詞之間相互獨(dú)立的問題。
<script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>二、GPT的使用
首先你確認(rèn)正確安裝了GTP
其次GTP4不能打開GTP5的譜子
第三\打開GTP,從"文件"里找的譜子,CTRL+O是熱鍵.打開后從"查找范圍"選擇譜子的目錄,并打開.
沒變是因?yàn)闆]注冊(cè)成功,注冊(cè)GTP后會(huì)自動(dòng)的重新啟動(dòng)機(jī)子 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>
三、Prompt-NLP新范式
NLP技術(shù)發(fā)展的四種范式:
Prompt的起源可以追溯到GPT-2,T5,GPT-3等的一些研究,發(fā)現(xiàn)在輸入樣本前加入一個(gè)和任務(wù)相關(guān)的 前綴 ,就可以提示模型接下來要輸出的內(nèi)容。比如在GPT-3的預(yù)測階段,只需要在輸入樣本前加上Translate English to French: 就可以提示模型接下來要進(jìn)行翻譯任務(wù),即完全依靠模型在預(yù)訓(xùn)練階段學(xué)到的知識(shí)來進(jìn)行預(yù)測,不需要在下游任務(wù)上再依靠task-specific的 監(jiān)督數(shù)據(jù) 對(duì)模型進(jìn)行fine-tune就可直接使用,一方面減少了fine-tune模型的計(jì)算和存儲(chǔ)代價(jià),另一方面也給樣本量極度缺乏的 少樣本領(lǐng)域(zero/few-shot) 帶來了福音。
這種依靠 提示信息(Prompt) 來激發(fā)模型的內(nèi)在潛能,挖掘模型在大規(guī)模預(yù)訓(xùn)練階段學(xué)到的知識(shí)的做法引領(lǐng)了NLP領(lǐng)域的第四范式。人們逐漸開始思考如何更加 高效地利用 預(yù)訓(xùn)練語言模型的大量參數(shù),如何將各種下游任務(wù)都統(tǒng)一到一個(gè) 通用框架 下,使得模型能夠根據(jù)不同的提示信息進(jìn)行不同的任務(wù),從而不需要再為每個(gè)下游任務(wù)訓(xùn)練單獨(dú)的模型。
本文將對(duì)Prompt快速發(fā)展過程中一些重要論文的核心創(chuàng)新點(diǎn)進(jìn)行簡要介紹,而不會(huì)詳細(xì)描述過多模型細(xì)節(jié)(欲知全貌建議直接讀原論文)。
論文:Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference (2020)
該論文對(duì)Prompt模式的研究進(jìn)行了規(guī)范,提出了 Pattern-Verbalizer 的概念:
比如對(duì)于5分類任務(wù),給定輸入樣本 a ,對(duì)應(yīng)的模板函數(shù) P 和標(biāo)簽映射函數(shù) v 可為:
注意這里多種Prompt模板函數(shù)以及答案映射函數(shù)都是 人工手動(dòng)設(shè)計(jì) 的。
然后利用新構(gòu)建出來的 P(x),v(l) 對(duì)預(yù)訓(xùn)練模型進(jìn)行fine-tune,其他更多細(xì)節(jié)不再展開,實(shí)驗(yàn)結(jié)果顯示該方法在少樣本任務(wù)上表現(xiàn)很好。
論文:It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners ( PET原班人馬 )
GPT-3出來后顯示了其在少樣本學(xué)習(xí)上的驚人能力,但是其龐大的參數(shù)量也令人望而卻步。而本文作者提出 “小模型在少樣本學(xué)習(xí)上也可以有卓越表現(xiàn)” ,直接對(duì)標(biāo)GPT-3這個(gè)龐然大物,從而奠定了 PET所提范式 在江湖的霸主地位,引起了各大武林人士的關(guān)注。
該文證明了PET所提范式的有效性,同時(shí)作者還分析發(fā)現(xiàn)設(shè)計(jì)不同的 Prompt 模板和標(biāo)簽映射函數(shù) Verbalizer 對(duì)模型性能影響較大,從而引起后來人員涌入改進(jìn)Prompt模板和標(biāo)簽映射Verbalizer構(gòu)造的浪潮中。
論文:Making Pre-trained Language Models Better Few-shot Learners
取代PET中手動(dòng)構(gòu)建Prompt模板和標(biāo)簽映射函數(shù)的過程,自動(dòng)化搜索模板和標(biāo)簽映射,同時(shí)參考GPT-3中的in-context learning,在輸入樣本中加入示例(demonstrations)作為上下文,幫助模型更好地理解要做什么。
實(shí)驗(yàn)表明,在少樣本上,這種基于prompt的fine-tune效果能夠明顯好于標(biāo)準(zhǔn)的fine-tune,并且在樣本中加入示例確實(shí)能夠帶來增益。
也許未必非要構(gòu)建人能理解的 離散tokens式 的Prompt,構(gòu)建模型能夠接受的 連續(xù)向量式 的Prompt也未嘗不可。
4.1 論文: Prefix-Tuning : Optimizing Continuous Prompts for Generation
該文針對(duì) NLG(Natural Language Generation) 任務(wù),提出了構(gòu)建連續(xù)的prompts。在預(yù)訓(xùn)練模型的每一層加上一個(gè)Prefix前綴矩陣,固定預(yù)訓(xùn)練模型的參數(shù),僅訓(xùn)練前綴矩陣的參數(shù),在few-shot設(shè)定下,性能超過標(biāo)準(zhǔn)的fine-tune。
實(shí)驗(yàn)結(jié)果表明,在 全量 數(shù)據(jù)下,prompt-based fine-tune的效果能夠 相當(dāng) standard fine-tune;在 少樣本 下,能夠 超過 standard fine-tune。
4.2 論文:GPT Understands, Too ( P-tuning )
該文針對(duì) NLU(Natural Language Understanding) 任務(wù),也提出了構(gòu)建連續(xù)的prompts。與 Prefix-tuning 不同的是,這里的prompts僅需要加在輸入層,而不用加在網(wǎng)絡(luò)的每一層,就可以work well。
利用 biLSTM 對(duì)prompts進(jìn)行 Encode ,然后將編碼后的 prompts embedding 和樣本 x 輸入預(yù)訓(xùn)練語言模型(PLM),之后同時(shí)fine-tune prompt embeddings 和 pretrained model 。
考慮到優(yōu)化連續(xù)的prompt向量有兩個(gè)問題:
因此作者提出先采用 biLSTM 作為 Prompt Encoder 來編碼prompt向量。
具體Prompt模板設(shè)計(jì)為:
實(shí)驗(yàn)結(jié)果表明,在 全量 數(shù)據(jù)下,prompt-based fine-tune的效果能夠 相當(dāng) 或超過standard fine-tune。
論文:The Power of Scale for Parameter-Efficient Prompt Tuning
該文提出為每個(gè)下游任務(wù)設(shè)計(jì)自己的prompt,拼接到輸入樣本上,然后完全freeze預(yù)訓(xùn)練模型的權(quán)重,僅訓(xùn)練prompts對(duì)應(yīng)的權(quán)重參數(shù)。發(fā)現(xiàn)隨著模型體積的增大, Prompt-tuning 的效果逐漸追上標(biāo)準(zhǔn) fine-tune 的效果。
這里 Model Tuning 就是指標(biāo)準(zhǔn)的 fine-tune ,即在下游任務(wù)上對(duì)預(yù)訓(xùn)練模型的參數(shù)進(jìn)行更新。
最后對(duì)各論文實(shí)驗(yàn)結(jié)果的普遍規(guī)律進(jìn)行一個(gè)總結(jié)。各論文采用的fine-tune策略主要有以下三種:
<script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>四、我要寫論文,但不知道格式
樓上那是野路子,拿去發(fā)表肯定讓人罵死!
給大家看看我發(fā)表的論文的格式吧!大家可以在中文期刊數(shù)據(jù)庫中查到我的論文。
標(biāo)題、中文摘要、關(guān)鍵詞、英文摘要、英文關(guān)鍵詞、
材料和方法、數(shù)據(jù)分析、討論、參考文獻(xiàn)。
注意在文章中參考別人的東西要加肩標(biāo)!
不同蛋氨酸水平對(duì)長毛兔產(chǎn)毛性和血液生化指標(biāo)的影響
摘要:48只彩色長毛兔隨機(jī)分成4個(gè)處理,處理組1為對(duì)照組,處理組2,3,4為試驗(yàn)組,試驗(yàn)組分別添加不同水平的蛋氨酸,旨在研究不同蛋氨酸水平對(duì)長毛兔產(chǎn)毛性能和血液生化指標(biāo)的影響。試驗(yàn)結(jié)果:處理組2的TP , AIb, GPT, GOT,CHO,ALP、生長速度、兔毛抗拉力、韌性、密度與其他3個(gè)處理組差異顯著(P<0. 05),處理組2兔毛直徑較其他3個(gè)處理組大,差異顯著(P<0. 05)。日糧中添加0. 2%蛋氨酸時(shí),家兔的產(chǎn)毛性能達(dá)到最佳。
關(guān)鍵詞: 蛋氨酸水平 生化指標(biāo) 產(chǎn)毛性能
Effect of Different Methionine Levels on Production Performance and
Blood Serum Traits of Wool Rabbit
( Heilongjiang August First Land Reclamation University, Daqing Heilongjiang 163319)
ABSTRACT 48 wool rabbits were divided into four groups. Croup 1 was the control, the other were the treatments which fielded the methionine in different levels to bulid the(onsistence of foodstuffs of different mehtionine levels. The results were as follows: the Croup 2 was significantly higher than that of others(P<0. 05)in aspect of TP, Alb, GPT, GOT, CHO, ALP, growth speed, pull resistance, tenacity, density .The diameter of rabbit hair is significantly than the others(P<0.05). 0.2 % computation of Methionine is the best.
KEY WORDS Methionine levels, Blood serum traits, Production of hair
蛋氨酸為含硫氨基酸,是產(chǎn)毛家畜的第一限制性氨基酸。采用硫酸鹽形式飼喂長毛兔,無機(jī)硫可很好地被吸收。蛋氨酸在飼料和微生物蛋自中并不富有,而產(chǎn)毛又需要高含硫氨基酸,因此在日糧中添加蛋氨酸,就成為提高產(chǎn)毛量的一個(gè)重要措施。為探討北方寒區(qū)春季環(huán)境條件下不同蛋氨酸水平對(duì)長毛兔產(chǎn)毛性能和血液生化指標(biāo)的影響,確定最佳蛋氨酸添加量,我們進(jìn)行了相關(guān)的飼養(yǎng)試驗(yàn)。
1 材料與方法
1. 1 材料
1. 1. 1試驗(yàn)動(dòng)物試驗(yàn)采用單因子設(shè)計(jì),將48只平均體重在1. 70士0. 291g左右的彩色長毛兔分為4個(gè)處理,每個(gè)處理3個(gè)重復(fù),重復(fù)數(shù)為4只,各組間體重要求差異不顯著(P>0.05)。試驗(yàn)兔飼養(yǎng)于同一室內(nèi)的雙列雙層式籠中,每籠1只,條件一致。
1. 1. 2試驗(yàn)日糧
基礎(chǔ)日糧組成(%):青干草40. 6 ,豆餅20、麥麩23、玉米12、食鹽0. 4、預(yù)混料4;
日糧營養(yǎng)水平為: 消化能11. 14 MJ/Kg、粗蛋白17. 57% 、粗纖維13. 36%、Ca 0. 71% 、P 0. 47%;
處理組1為對(duì)照組,飼喂基礎(chǔ)日糧;處理組2,3, 4為試驗(yàn)組,分別在4%的預(yù)混料中添加0.2%、0.4%、0.6%的蛋氨酸。
1. 1. 3飼養(yǎng)管理
預(yù)飼期為7天,試驗(yàn)期30天。每日飼喂3次,時(shí)間分別為7點(diǎn)、12點(diǎn)和20點(diǎn)。每只兔每日投喂精料135g ,青干草203g,自由飲水。[1]
預(yù)飼結(jié)束后染毛,染毛部位為體軀左側(cè),染毛面積為2 x l0cm。染毛采用絢麗紅色染發(fā)膏染毛,深染,使毛露出體表部分全部染成紅色。試驗(yàn)期間,新毛為長毛兔本身顏色,而舊毛為絢麗紅色,從而可以確定產(chǎn)毛長度。試驗(yàn)結(jié)束后采毛,將染色部位貼近皮膚剪毛,按編號(hào)單獨(dú)保存,以備檢測。
1. 1. 4血清的制備及測定方法
試驗(yàn)結(jié)束當(dāng)日早晨,飼喂前心臟采血各5mL,4小時(shí)后離心分離血清,貯存于-20℃以下,備用??偰懝檀迹–HO)的測定采用酶比色法,總蛋自(TP)的測定采用雙縮尿法,白蛋自(Alb)的測定采用溴甲酚綠法,堿性磷酸酶(ALP)、谷草轉(zhuǎn)氨酶(GOT)、谷丙轉(zhuǎn)氨酶(CPT)的測定采用連續(xù)監(jiān)測法。
1. 1. 5儀器 恒溫水浴鍋,ZS-3型半自動(dòng)生化分析儀、CYG-55型顯微投影儀、YG001A型電子單纖維強(qiáng)力機(jī)。
1. 1. 6試劑盒 均購于中生北控生物科技股份有限公司。
1. 2 方法
根據(jù)生化試劑盒上的說明進(jìn)行各項(xiàng)生化指標(biāo)的測定。
1. 3 數(shù)據(jù)處理
本試驗(yàn)結(jié)果以X士S表示,數(shù)據(jù)處理與分析采用國際通用的SAS軟件ANOVA,并進(jìn)行多重比較。
2 結(jié)果與分析
2.1血液生化指標(biāo)(見表1)
TP、Alb在一定程度上代表了日糧中蛋自質(zhì)的營養(yǎng)水平及動(dòng)物對(duì)蛋白質(zhì)的消化吸收程度。處理組2與其他3個(gè)處理比較,差異顯著(P<0.05),且含量最高,說明總蛋白含量隨日糧蛋氨酸水平增加而增加。但處理組3、處理組4隨日糧蛋氨酸添加量的增高,血清中TP、Alb含量反而減少,這說明蛋氨酸水平超過需要量時(shí),氨基酸不平衡,動(dòng)物機(jī)體不能對(duì)其有效地消化吸收,血清總蛋白沉積率并不高,這與李戰(zhàn)勝(1994)的研究結(jié)果是一致的。
CPT, GOT反應(yīng)蛋白質(zhì)合成和分解代謝的狀況,從表1可以看出,以添加0. 2%蛋氨酸的處理組2的CPT、GOT含量為最高。
膽固醇是細(xì)胞膜的成分[3],因而體內(nèi)不能缺少它,但太多時(shí)會(huì)引起動(dòng)脈硬化。肝臟是合成膽固醇的主要場所。本試驗(yàn)中血清CHO以處理組4最高,處理2血清中的CHO含量最低,由此看來,日糧蛋白水平過高,會(huì)造成血清膽固醇的大幅度增加,不利動(dòng)物的健康生長。ALP是一組在堿性條件下具有較高活力的磷酸單酯水解酶,其活性高低可反映生長速度和生產(chǎn)性能,提高血液中ALP活性有利于提高日增重[4]。由表1可知,處理組2血清中A LP含量顯著高于其他3個(gè)處理(P<0. 05),這與趙國成1997[5]的研究結(jié)果一致。
2. 2 兔毛生長速度(見表2)
每個(gè)樣品測兔毛100根,用鋼板尺測毛纖維的自然長度。
生長速度決定長毛兔每年的剪毛次數(shù),生長速度快,每年的剪毛次數(shù)就多。由表2可知,處理組2較其他3個(gè)處理的兔毛增長量高,兔毛的生長速度快,差異顯著( P<0. 05)。這與李福昌(2003)[6]的研究結(jié)果一致。
2.3 兔毛纖維直徑(見表3)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
采用CYG-55型顯微投影儀(上海光學(xué)儀器研究所)測量,每個(gè)樣品測量100根。
對(duì)成年毛兔而言,若飼料營養(yǎng)水平高,毛直徑增大,產(chǎn)毛量增加,飼料營養(yǎng)水平低,毛直徑變小,產(chǎn)毛量下降。但過粗的毛會(huì)使兔毛經(jīng)濟(jì)價(jià)值降低。由表3可知,處理組2較其他3個(gè)處理兔毛直徑大,差異顯著(P<0. 05)。
2.4 抗拉力與韌性(見表4)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
采用YG001A型電子單纖維強(qiáng)力機(jī)(常州正大通用紡織儀器有限公司)測量,每個(gè)樣品測量50根。
抗拉力和韌性決定兔毛的等級(jí),由表4可知,處理2兔毛的抗拉力、韌性較其他處理組高,差異顯著(P<0.05)。
2.5 兔毛密度(見表5)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
測量密度時(shí),因長毛兔腹部、頭部、臀部與尾部兔毛密度差異很大,所以在一個(gè)樣品中分別在腹部、頭部、背部與臀部采4個(gè)品樣,各取1 cm-毛,然后取均值,剪成相同長度毛束,數(shù)出500根毛,稱重,再將全部毛束稱重,將全重除以500根毛重量,得出數(shù)值乘500即為兔毛密度。由表5可知,處理組2的兔毛密度顯著高于其他3個(gè)處理,差異顯著(P<0.05)。
3 小結(jié)與討論
從飼養(yǎng)試驗(yàn)的結(jié)果看,處理組2,即日糧中添加0. 2%蛋氨酸組的生產(chǎn)性能要好于其他3個(gè)處理組。
蛋氨酸作為含硫氨基酸,對(duì)產(chǎn)毛具有相當(dāng)重要的作用。日糧中蛋氨酸在消化道內(nèi)分解成游離氨基酸及小肽被吸收,在體內(nèi)作為提供必需氨基酸及合成非必需氨基酸的氮源參與體內(nèi)氮的代謝,但只有蛋氨酸水平達(dá)到平衡時(shí),才能獲得較高的生產(chǎn)性能,適當(dāng)添加蛋氨酸會(huì)顯著提高長毛兔的生產(chǎn)能力,但其超過需要量時(shí),其轉(zhuǎn)化率下降,且會(huì)造成體內(nèi)氨基酸不平衡,并影響動(dòng)物對(duì)其他營養(yǎng)物質(zhì)的消化吸收,從而導(dǎo)致生產(chǎn)性能下降。
4 參考文獻(xiàn)
[1] W. Schlolam.家兔生產(chǎn)指南.甘肅科學(xué)技術(shù)出版社. 2002. 112
[2] 李戰(zhàn)勝.過度地添加氨基酸會(huì)降低生產(chǎn)性能. International Feed .1994. 10: 2-4
[3] 夏新山.袁書林.楊元青等.中草藥添加劑及不同飼糧類型對(duì)生長育肥豬血液生化指標(biāo)的影響.動(dòng)物科學(xué)與動(dòng)物醫(yī)學(xué).2003, 20 (12): 38-9
[4] 梁之彥.生理生化.上??茖W(xué)技術(shù)出版社.1990. 441-442
[5] 趙國成.日糧中添加蛋氨酸對(duì)毛兔產(chǎn)毛性能的影響.當(dāng)代畜牧,1997.02:58-59
[6] 李福昌.姜文學(xué).劉宏峰.李富寬.日糧蛋氨酸水平對(duì)安哥拉兔氮利用、產(chǎn)毛性能及血液指標(biāo)的影響.畜牧獸醫(yī)學(xué)報(bào).2003.3:249
[7] 黃鄧萍.程濟(jì)棟.川西地區(qū)德系安哥拉兔產(chǎn)毛性能和毛的理化特性及其相關(guān)分析.四川農(nóng)業(yè)大學(xué)學(xué)報(bào).1995.13:91-93 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>
以上就是關(guān)于如何用GPT寫論文相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
如何開一個(gè)自己的網(wǎng)店(如何開一個(gè)自己的網(wǎng)店)
蘋果手機(jī)如何下載chatGpt(蘋果手機(jī)如何下載軟件)_1
小區(qū)鋼結(jié)構(gòu)景觀設(shè)計(jì)
問大家
如何開通抖音海外直播白名單?抖音海外直播權(quán)限解決辦法
作為平面設(shè)計(jì)師如何在提高專業(yè)技能的同時(shí)也提高收入?
城東穩(wěn)妥的廣告片短視頻拍攝制作如何避免踩一些雷?諸位前輩們幫回答下
寧波日?qǐng)?bào)登報(bào)電話多少如何登報(bào)辦理
IT行業(yè)UI設(shè)計(jì)師就業(yè)前景如何?
延慶發(fā)布會(huì)禮儀模特大概收費(fèi)如何?路過的前輩們幫忙答一下
比較好的濟(jì)南婚姻介紹中心是哪家?哪家行業(yè)口碑好?