-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專(zhuān)題列表 > 正文
gpt3微調(diào)(vgg16微調(diào))
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于gpt3微調(diào)的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。
ChatGPT國(guó)內(nèi)免費(fèi)在線(xiàn)使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話(huà)答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線(xiàn)網(wǎng)頁(yè)版、PC客戶(hù)端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、gpt盒子干嘛用的
GPT盒子是一種基于GPT模型的應(yīng)用程序,它可以用于生成自然語(yǔ)言文本。具體來(lái)說(shuō),GPT盒子可以用于文本生成、自動(dòng)對(duì)話(huà)、文本分類(lèi)、語(yǔ)言翻譯、情感分析等多種自然語(yǔ)言處理任務(wù)。
例如,在文本生成任務(wù)中,用戶(hù)可以輸入一些關(guān)鍵詞或句子,GPT盒子會(huì)自動(dòng)生成一篇與這些關(guān)鍵詞或句子相關(guān)的文章或段落。在自動(dòng)對(duì)話(huà)任務(wù)中,用戶(hù)可以和GPT盒子進(jìn)行對(duì)話(huà),GPT盒子會(huì)根據(jù)用戶(hù)的問(wèn)題和回答生成相應(yīng)的對(duì)話(huà)內(nèi)容。
二、GPT Understands, Too
傳統(tǒng)fine-tune(使用訓(xùn)練數(shù)據(jù)來(lái)微調(diào)模型參數(shù)),GPT在自然語(yǔ)言理解任務(wù)上未能取得很好的效果,關(guān)于NLU任務(wù)的一種新方法P-tuning,采用可訓(xùn)練的連續(xù)的 prompt embeddings。
實(shí)驗(yàn)表明:
與 discrete prompts類(lèi)似,僅對(duì)輸入進(jìn)行修改,不同之處在于用differential output embeddings來(lái)代替常規(guī)的input embeddings
prompt可以非常靈活,可以插入到context x或者target y中
pseudo tokens(偽標(biāo)記)
可以從原始詞表V中找到一個(gè)better continuous prompts。最后,利用下游損失函數(shù)L,可以對(duì)continuous prompts hi 進(jìn)行differentially optimize
training continuous prompts 存在兩個(gè)問(wèn)題
P-tuning中,使用promp編碼器(LSTM+RELU激活的兩層MLP)將hi建模為一個(gè)序列
知識(shí)探索
所有prompt search方法都需要一些額外的數(shù)據(jù)來(lái)訓(xùn)練或查找prompt。我們遵循AutoPrompt中的設(shè)置,作者從原始TRE-x數(shù)據(jù)集構(gòu)建了一個(gè)訓(xùn)練集,該訓(xùn)練集與測(cè)試集類(lèi)似,但答案分布略有不同
在傳統(tǒng)的知識(shí)探索中,不允許通過(guò)fine-tune來(lái)改變預(yù)先訓(xùn)練好的模型參數(shù)。試圖評(píng)估語(yǔ)言模型在培訓(xùn)前學(xué)習(xí)了多少知識(shí)。然而,這項(xiàng)工作的基本方面是比較P-tuning和fine-tune,尤其是在像GPT這樣的單向語(yǔ)言模型上。特別感興趣的是以下問(wèn)題:?jiǎn)蜗蚝碗p向語(yǔ)言模型是否從P-tuning中獲得了類(lèi)似的改進(jìn)?
在知識(shí)探索方面,許多事實(shí)只能通過(guò)硬編碼,而不能通過(guò)語(yǔ)言模型進(jìn)行推斷。參數(shù)的微調(diào)可能會(huì)導(dǎo)致遺忘。相反,P-tuning不會(huì)改變預(yù)先訓(xùn)練的模型的參數(shù),而是通過(guò)尋找更好的continuous prompt來(lái)存儲(chǔ)知識(shí)。此外,在Bert和GPT采用P-tuning存在明顯的差異,使用MP+FT進(jìn)行微調(diào)非常有效,但是GPT并不像BERTs那樣從MP+FT中受益更多。P-tuning與單向語(yǔ)言模型表現(xiàn)出更好的親和力。在里面就更大的型號(hào)而言,例如具有110億個(gè)參數(shù)的MegatronLM2,雖然微調(diào)幾乎不起作用,但Ptuning仍然適用,并在LAMA上達(dá)到了最先進(jìn)的水平。
WiC和MultiRC都有相對(duì)較大的train sets,標(biāo)準(zhǔn)fine-tune可以從更大的數(shù)據(jù)集中獲得比P-tuning更多的優(yōu)勢(shì)。相反,在低資源環(huán)境下,P-tuning更有益
在base模型的規(guī)模下,在7項(xiàng)任務(wù)中,有6項(xiàng)任務(wù)的gpt2-base的P-tuning相比優(yōu)于基于bert的模型的最佳結(jié)果,除了Wic。
與BERT-larger-base相比,帶有P-tuning的GPT2在7項(xiàng)任務(wù)中有4項(xiàng)任務(wù)顯示出優(yōu)勢(shì)
唯一的例外是WiC任務(wù),fine-tune取得最佳結(jié)果,推測(cè)這是因?yàn)樵~義消歧任務(wù)不適用于prompt-based MLM prediction
用原始訓(xùn)練集中32個(gè)未使用的樣本構(gòu)建了一個(gè)新的開(kāi)發(fā)集(Ddev32)設(shè)置公平比較之下,P-tuning在所有任務(wù)上都顯著優(yōu)于PET和PET best。更有趣的是,P-tuning甚至在7項(xiàng)任務(wù)中的4項(xiàng)任務(wù)上優(yōu)于GPT-3、PET(Ddev)和iPET(Ddev)。
盡管P-tuning在大多數(shù)任務(wù)中都能取得最佳效果,但在難以表述為完形填空問(wèn)題的任務(wù)(例如WiC)中,微調(diào)的效果會(huì)更好
三、跑gpt3的條件
1、必須禁止定制自己的開(kāi)放式聊天機(jī)器人功能。
2、需設(shè)置內(nèi)容過(guò)濾器以避免用戶(hù)與Samantha談?wù)撁舾性?huà)題。
3、必須部署自動(dòng)化監(jiān)控工具監(jiān)視用戶(hù)的對(duì)話(huà),檢測(cè)是否濫用GPT3生成的有害或敏感語(yǔ)句。
四、gpt3顯存要求
僅僅是加載模型參數(shù)就需要數(shù)百GB的存儲(chǔ)空間,遠(yuǎn)超單個(gè)GPU的容納能力。
因此,多卡并行被視為AI大模型推理的必然選擇。
但現(xiàn)有的推理系統(tǒng)仍舊存在不少弊端。
比如需要用戶(hù)對(duì)通信、內(nèi)存等各部分協(xié)作進(jìn)行手動(dòng)管理,需要額外編譯等……導(dǎo)致用戶(hù)使用門(mén)檻居高不下。
為此,大規(guī)模并行AI訓(xùn)練系統(tǒng)
以上就是關(guān)于gpt3微調(diào)相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢(xún),客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
ChatGPTAI手機(jī)版(ChatGPTAI手機(jī)版下載)
國(guó)內(nèi)如何用chatGPT知乎(國(guó)內(nèi)怎么上chatroulette)
蘋(píng)果手機(jī)如何注冊(cè)ChatGpt(蘋(píng)果手機(jī)如何注冊(cè)新的id)
復(fù)興大街周邊景觀(guān)設(shè)計(jì)(復(fù)興大街周邊景觀(guān)設(shè)計(jì))