HOME 首頁
SERVICE 服務產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務案例
NEWS 熱點資訊
ABOUT 關于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    openai百度百科(openpose百度百科)

    發(fā)布時間:2023-03-19 20:23:49     稿源: 創(chuàng)意嶺    閱讀: 91        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于openai百度百科的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀企業(yè),服務客戶遍布全國,代運營相關業(yè)務請撥打175-8598-2043,或微信:1454722008

    本文目錄:

    openai百度百科(openpose百度百科)

    一、邊緣控制到哭是什么意思

    就是孤立一個人,把一個人邊緣孤獨到哭,通過孤立的方式讓這個人在精神上被蹂躪,可以看作是一種冷暴力,這種邊緣的行為可以是夫妻之間、情侶之間、朋友之間,甚至是校園的學生都會使用到。這種冷暴力不容易被他人察覺,而且即使被人知道也只能從道德層民進行譴責。

    二、電扳手鋰電池能飛機上帶嗎?

    電扳手鋰電池能飛機上帶嗎?可以,但是限量。

    隨身電子裝備中的電池限帶兩個。根據(jù)民航對于電池的相關規(guī)定:不允許在托運行李中夾帶鋰電池,只可以隨身攜帶個人自用的內(nèi)含鋰或鋰離子電池芯或電池的消費用電子裝置。

    對備用電池必須單個做好保護以防短路,并且僅能在手提行李中攜帶。備用電池每人限帶2個。

    擴展資料:

    飛機不允許托運鋰電池的原因:

    鋰電池可能會存在自燃的危險情況。如果托運,在飛行過程中行李箱可能受到顛簸擠壓等外力影響,導致鋰電池受損起火。

    飛機貨倉中的火災難以及時發(fā)現(xiàn)和撲救,容易引發(fā)大事故。

    參考資料:中國民用航空局--行李

    編輯于 2019-08-06

    查看全部4個回答

    充電式?jīng)_擊扳手,上天貓電器城,新潮外觀,超高性價比!

    天貓電器城-充電式?jīng)_擊扳手,爆款行貨熱賣,高性能超耐用,更多海量數(shù)碼好貨低至9.9起!

    3c.tmall.com廣告

    中國十大名牌電動工具,上天貓電器城,品類齊全,品質(zhì)之選!

    根據(jù)文中提到的沖擊扳手為您推薦

    天貓電器城-中國十大名牌電動工具,爆款行貨,新潮外觀,海量數(shù)碼好貨低至9.9起,現(xiàn)在下單更優(yōu)惠!

    3c.tmall.com廣告

    — 你看完啦,以下內(nèi)容更有趣 —

    理工科專業(yè)包括什么學科 怎么分類

    大學理工科專業(yè)有哪些 理工科專業(yè)分為理、工、農(nóng)、醫(yī)四個學科門類,各學科專業(yè)設置如下: 一、理學 1. 數(shù)學類 :數(shù)學與應用數(shù)學;信息與計算科學 2. 物理學類:物理學;應用物理學 3.化學:化學;應用化學 4. 生物科學類:生物科學;生物技術 5.天文學類:天文學 6. 地質(zhì)學類:地質(zhì)學;地球化學 7. 地理科學類:地理科學;資源環(huán)境與城鄉(xiāng)規(guī)劃管理;地理信息系統(tǒng) 8. 地球物理學類:地球物理學 9. 大氣科學類:海洋科學;應用氣象學 10. 海洋科學類:海洋科學;海洋技術 11. 力學類:理論與應用力學 12. 電子信息科學類:電子信息科學與技術;微電子學;光信息科學與技術 13. 材料科學類:材料物理;材料化學 14. 環(huán)境科學類:環(huán)境科學;生態(tài)學 15. 心理學類:心理學;應用心理學 16. 統(tǒng)計學類:統(tǒng)計學 二、工學 1. 地礦類:采礦工程;石油工程;礦物加工工程;勘查技術與工程;資源勘查工程 2. 材料類:冶金工程;金屬材料工程;無機非金屬材料工程;高分子材料與工程 3. 機械類:機械設計制造及其自動化;材料成型及控制工程;工業(yè)設計;過程裝備與控制工程 4.儀器儀表類:測控技術與儀器 5. 能源動力類:核工程與核技術 6. 電氣信息類:電氣工程及其自動化;自動化;電子信息工程;通信工程;計算機科學與技術;生物醫(yī)學工程 7. 土建類:建筑學;城市規(guī)劃;土木工程;建筑環(huán)境與設備工程;給水排水工程 8. 水利類:水利水電工程;水文與水資源工程;港口航道與海岸工程 9. 測繪類:測繪工程 10. 環(huán)境與安全類:環(huán)境工程;安全工程 11. 化工與制藥類:化學工程與工藝;制藥工程 12. 交通運輸類:交通運輸;交通工程;油氣儲運工程;飛行技術;航海技術;輪機工程 13. 海洋工程類:船舶與海洋工程 14. 輕工紡織食品類:食品科學與工程;輕化工程;包裝工程;印刷工程;紡織工程;服裝設計與工程 15. 航空航天類:飛行器設計與工程;飛行器動力工程;飛行器制造工程;飛行器環(huán)境與生命保障工程 16. 武器類:武器系統(tǒng)與發(fā)射工程;探測制導與控制技術;彈藥工程與爆炸技術;特種能源工程與煙火技術;地面武器機動工程;信息對抗技術 17. 工程力學類:工程力學 18. 生物工程類:生物工程 19. 農(nóng)業(yè)工程類:農(nóng)業(yè)機械化及其自動化;農(nóng)業(yè)電氣化與自動化;農(nóng)業(yè)建筑環(huán)境與能源工程;農(nóng)業(yè)水利工程 20. 林業(yè)工程類:森林工程;木材科學與工程;林產(chǎn)化工 21. 公安技術類:刑事科學技術;消防工程 三、農(nóng)學 1. 植物生產(chǎn)類:農(nóng)學;園藝;植物保護;茶學 2. 草業(yè)科學類:草業(yè)科學 3. 森林資源類:林學;森林資源保護與游憩;野生動物與自然保護區(qū)管理 4. 環(huán)境生態(tài)類:園林;水土保持與荒漠化防治;農(nóng)業(yè)資源與環(huán)境 5. 動物生產(chǎn)類:動物科學:蠶學 6. 動物醫(yī)學類:動物醫(yī)學 7. 水產(chǎn)類:水產(chǎn)養(yǎng)殖學;海洋漁業(yè)科學與技術 四、醫(yī)學 1. 基礎醫(yī)學類:基礎醫(yī)學 2. 預防醫(yī)學類:預防醫(yī)學 3. 臨床醫(yī)學與醫(yī)學技術類:臨床醫(yī)學;麻醉學;醫(yī)學影像學;醫(yī)學檢驗 4. 口腔醫(yī)學類:口腔醫(yī)學 5. 中醫(yī)學類:中醫(yī)學;針灸推拿學;蒙醫(yī)學;藏醫(yī)學 6. 法醫(yī)學類:法醫(yī)學 7. 護理學類:護理學 8. 藥學類:藥學;中藥學;藥物制劑

    282贊·56,134瀏覽2017-11-28

    理工學科是什么

    理工學科是指理學和工學兩大學科。理工,是一個廣大的領域包含物理、化學、生物、工程、天文、數(shù)學及前面六大類的各種運用與組合。 理學 理學是中國大學教育中重要的一支學科,是指研究自然物質(zhì)運動基本規(guī)律的科學,大學理科畢業(yè)后通常即成為理學士。與文學、工學、教育學、歷史學等并列,組成了我國的高等教育學科體系。 理學研究的內(nèi)容廣泛,本科專業(yè)通常有:數(shù)學與應用數(shù)學、信息與計算科學、物理學、應用物理學、化學、應用化學、生物科學、生物技術、天文學、地質(zhì)學、地球化學、地理科學、資源環(huán)境與城鄉(xiāng)規(guī)劃管理、地理信息系統(tǒng)、地球物理學、大氣科學、應用氣象學、海洋科學、海洋技術、理論與應用力學、光學、材料物理、材料化學、環(huán)境科學、生態(tài)學、心理學、應用心理學、統(tǒng)計學等。 工學 工學是指工程學科的總稱。包含 儀器儀表 能源動力 電氣信息 交通運輸 海洋工程 輕工紡織 航空航天 力學生物工程 農(nóng)業(yè)工程 林業(yè)工程 公安技術 植物生產(chǎn) 地礦 材料 機械 食品 武器 土建 水利測繪 環(huán)境與安全 化工與制藥 等專業(yè)。

    19贊·559瀏覽2016-08-29

    理工類專業(yè)有哪些

    理工類專業(yè)有: 1、地球化學:地球化學是研究地球的化學組成、化學作用和化學演化的科學,它是地質(zhì)學與化學、物理學相結(jié)合而產(chǎn)生和發(fā)展起來的邊緣學科。自20世紀70年代中期以來,地球化學和地質(zhì)學、地球物理學已成為固體地球科學的三大支柱。它的研究范圍也從地球擴展到月球和太陽系的其他天體。 2、資源環(huán)境與城鄉(xiāng)規(guī)劃管理:《資源環(huán)境與城鄉(xiāng)規(guī)劃管理》是一門綜合性學科,主要學習資源環(huán)境以及城鎮(zhèn)規(guī)劃,土地管理,環(huán)境檢測,以及地理地質(zhì)等相關類知識的邊緣學科。 3、地理信息系統(tǒng):有時又稱為“地學信息系統(tǒng)”。它是一種特定的十分重要的空間信息系統(tǒng)。它是在計算機硬、軟件系統(tǒng)支持下,對整個或部分地球表層(包括大氣層)空間中的有關地理分布數(shù)據(jù)進行采集、儲存、管理、運算、分析、顯示和描述的技術系統(tǒng)。 4、材料物理:材料物理的特色方向在半導體物理,電子材料,微電子器件等領域,例如CPU。對學生的數(shù)學,物理基礎要求較高,著重培養(yǎng)學生發(fā)展新型電子材料和微電子器件工藝,分析與設計等方向的應用能力和創(chuàng)新能力。 5、應用氣象學:應用氣象學是將氣象學的原理、方法和成果應用于農(nóng)業(yè)、水文、航海、航空、軍事、醫(yī)療等方面,同各個專業(yè)學科相結(jié)合而形成的邊緣性學科。 參考資料:理工類專業(yè)-百度百科

    23贊·65,370瀏覽2019-10-25

    理工科專業(yè)包括什么學科 怎么分類

    工程、天文、化學。訂閱 中國搬運站微信公眾號。理工事實上是自然、生物、和科技的統(tǒng)稱、數(shù)學及前面六大類的各種運用與組合的科目您好,了解更多院校信息分類資訊、科學,理工科是一個廣大的領域包含物理

    4贊·47瀏覽2020-04-29

    理工學科包含哪些?

    理工包括理學和工學 1.理學 > 統(tǒng)計學類 > 統(tǒng)計學 心理學類 > 應用心理學專業(yè)經(jīng)濟心理學方向 應用心理學 心理學 環(huán)境科學類 > 環(huán)境工程 資源勘查工程 資源環(huán)境科學 環(huán)境科學與工程 生態(tài)學 環(huán)境科學 材料科學類 > 高分子材料與工程 材料科學與工程 材料成型及控制工程 材料物理 材料學 材料化學 電子信息科學類 > 計算機科學與技術 電子信息工程 信息管理與信息系統(tǒng) 光電子技術科學 測控技術與儀器 電子信息技術及儀器 應用電子技術 通信工程 電子商務及法律 電信工程及管理 系統(tǒng)與控制 電子商務 信息科學技術專業(yè) 電子科學與技術 信息安全專業(yè) 微電子學專業(yè) 光信息科學與技術 電子信息科學與技術 力學類 > 理論與應用力學 海洋科學類 > 海洋技術 海洋科學 大氣科學類 > 應用氣象學 應用氣象學 大氣科學 地球物理學類 > 地球物理學 地理科學類 > 地理教育 系統(tǒng)科學與工程 系統(tǒng)理論 地球信息科學與技術 科學與工程計算系專業(yè) 地理信息系統(tǒng) 資源環(huán)境與城市規(guī)劃管理 地理科學 地質(zhì)學類 > 地質(zhì)工程 地質(zhì)學類 地球化學專業(yè) 地球化學 地質(zhì)學 天文學類 > 天文學 生物科學類 > 生物功能材料 防化兵指揮 生命科學與技術基地班 生物信息學 生化防護工程

    5贊·168瀏覽2017-09-18

    中國電動扳手十大名牌,上天貓電器城,新潮外觀,超高性價比!

    關注電動扳手的都在看

    天貓電器城-中國電動扳手十大名牌,爆款行貨熱賣,高性能超耐用,更多海量數(shù)碼好貨低至9.9起!

    3c.tmall.com廣告

    國家重大工程為什么選用虎嘯牌 電動扳手?

    關注電動扳手的都在看

    虎嘯公司是目前世界上優(yōu)質(zhì)電動扳手制造商之一,1973年開始制造電動扳手。沖擊扳手力矩范圍從50-2000NM, 電動扭矩扳手力矩范圍從80-5000NM

    huxiao.net廣告

    為什么現(xiàn)在的八零后,九零后會有這么多的離異

    隨著社會的不斷發(fā)展,人們越來越有能力獨立的生活,所以在選擇時沒有經(jīng)過深思,一旦發(fā)現(xiàn)不合適,就又選擇離

    162條回答·2,830人在看

    微軟10億美元投資OpenAI,但AI仍然和“天網(wǎng)”無關

    文|李北辰 過去數(shù)年,“AI威脅論”在全球有三位最著名的鼓吹者:物理學家霍金,微軟創(chuàng)始人比爾·蓋茨,“鋼鐵俠”埃隆·馬斯克。而就在不久前,后兩位在AI領域發(fā)生了一次意外的間接關聯(lián)。一顆重磅炸彈,砸向

    779人在看

    男人和女人做夢有什么區(qū)別?

    我的健身男友

    LV.9

    關注

    470,361播放

    中專畢業(yè)怎么上全日制大專

    一般一年開考四次,考試時間在1、4、7、10月,可以根據(jù)自己的時間報考相應科目,大專課程一般在15科

    25條回答·5,774人在看

    “窮死不耕丈人田”后面還有一句,究竟說了什么,可謂是至理名言?

    下一句是“餓死不進蘿卜園”。因為蘿卜吃多了對身體不好,而且去偷蘿卜有傷骨氣,所以人們才由此俗語。古人

    17條回答·3,342人在看

    邁巴赫報價是多少?目前值得入手么?

    梅賽德斯奔馳——邁巴赫,說起來邁巴赫我覺得你應該就是在問S級的吧,畢竟其他的就沒什么意義了,邁巴赫S

    13條回答·1,161人在看

    農(nóng)村俗語“飽暖思淫欲”,后一句是什么,可謂句句在理?

    俗語“飽暖思淫欲”的后一句是:饑寒起盜心。后半句的意思就是說,當一個人窮困潦倒的時候,內(nèi)心就會迸發(fā)出

    18條回答·1,375人在看

    北京工業(yè)大學有哪些知名校友?

    我是工大15級本科生一枚。北京工業(yè)大學自1960年建校以來,知名校友有很多。如果你是一個和我一樣喜歡

    21條回答·2,413人在看

    超威電池與天能電池哪個好?

    易書科技

    致力于圖書出版、影視IP

    關注

    86,304播放

    唐末紛爭時李元吉為何站在大哥李建成這邊,而不是站在二哥李世民這邊?

    因為當時的李元吉野心很大,他想先除掉最大的禍患李世民后,再除掉李建成,然后自己當皇帝。旅客或機組成員為個人自用內(nèi)含鋰或鋰離子電池芯或電池的便攜式電子裝置(鋰電池移動電源、手表、計算器、照相機、手機、手提電腦、便攜式攝像機等)應作為手提行李攜帶登機,并且鋰金屬電池的鋰含量不得超過2克,鋰離子電池的額定能量值不得超過100Wh(瓦特小時)。

    超過100Wh但不超過160Wh的,經(jīng)航空公司批準后可以裝在交運行李或手提行李中的設備上。

    超過160Wh的鋰電池嚴禁攜帶。

    三、ai問答百科誰開發(fā)的

    OpenAI公司。ChatGPT是一個基于自然語言處理技術的AI模型,由OpenAI公司開發(fā)和訓練。它是一個可以進行語言理解和生成的強大模型,可以用于各種任務。

    四、BERT - 論文解讀

    BERT:【 Pre-training of Deep Bidirectional Transformers for

    Language Understanding】

    將預訓練語言模型應用在下游任務中,一般有兩種策略:

    作者認為影響當前預訓練語言模型的 瓶頸是——“模型是單向的” 。如 GPT 選擇從左到右的架構(gòu),這使得每個 token 只能注意到它前面的 token,這對 sentence 級的任務影響還是次要的,但對于 token 級的任務來說影響就很巨大。例如問答任務,從兩個方向結(jié)合上下文是至關重要的。

    BERT 通過使用受完形填空任務啟發(fā)的 Mask Language Model (MLM)緩解了先前模型的單向性約束問題。MLM 隨機 mask 掉一些輸入文本中的 token,然后根據(jù)剩下的上下文預測 masked 的 token。除了 Mask Language Model,作者還提出了 Next Sequence Predict 任務,來聯(lián)合訓練文本對表示。

    論文中BERT的改進如下:

    預訓練前的一般語言表征有著悠久歷史,本節(jié)我們簡要回顧一下最廣泛使用的方法。

    2.1 基于特征的無監(jiān)督方法

    幾十年來,學習廣泛適用的詞匯表征一直是一個活躍的研究領域,包括非神經(jīng)系統(tǒng)、神經(jīng)系統(tǒng)方法。預訓練的詞嵌入是現(xiàn)代NLP系統(tǒng)的一個組成部分,與從頭學習的嵌入相比,它提供了顯著的改進(Turian等人,2010)。為了預先訓練單詞嵌入向量,已經(jīng)使用了從左到右的語言建模目標(Mnih和Hinton,2009),以及在左右上下文中區(qū)分正確單詞和錯誤單詞的目標(Mikolov等人,2013)。

    這些方法已被推廣到更粗糙的粒度,例如句子嵌入(Kiros等人,2015;Logeswaran和Lee,2018)或段落嵌入(Le和Mikolov,2014)。為了訓練句子表征,之前的工作已經(jīng)使用了目標對候選下一個句子進行排序(Jernite等人,2017;Logeswaran和Lee,2018),根據(jù)前一個句子的表征從左到右生成下一個句子單詞(Kiros等人,2015),或去噪自動編碼器衍生的目標(Hill等人,2016)。

    ELMo 及其前身(Peters等人,20172018a)從不同的維度概括了傳統(tǒng)的單詞嵌入研究。它們通過從左到右和從右到左的語言模型中提取上下文敏感的特征。每個標記的上下文表示是從左到右和從右到左表示的 串聯(lián) 。在將上下文單詞嵌入與現(xiàn)有任務特定架構(gòu)相結(jié)合時,ELMo推進了幾個主要NLP基準(Peters等人,2018a)的最新技術,包括問答(Rajpurkar等人,2016年)、情感分析(Socher等人,2013年)和命名實體識別(Tjong Kim-Sang和De Meulder,2003年)。Melamud等人(2016年)提出通過一項任務來學習語境表征,即使用 LSTM 從左右語境中預測單個單詞。與ELMo類似,他們的模型是基于特征的,而不是深度雙向的。Fedus等人(2018)表明,完形填空任務可以用來提高文本生成模型的 穩(wěn)健性

    2.2 無監(jiān)督微調(diào)方法:

    基于特征feature-based 的方法一樣,第一種方法只在未標記文本中預先訓練單詞嵌入?yún)?shù)的情況下才朝這個方向工作。最近,產(chǎn)生上下文標記表示的句子或文檔編碼器已經(jīng)從未標記的文本和文本中預訓練出來針對受監(jiān)督的下游任務進行了 微調(diào)fine-tuned

    這些方法的 優(yōu)點是 ,很少有參數(shù)需要從頭學習。至少部分由于這一優(yōu)勢,OpenAI GPT在GLUE基準測試的許多句子級任務上取得了之前的最新成果。從左到右的語言建模和自動編碼器目標已用于此類模型的預訓練。

    注解 :BERT的整體預訓練和微調(diào)程序。除了輸出層之外,在預訓練和微調(diào)中使用相同的體系結(jié)構(gòu)。相同的預訓練模型參數(shù)用于初始化不同下游任務的模型。在微調(diào)過程中,所有參數(shù)都會微調(diào)。

    2.3 基于監(jiān)督數(shù)據(jù)的遷移學習:

    也有研究表明,在大數(shù)據(jù)集的監(jiān)督任務中,如自然語言推理和機器翻譯可以有效地進行轉(zhuǎn)換。計算機視覺研究也證明了 從大型預訓練模型中進行遷移學習的重要性 ,其中一個有效的方法是對使用ImageNet預訓練模型進行微調(diào)。

    本節(jié)將介紹BERT及其詳細實現(xiàn)。在我們的框架中有兩個步驟:預訓練和微調(diào)。

    BERT的一個顯著特點是其跨不同任務的統(tǒng)一體系結(jié)構(gòu) 。預訓練的體系結(jié)構(gòu)和最終的下游體系結(jié)構(gòu)之間的差異最小。

    BERT 的模型架構(gòu)是 一種多層的雙向 transformer encoder ,BERT 在實現(xiàn)上與 transformer encoder 幾乎完全相同。

    定義:transformer block 的個數(shù)為 L ; hidden 大小為 H; self-attentions head 的個數(shù)為 A. 作者主要展示了兩種規(guī)模的 BERT 模型:

    在這項工作中,我們將層數(shù)(即Transformer blocks)表示為L,隱藏大小表示為H,自我注意頭的數(shù)量表示為A。我們主要報告兩種型號的結(jié)果:

    為了進行比較,選擇BERT-base與OpenAI GPT具有相同的模型大小。然而,關鍵的是, BERT Transformer使用雙向自注意力機制self-attention ,而 GPT Transformer使用受限自注意力機制constrained self-attention ,其中每個標記只能關注其左側(cè)的上下文。

    為了使 BERT 能處理大量不同的下游任務,作者將模型的輸入設計成可以輸入單個句子或句子對,這兩種輸入被建模成同一個 token 序列。作者使用了有 30000 個 token 的 vocabulary 詞嵌入。

    3.1 Pre-training BERT :

    我們不使用傳統(tǒng)的從左到右或從右到左的語言模型來預訓練BERT。相反,我們使用本節(jié)所述的兩個無監(jiān)督任務對BERT進行預訓練。這一步如圖1的左半部分所示。

    Task #1: Masked LM

    標準的語言模型只能實現(xiàn)從左到右或從右到左的訓練,不能實現(xiàn)真正的雙向訓練,這是因為雙向的條件是每個單詞能直接“看到自己”,并且模型可以在多層上下文中輕松的預測出目標詞。

    為了能夠?qū)崿F(xiàn)雙向的深度預訓練,作者選擇 隨機 mask 掉一些比例的 token ,然后預測這些被 masked 的 token,在這種設置下,被 masked 的 token 的隱向量表示被輸出到詞匯表的 softmax 上,這就與標準語言模型設置相同。作者將 這個過程稱為“Masked LM”,也被稱為“完形填空” 。

    ○ Masked LM 預訓練任務的缺點

    在于由于 [MASK] 標記不會出現(xiàn)在微調(diào)階段,這就造成了預訓練和微調(diào)階段的不一致。為了解決該問題,作者提出了 一種折中的方案

    ○ BERT 的 mask策略:

    Task #2: Next Sentence Prediction (NSP)

    很多下游任務都是基于對兩句話之間的關系的理解,語言模型不能直接捕獲這種信息。為了訓練模型理解這種句間關系,作者 設計了 next sentence prediction 的二分類任務 。具體來說,就是選擇兩個句子作為一個訓練樣本,有 50% 的概率是下一句關系,有 50% 的概率是隨機選擇的句子對, 預測將 [CLS] 的最終隱狀態(tài) C 輸入 sigmoid 實現(xiàn) 。

    ○ Pre-training data

    作者選用了BooksCorpus (800M words) 和 English Wikipedia (2,500M words) 作為預訓練的語料庫,作者只選取了 Wikipedia 中的文本段落,忽略了表格、標題等。為了獲取長的連續(xù)文本序列,作者選用了 BIllion Word Benchmark 這樣的文檔級語料庫,而非打亂的句子級語料庫。

    3.2 Fine-tuning BERT

    因為 transformer 中的 self-attention 機制適用于很多下游任務,所以可以直接對模型進行微調(diào)。對于涉及文本對的任務,一般的做法是獨立 encode 文本對,然后再應用雙向的 cross attention 進行交互。Bert 使用 self-attention 機制統(tǒng)一了這兩個階段,該機制直接能夠?qū)崿F(xiàn)兩個串聯(lián)句子的交叉編碼。

    對于不同的任務,只需要簡單地將特定于該任務的輸入輸出插入到 Bert 中,然后進行 end2end 的fine-tuning。

    與預訓練相比,微調(diào)相對便宜。從完全相同的預訓練模型開始,本文中的所有結(jié)果最多可以在單個云TPU上復制1小時,或在GPU上復制幾個小時。

    在本節(jié)中,我們將介紹11個NLP任務的BERT微調(diào)結(jié)果。

    4.1 GLUE:

    GLUE (General Language Understanding Evaluation) 是多個 NLP 任務的集合。作者設置 batch size 為 32;訓練 3 個 epochs;在驗證集上從(5e-5, 4e-5, 3e-5, 2e-5)中選擇最優(yōu)的學習率。結(jié)果如下:

    結(jié)果見表1。 BERT-base和BERT-large在所有任務上都比所有系統(tǒng)表現(xiàn)出色,與現(xiàn)有技術相比,平均準確率分別提高了4.5%和7.0% 。請注意,除了注意掩蔽,BERT-base和OpenAI GPT在模型架構(gòu)方面幾乎相同。

    對于最大和最廣泛報道的GLUE任務MNLI,BERT獲得了4.6%的絕對準確率提高。在官方的GLUE排行榜10中,BERT-lagle獲得80.5分,而OpenAI GPT在撰寫本文之日獲得72.8分。我們發(fā)現(xiàn)BERT-large在所有任務中都顯著優(yōu)于BERT-base,尤其是那些訓練數(shù)據(jù)很少的任務。

    4.2 SQuAD v1.1 :

    斯坦福問答數(shù)據(jù)集(SQuAD v1.1)收集了10萬對眾包問答對。給出一個問題和一段維基百科中包含答案的文章,任務是預測文章中的答案文本。

    如圖1所示,在問答任務中,我們將輸入的問題和段落表示為單個壓縮序列,問題使用A嵌入,段落使用B嵌入。在微調(diào)過程,我們只引入一個起始向量S和一個端向量E。單詞i作為答案范圍開始的概率計算為Ti和S之間的點積,然后是段落中所有單詞的softmax:

    答案范圍結(jié)束時使用類似公式。候選人從位置 i 到位置 j 的得分定義為:S·Ti + E·Tj ,最大得分跨度為 j≥ i 被用作預測。訓練目標是正確起始位置和結(jié)束位置的對數(shù)概率之和。我們微調(diào)了3個階段,學習率為5e-5,批量大小為32。

    表2顯示了頂級排行榜條目以及頂級發(fā)布系統(tǒng)的結(jié)果。SQuAD排行榜的前幾名沒有最新的公共系統(tǒng)描述,并且允許在訓練系統(tǒng)時使用任何公共數(shù)據(jù)。因此,在我們的系統(tǒng)中使用適度的數(shù)據(jù)擴充,首先在TriviaQA上進行微調(diào),然后再對團隊進行微調(diào)。

    我們表現(xiàn)最好的系統(tǒng)在ensembling方面的表現(xiàn)優(yōu)于排名第一的系統(tǒng),在ensembling方面的表現(xiàn)優(yōu)于排名第一的系統(tǒng)+1.5 F1,在單一系統(tǒng)方面的表現(xiàn)優(yōu)于排名第一的系統(tǒng)+1.3 F1得分。事實上,我們的單BERT模型在F1成績方面優(yōu)于頂級合奏系統(tǒng)。如果沒有TriviaQA微調(diào)數(shù)據(jù),我們只會損失0.1-0.4 F1,仍然遠遠超過所有現(xiàn)有系統(tǒng)。

    其他實驗:略

    在本節(jié)中,我們對BERT的許多方面進行了消融實驗,以便更好地了解它們的相對重要性。其他消融研究見附錄C。

    5.1 預訓練任務的效果

    ○ 進行了如下消融測試:

    ○ 結(jié)果如下:

    5.2 模型大小的影響

    ○ 結(jié)果如下:

    作者證明了 :如果模型經(jīng)過充分的預訓練,即使模型尺寸擴展到很大,也能極大改進訓練數(shù)據(jù)規(guī)模較小的下游任務。

    5.3 將 Bert 應用于 Feature-based 的方法

    ○ feature-based 的方法是從預訓練模型中提取固定的特征,不對具體任務進行微調(diào) 。

    ○ 這樣的方法也有一定的優(yōu)點

    作者進行了如下實驗:在 CoNLL-2003 數(shù)據(jù)集上完成 NER 任務,不使用 CRF 輸出,而是從一到多個層中提取出激活值,輸入到 2 層 768 維的 BiLSTM 中,再直接分類。結(jié)果如下:

    結(jié)果說明:無論是否進行微調(diào),Bert 模型都是有效的。

    個人認為 Bert 的意義在于:

    由于語言模型的遷移學習,最近的經(jīng)驗改進表明,豐富的、無監(jiān)督的預訓練是許多語言理解系統(tǒng)的一個組成部分。特別是,這些結(jié)果使得即使是低資源任務也能從深層單向體系結(jié)構(gòu)中受益。我們的主要貢獻是將這些發(fā)現(xiàn)進一步推廣到深層雙向體系結(jié)構(gòu)中,使相同的預訓練模型能夠成功地處理廣泛的NLP任務。

    以上就是關于openai百度百科相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    openai手機注冊(opencom注冊)

    osd景觀設計(topos景觀設計)

    openai的股權(quán)(openai公司上市了嗎)

    棉代表哪個數(shù)字(棉代表數(shù)字幾)

    aigc是什么概念股(ai是什么股票)