HOME 首頁
SERVICE 服務產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務案例
NEWS 熱點資訊
ABOUT 關于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    發(fā)布時間:2023-04-19 08:01:54     稿源: 創(chuàng)意嶺    閱讀: 86        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于神經(jīng)網(wǎng)絡反向傳播原理的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    一、神經(jīng)網(wǎng)絡算法原理

    4.2.1 概述

    人工神經(jīng)網(wǎng)絡的研究與計算機的研究幾乎是同步發(fā)展的。1943年心理學家McCulloch和數(shù)學家Pitts合作提出了形式神經(jīng)元的數(shù)學模型,20世紀50年代末,Rosenblatt提出了感知器模型,1982年,Hopfiled引入了能量函數(shù)的概念提出了神經(jīng)網(wǎng)絡的一種數(shù)學模型,1986年,Rumelhart及LeCun等學者提出了多層感知器的反向傳播算法等。

    神經(jīng)網(wǎng)絡技術在眾多研究者的努力下,理論上日趨完善,算法種類不斷增加。目前,有關神經(jīng)網(wǎng)絡的理論研究成果很多,出版了不少有關基礎理論的著作,并且現(xiàn)在仍是全球非線性科學研究的熱點之一。

    神經(jīng)網(wǎng)絡是一種通過模擬人的大腦神經(jīng)結構去實現(xiàn)人腦智能活動功能的信息處理系統(tǒng),它具有人腦的基本功能,但又不是人腦的真實寫照。它是人腦的一種抽象、簡化和模擬模型,故稱之為人工神經(jīng)網(wǎng)絡(邊肇祺,2000)。

    人工神經(jīng)元是神經(jīng)網(wǎng)絡的節(jié)點,是神經(jīng)網(wǎng)絡的最重要組成部分之一。目前,有關神經(jīng)元的模型種類繁多,最常用最簡單的模型是由閾值函數(shù)、Sigmoid 函數(shù)構成的模型(圖 4-3)。

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    圖4-3 人工神經(jīng)元與兩種常見的輸出函數(shù)

    神經(jīng)網(wǎng)絡學習及識別方法最初是借鑒人腦神經(jīng)元的學習識別過程提出的。輸入?yún)?shù)好比神經(jīng)元接收信號,通過一定的權值(相當于刺激神經(jīng)興奮的強度)與神經(jīng)元相連,這一過程有些類似于多元線性回歸,但模擬的非線性特征是通過下一步驟體現(xiàn)的,即通過設定一閾值(神經(jīng)元興奮極限)來確定神經(jīng)元的興奮模式,經(jīng)輸出運算得到輸出結果。經(jīng)過大量樣本進入網(wǎng)絡系統(tǒng)學習訓練之后,連接輸入信號與神經(jīng)元之間的權值達到穩(wěn)定并可最大限度地符合已經(jīng)經(jīng)過訓練的學習樣本。在被確認網(wǎng)絡結構的合理性和學習效果的高精度之后,將待預測樣本輸入?yún)?shù)代入網(wǎng)絡,達到參數(shù)預測的目的。

    4.2.2 反向傳播算法(BP法)

    發(fā)展到目前為止,神經(jīng)網(wǎng)絡模型不下十幾種,如前饋神經(jīng)網(wǎng)絡、感知器、Hopfiled 網(wǎng)絡、徑向基函數(shù)網(wǎng)絡、反向傳播算法(BP法)等,但在儲層參數(shù)反演方面,目前比較成熟比較流行的網(wǎng)絡類型是誤差反向傳播神經(jīng)網(wǎng)絡(BP-ANN)。

    BP網(wǎng)絡是在前饋神經(jīng)網(wǎng)絡的基礎上發(fā)展起來的,始終有一個輸入層(它包含的節(jié)點對應于每個輸入變量)和一個輸出層(它包含的節(jié)點對應于每個輸出值),以及至少有一個具有任意節(jié)點數(shù)的隱含層(又稱中間層)。在 BP-ANN中,相鄰層的節(jié)點通過一個任意初始權值全部相連,但同一層內(nèi)各節(jié)點間互不相連。對于 BP-ANN,隱含層和輸出層節(jié)點的基函數(shù)必須是連續(xù)的、單調(diào)遞增的,當輸入趨于正或負無窮大時,它應該接近于某一固定值,也就是說,基函數(shù)為“S”型(Kosko,1992)。BP-ANN 的訓練是一個監(jiān)督學習過程,涉及兩個數(shù)據(jù)集,即訓練數(shù)據(jù)集和監(jiān)督數(shù)據(jù)集。

    給網(wǎng)絡的輸入層提供一組輸入信息,使其通過網(wǎng)絡而在輸出層上產(chǎn)生逼近期望輸出的過程,稱之為網(wǎng)絡的學習,或稱對網(wǎng)絡進行訓練,實現(xiàn)這一步驟的方法則稱為學習算法。BP網(wǎng)絡的學習過程包括兩個階段:第一個階段是正向過程,將輸入變量通過輸入層經(jīng)隱層逐層計算各單元的輸出值;第二階段是反向傳播過程,由輸出誤差逐層向前算出隱層各單元的誤差,并用此誤差修正前層權值。誤差信息通過網(wǎng)絡反向傳播,遵循誤差逐步降低的原則來調(diào)整權值,直到達到滿意的輸出為止。網(wǎng)絡經(jīng)過學習以后,一組合適的、穩(wěn)定的權值連接權被固定下來,將待預測樣本作為輸入層參數(shù),網(wǎng)絡經(jīng)過向前傳播便可以得到輸出結果,這就是網(wǎng)絡的預測。

    反向傳播算法主要步驟如下:首先選定權系數(shù)初始值,然后重復下述過程直至收斂(對各樣本依次計算)。

    (1)從前向后各層計算各單元Oj

    儲層特征研究與預測

    (2)對輸出層計算δj

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    儲層特征研究與預測

    (3)從后向前計算各隱層δj

    儲層特征研究與預測

    (4)計算并保存各權值修正量

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    儲層特征研究與預測

    (5)修正權值

    神經(jīng)網(wǎng)絡反向傳播原理(神經(jīng)網(wǎng)絡反向傳播原理圖)

    儲層特征研究與預測

    以上算法是對每個樣本作權值修正,也可以對各個樣本計算δj后求和,按總誤差修正權值。

    二、解讀反向傳播算法(BackPropagation)

    冒泡~周末愉快鴨!

    舉個例子:

    如下圖所示,這是 帶有一個隱層的三層神經(jīng)網(wǎng)絡 ,

    -小女孩→隱藏層節(jié)點

    -小黃帽→輸出層節(jié)點

    -哆啦A夢→誤差

    小女孩左側接受輸入信號,經(jīng)過隱層節(jié)點產(chǎn)生輸出結果,哆啦A夢則指導參數(shù)往更優(yōu)的方向調(diào)整。 由于哆啦A夢可以直接將誤差反饋給小黃帽,所以與小黃帽直接相連的左側參數(shù)矩陣可以直接通過誤差進行參數(shù)優(yōu)化(實縱線);而與小女孩直接相連的左側參數(shù)矩陣由于不能得到哆啦A夢的直接反饋而不能直接被優(yōu)化(虛棕線)。但由于反向傳播算法使得哆啦A夢的反饋可以被傳遞到小女孩那進而產(chǎn)生間接誤差,所以與小女孩直接相連的左側權重矩陣可以通過間接誤差得到權重更新,迭代幾輪,誤差會降低到最小。( 也就是說小男孩得到的是直接誤差,小女孩是間接誤差

    接下來將用例子演示整個過程

    假設有下圖這樣一個帶權值的網(wǎng)絡層,第一層是輸入層,包含兩個神經(jīng)元i1,i2,和截距項b1;第二層是隱含層,包含兩個神經(jīng)元h1,h4和截距項b2,第三層是輸出o1,o2,每條線上標的wi是層與層之間連接的權重,激活函數(shù)我們默認為sigmoid函數(shù)。

    通過前向傳播我們得到輸出值為[0.75136079 , 0.772928465],與實際值[0.01 , 0.99]相差還很遠,接下來我們對誤差進行反向傳播,更新權值,重新計算輸出。

    3.輸入層---->隱含層的權值更新:

    在上文計算總誤差對w5的偏導時,是從out(o1)---->net(o1)---->w5,但是在隱含層之間的權值更新時,是out(h1)---->net(h1)---->w1,而out(h1)會接受E(o1)和E(o2)兩個地方傳來的誤差,所以這個地方兩個都要計算。

    根據(jù)BP算法的過程演示,可以得到BP算法的一般過程:

    1. 正向傳播FP(求損失)

    此過程中,我們根據(jù)輸入的樣本、給定的初始化權重值W和偏置項的值b, 計算最終輸出值以及輸出值與實際值之間的損失值。( 注意:如果損失值不在給定的范圍內(nèi)則進行接下來反向傳播的過程, 否則停止W,b的更新。

    2.反向傳播BP(回傳誤差)

    將輸出以某種形式通過隱層向輸入層逐層反傳,并將誤差分攤給各層的所有單元,從而獲得各層單元的誤差信號,此誤差信號即作為修正各單元權值的依據(jù)。( 主要為: ①隱層到輸出層的參數(shù)W的更新 ②從輸入層到隱層的參數(shù)W的更新。

    Ending~理解計算和公式還是很重要的鴨!

    三、神經(jīng)網(wǎng)絡預測原理!

    Back Propagation BP (Back Propagation)神經(jīng)網(wǎng)絡,即誤差反傳誤差反向傳播算法的學習過程,由信息的正向傳播和誤差的反向傳播兩個過程組成。輸入層各神經(jīng)元負責接收來自外界的輸入信息,并傳遞給中間層各神經(jīng)元;中間層是內(nèi)部信息處理層,負責信息變換,根據(jù)信息變化能力的需求,中間層(隱含層)可以設計為單隱層或者多隱層結構;最后一個隱層傳遞到輸出層各神經(jīng)元的信息,經(jīng)進一步處理后,完成一次學習的正向傳播處理過程,由輸出層向外界輸出信息處理結果。神經(jīng)網(wǎng)絡很多種,BP神經(jīng)網(wǎng)絡最常用。

    四、BP神經(jīng)網(wǎng)絡(誤差反傳網(wǎng)絡)

    雖然每個人工神經(jīng)元很簡單,但是只要把多個人工

    神經(jīng)元按一定方式連接起來就構成了一個能處理復雜信息的神經(jīng)網(wǎng)絡。采用BP算法的多層前饋網(wǎng)絡是目前應用最廣泛的神經(jīng)網(wǎng)絡,稱之為BP神經(jīng)網(wǎng)絡。它的最大功能就是能映射復雜的非線性函數(shù)關系。

    對于已知的模型空間和數(shù)據(jù)空間,我們知道某個模型和他對應的數(shù)據(jù),但是無法寫出它們之間的函數(shù)關系式,但是如果有大量的一一對應的模型和數(shù)據(jù)樣本集合,利用BP神經(jīng)網(wǎng)絡可以模擬(映射)它們之間的函數(shù)關系。

    一個三層BP網(wǎng)絡如圖8.11所示,分為輸入層、隱層、輸出層。它是最常用的BP網(wǎng)絡。理論分析證明三層網(wǎng)絡已經(jīng)能夠表達任意復雜的連續(xù)函數(shù)關系了。只有在映射不連續(xù)函數(shù)時(如鋸齒波)才需要兩個隱層[8]。

    圖8.11中,X=(x1,…,xi,…,xn)T為輸入向量,如加入x0=-1,可以為隱層神經(jīng)元引入閥值;隱層輸出向量為:Y=(y1,…,yi,…,ym)T,如加入y0=-1,可以為輸出層神經(jīng)元引入閥值;輸出層輸出向量為:O=(o1,…,oi,…,ol)T;輸入層到隱層之間的權值矩陣用V表示,V=(V1,…,Vj,…,Vl)T,其中列向量Vj表示隱層第j個神經(jīng)元的權值向量;隱層到輸出層之間的權值矩陣用W表示,W=(W1,…,Wk,…,Wl)T,

    其中列向量Wk表示輸出層第k個神經(jīng)元的權值向量。

    圖8.11 三層BP網(wǎng)絡[8]

    BP算法的基本思想是:預先給定一一對應的輸入輸出樣本集。學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。正向傳播時,輸入樣本從輸入層傳入,經(jīng)過各隱層逐層處理后,傳向輸出層。若輸出層的實際輸出與期望的輸出(教師信號)不符,則轉(zhuǎn)入誤差的反向傳播。將輸出誤差以某種形式通過隱層向輸入層逐層反傳,并將誤差分攤給各層的所有神經(jīng)元,獲得各層的誤差信號,用它們可以對各層的神經(jīng)元的權值進行調(diào)整(關于如何修改權值參見韓立群著作[8]),循環(huán)不斷地利用輸入輸出樣本集進行權值調(diào)整,以使所有輸入樣本的輸出誤差都減小到滿意的精度。這個過程就稱為網(wǎng)絡的學習訓練過程。當網(wǎng)絡訓練完畢后,它相當于映射(表達)了輸入輸出樣本之間的函數(shù)關系。

    在地球物理勘探中,正演過程可以表示為如下函數(shù):

    d=f(m) (8.31)

    它的反函數(shù)為

    m=f-1(d) (8.32)

    如果能夠獲得這個反函數(shù),那么就解決了反演問題。一般來說,難以寫出這個反函數(shù),但是我們可以用BP神經(jīng)網(wǎng)絡來映射這個反函數(shù)m=f-1(d)。對于地球物理反問題,如果把觀測數(shù)據(jù)當作輸入數(shù)據(jù),模型參數(shù)當作輸出數(shù)據(jù),事先在模型空間隨機產(chǎn)生大量樣本進行正演計算,獲得對應的觀測數(shù)據(jù)樣本,利用它們對BP網(wǎng)絡進行訓練,則訓練好的網(wǎng)絡就相當于是地球物理數(shù)據(jù)方程的反函數(shù)??梢杂盟M行反演,輸入觀測數(shù)據(jù),網(wǎng)絡就會輸出它所對應的模型。

    BP神經(jīng)網(wǎng)絡在能夠進行反演之前需要進行學習訓練。訓練需要大量的樣本,產(chǎn)生這些樣本需要大量的正演計算,此外在學習訓練過程也需要大量的時間。但是BP神經(jīng)網(wǎng)絡一旦訓練完畢,在反演中的計算時間可以忽略。

    要想使BP神經(jīng)網(wǎng)絡比較好地映射函數(shù)關系,需要有全面代表性的樣本,但是由于模型空間的無限性,難以獲得全面代表性的樣本集合。用這樣的樣本訓練出來的BP網(wǎng)絡,只能反映樣本所在的較小范圍數(shù)據(jù)空間和較小范圍模型空間的函數(shù)關系。對于超出它們的觀測數(shù)據(jù)就無法正確反演。目前BP神經(jīng)網(wǎng)絡在一維反演有較多應用,在二維、三維反演應用較少,原因就是難以產(chǎn)生全面代表性的樣本空間。

    以上就是關于神經(jīng)網(wǎng)絡反向傳播原理相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    深度神經(jīng)網(wǎng)絡結構(深度神經(jīng)網(wǎng)絡結構概述)

    神經(jīng)網(wǎng)絡誤差反向傳播(神經(jīng)網(wǎng)絡誤差反向傳播算法)

    神經(jīng)網(wǎng)絡種類(神經(jīng)網(wǎng)絡種類和特點)

    農(nóng)商行網(wǎng)點是做什么的

    百度視頻突然和以前不一樣了(百度視頻突然和以前不一樣了怎么辦)