HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別(卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別)

    發(fā)布時間:2023-04-17 17:58:01     稿源: 創(chuàng)意嶺    閱讀: 114        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別(卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別)

    一、深度學習與神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    深度學習與神經(jīng)網(wǎng)絡(luò)關(guān)系

    2017-01-10

    最近開始學習深度學習,基本上都是zouxy09博主的文章,寫的蠻好,很全面,也會根據(jù)自己的思路,做下刪減,細化。

    五、Deep Learning的基本思想

    假設(shè)我們有一個系統(tǒng)S,它有n層(S1,…Sn),它的輸入是I,輸出是O,形象地表示為: I =>S1=>S2=>…..=>Sn => O,如果輸出O等于輸入I,即輸入I經(jīng)過這個系統(tǒng)變化之后沒有任何的信息損失(呵呵,大牛說,這是不可能的。信息論中有個“信息逐層丟失”的說法(信息處理不等式),設(shè)處理a信息得到b,再對b處理得到c,那么可以證明:a和c的互信息不會超過a和b的互信息。這表明信息處理不會增加信息,大部分處理會丟失信息。當然了,如果丟掉的是沒用的信息那多好啊),保持了不變,這意味著輸入I經(jīng)過每一層Si都沒有任何的信息損失,即在任何一層Si,它都是原有信息(即輸入I)的另外一種表示?,F(xiàn)在回到我們的主題Deep Learning,我們需要自動地學習特征,假設(shè)我們有一堆輸入I(如一堆圖像或者文本),假設(shè)我們設(shè)計了一個系統(tǒng)S(有n層),我們通過調(diào)整系統(tǒng)中參數(shù),使得它的輸出仍然是輸入I,那么我們就可以自動地獲取得到輸入I的一系列層次特征,即S1,…, Sn。

    對于深度學習來說,其思想就是對堆疊多個層,也就是說這一層的輸出作為下一層的輸入。通過這種方式,就可以實現(xiàn)對輸入信息進行分級表達了。

    另外,前面是假設(shè)輸出嚴格地等于輸入,這個限制太嚴格,我們可以略微地放松這個限制,例如我們只要使得輸入與輸出的差別盡可能地小即可,這個放松會導致另外一類不同的Deep Learning方法。上述就是Deep Learning的基本思想。

    六、淺層學習(Shallow Learning)和深度學習(Deep Learning)

    淺層學習是機器學習的第一次浪潮。

    20世紀80年代末期,用于人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(也叫Back Propagation算法或者BP算法)的發(fā)明,給機器學習帶來了希望,掀起了基于統(tǒng)計模型的機器學習熱潮。這個熱潮一直持續(xù)到今天。人們發(fā)現(xiàn),利用BP算法可以讓一個人工神經(jīng)網(wǎng)絡(luò)模型從大量訓練樣本中學習統(tǒng)計規(guī)律,從而對未知事件做預測。這種基于統(tǒng)計的機器學習方法比起過去基于人工規(guī)則的系統(tǒng),在很多方面顯出優(yōu)越性。這個時候的人工神經(jīng)網(wǎng)絡(luò),雖也被稱作多層感知機(Multi-layer Perceptron),但實際是種只含有一層隱層節(jié)點的淺層模型。

    20世紀90年代,各種各樣的淺層機器學習模型相繼被提出,例如支撐向量機(SVM,Support Vector Machines)、 Boosting、最大熵方法(如LR,Logistic Regression)等。這些模型的結(jié)構(gòu)基本上可以看成帶有一層隱層節(jié)點(如SVM、Boosting),或沒有隱層節(jié)點(如LR)。這些模型無論是在理論分析還是應(yīng)用中都獲得了巨大的成功。相比之下,由于理論分析的難度大,訓練方法又需要很多經(jīng)驗和技巧,這個時期淺層人工神經(jīng)網(wǎng)絡(luò)反而相對沉寂。

    深度學習是機器學習的第二次浪潮。

    2006年,加拿大多倫多大學教授、機器學習領(lǐng)域的泰斗Geoffrey Hinton和他的學生RuslanSalakhutdinov在《科學》上發(fā)表了一篇文章,開啟了深度學習在學術(shù)界和工業(yè)界的浪潮。這篇文章有兩個主要觀點:1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學習能力,學習得到的特征對數(shù)據(jù)有更本質(zhì)的刻畫,從而有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓練上的難度,可以通過“逐層初始化”(layer-wise pre-training)來有效克服,在這篇文章中,逐層初始化是通過無監(jiān)督學習實現(xiàn)的。

    當前多數(shù)分類、回歸等學習方法為淺層結(jié)構(gòu)算法,其局限性在于有限樣本和計算單元情況下對復雜函數(shù)的表示能力有限,針對復雜分類問題其泛化能力受到一定制約。深度學習可通過學習一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)復雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強大的從少數(shù)樣本集中學習數(shù)據(jù)集本質(zhì)特征的能力。(多層的好處是可以用較少的參數(shù)表示復雜的函數(shù))

    神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別(卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別)

    深度學習的實質(zhì),是通過構(gòu)建具有很多隱層的機器學習模型和海量的訓練數(shù)據(jù),來學習更有用的特征,從而最終提升分類或預測的準確性。因此,“深度模型”是手段,“特征學習”是目的。區(qū)別于傳統(tǒng)的淺層學習,深度學習的不同在于:1)強調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點;2)明確突出了特征學習的重要性,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預測更加容易。與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來學習特征,更能夠刻畫數(shù)據(jù)的豐富內(nèi)在信息。

    七、Deep learning與Neural Network

    深度學習是機器學習研究中的一個新的領(lǐng)域,其動機在于建立、模擬人腦進行分析學習的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機制來解釋數(shù)據(jù),例如圖像,聲音和文本。深度學習是無監(jiān)督學習的一種。

    深度學習的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學習結(jié)構(gòu)。深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。

    Deep learning本身算是machine learning的一個分支,簡單可以理解為neural network的發(fā)展。大約二三十年前,neural network曾經(jīng)是ML領(lǐng)域特別火熱的一個方向,但是后來確慢慢淡出了,原因包括以下幾個方面:

    1)比較容易過擬合,參數(shù)比較難tune,而且需要不少trick;

    2)訓練速度比較慢,在層次比較少(小于等于3)的情況下效果并不比其它方法更優(yōu);

    所以中間有大約20多年的時間,神經(jīng)網(wǎng)絡(luò)被關(guān)注很少,這段時間基本上是SVM和boosting算法的天下。但是,一個癡心的老先生Hinton,他堅持了下來,并最終(和其它人一起B(yǎng)engio、Yann.lecun等)提成了一個實際可行的deep learning框架。

    Deep learning與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)之間有相同的地方也有很多不同。

    二者的相同在于deep learning采用了神經(jīng)網(wǎng)絡(luò)相似的分層結(jié)構(gòu),系統(tǒng)由包括輸入層、隱層(多層)、輸出層組成的多層網(wǎng)絡(luò),只有相鄰層節(jié)點之間有連接,同一層以及跨層節(jié)點之間相互無連接,每一層可以看作是一個logistic regression模型;這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。

    神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別(卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別)

    而為了克服神經(jīng)網(wǎng)絡(luò)訓練中的問題,DL采用了與神經(jīng)網(wǎng)絡(luò)很不同的訓練機制。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(這里作者主要指前向神經(jīng)網(wǎng)絡(luò))中,采用的是back propagation的方式進行,簡單來講就是采用迭代的算法來訓練整個網(wǎng)絡(luò),隨機設(shè)定初值,計算當前網(wǎng)絡(luò)的輸出,然后根據(jù)當前輸出和label之間的差去改變前面各層的參數(shù),直到收斂(整體是一個梯度下降法)。而deep learning整體上是一個layer-wise的訓練機制。這樣做的原因是因為,如果采用back propagation的機制,對于一個deep network(7層以上),殘差傳播到最前面的層已經(jīng)變得太小,出現(xiàn)所謂的gradient diffusion(梯度擴散)。這個問題我們接下來討論。

    八、Deep learning訓練過程

    8.1、傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)

    BP算法作為傳統(tǒng)訓練多層網(wǎng)絡(luò)的典型算法,實際上對僅含幾層網(wǎng)絡(luò),該訓練方法就已經(jīng)很不理想。深度結(jié)構(gòu)(涉及多個非線性處理單元層)非凸目標代價函數(shù)中普遍存在的局部最小是訓練困難的主要來源。

    BP算法存在的問題:

    (1)梯度越來越稀疏:從頂層越往下,誤差校正信號越來越小;

    (2)收斂到局部最小值:尤其是從遠離最優(yōu)區(qū)域開始的時候(隨機值初始化會導致這種情況的發(fā)生);

    (3)一般,我們只能用有標簽的數(shù)據(jù)來訓練:但大部分的數(shù)據(jù)是沒標簽的,而大腦可以從沒有標簽的的數(shù)據(jù)中學習;

    8.2、deep learning訓練過程

    如果對所有層同時訓練,時間復雜度會太高;如果每次訓練一層,偏差就會逐層傳遞。這會面臨跟上面監(jiān)督學習中相反的問題,會嚴重欠擬合(因為深度網(wǎng)絡(luò)的神經(jīng)元和參數(shù)太多了)。

    2006年,hinton提出了在非監(jiān)督數(shù)據(jù)上建立多層神經(jīng)網(wǎng)絡(luò)的一個有效方法,簡單的說,分為兩步,一是每次訓練一層網(wǎng)絡(luò),二是調(diào)優(yōu),使原始表示x向上生成的高級表示r和該高級表示r向下生成的x'盡可能一致。方法是:

    1)首先逐層構(gòu)建單層神經(jīng)元,這樣每次都是訓練一個單層網(wǎng)絡(luò)。

    2)當所有層訓練完后,Hinton使用wake-sleep算法進行調(diào)優(yōu)。

    將除最頂層的其它層間的權(quán)重變?yōu)殡p向的,這樣最頂層仍然是一個單層神經(jīng)網(wǎng)絡(luò),而其它層則變?yōu)榱藞D模型。向上的權(quán)重用于“認知”,向下的權(quán)重用于“生成”。然后使用Wake-Sleep算法調(diào)整所有的權(quán)重。讓認知和生成達成一致,也就是保證生成的最頂層表示能夠盡可能正確的復原底層的結(jié)點。比如頂層的一個結(jié)點表示人臉,那么所有人臉的圖像應(yīng)該激活這個結(jié)點,并且這個結(jié)果向下生成的圖像應(yīng)該能夠表現(xiàn)為一個大概的人臉圖像。Wake-Sleep算法分為醒(wake)和睡(sleep)兩個部分。

    1)wake階段:認知過程,通過外界的特征和向上的權(quán)重(認知權(quán)重)產(chǎn)生每一層的抽象表示(結(jié)點狀態(tài)),并且使用梯度下降修改層間的下行權(quán)重(生成權(quán)重)。也就是“如果現(xiàn)實跟我想象的不一樣,改變我的權(quán)重使得我想象的東西就是這樣的”。

    2)sleep階段:生成過程,通過頂層表示(醒時學得的概念)和向下權(quán)重,生成底層的狀態(tài),同時修改層間向上的權(quán)重。也就是“如果夢中的景象不是我腦中的相應(yīng)概念,改變我的認知權(quán)重使得這種景象在我看來就是這個概念”。

    deep learning訓練過程具體如下:

    1)使用自下上升非監(jiān)督學習(就是從底層開始,一層一層的往頂層訓練):

    采用無標定數(shù)據(jù)(有標定數(shù)據(jù)也可)分層訓練各層參數(shù),這一步可以看作是一個無監(jiān)督訓練過程,是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分(這個過程可以看作是feature learning過程):

    具體的,先用無標定數(shù)據(jù)訓練第一層,訓練時先學習第一層的參數(shù)(這一層可以看作是得到一個使得輸出和輸入差別最小的三層神經(jīng)網(wǎng)絡(luò)的隱層),由于模型capacity的限制以及稀疏性約束,使得得到的模型能夠?qū)W習到數(shù)據(jù)本身的結(jié)構(gòu),從而得到比輸入更具有表示能力的特征;在學習得到第n-1層后,將n-1層的輸出作為第n層的輸入,訓練第n層,由此分別得到各層的參數(shù);

    2)自頂向下的監(jiān)督學習(就是通過帶標簽的數(shù)據(jù)去訓練,誤差自頂向下傳輸,對網(wǎng)絡(luò)進行微調(diào)):

    基于第一步得到的各層參數(shù)進一步fine-tune整個多層模型的參數(shù),這一步是一個有監(jiān)督訓練過程;第一步類似神經(jīng)網(wǎng)絡(luò)的隨機初始化初值過程,由于DL的第一步不是隨機初始化,而是通過學習輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個初值更接近全局最優(yōu),從而能夠取得更好的效果;所以deep learning效果好很大程度上歸功于第一步的feature learning過程。

    二、深度學習與神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    深度學習的概念是讓計算機從經(jīng)驗中學習,并根據(jù)層次化的概念體系來理解世界。

    而神經(jīng)網(wǎng)絡(luò),可以理解為只是一種實現(xiàn)深度學習的算法。

    嚴格意義上不能將兩者等同,但是現(xiàn)在神經(jīng)網(wǎng)絡(luò)好像也是唯一的手段.....

    三、“深度學習”和“多層神經(jīng)網(wǎng)絡(luò)”的區(qū)別

    “深度學習”和“多層神經(jīng)網(wǎng)絡(luò)”不存在區(qū)別關(guān)系。深度學習的網(wǎng)絡(luò)結(jié)構(gòu)是多層神經(jīng)網(wǎng)絡(luò)的一種。深度學習中最著名的卷積神經(jīng)網(wǎng)絡(luò)CNN,在原來多層神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,加入了特征學習部分,這部分是模仿人腦對信號處理上的分級的。廣義上說深度學習的網(wǎng)絡(luò)結(jié)構(gòu)也是多層神經(jīng)網(wǎng)絡(luò)的一種。傳統(tǒng)意義上的多層神經(jīng)網(wǎng)絡(luò)是只有輸入層、隱藏層、輸出層。其中隱藏層的層數(shù)根據(jù)需要而定,沒有明確的理論推導來說明到底多少層合適。而深度學習中最著名的卷積神經(jīng)網(wǎng)絡(luò)CNN,在原來多層神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,加入了特征學習部分,這部分是模仿人腦對信號處理上的分級的。具體操作就是在原來的全連接的層前面加入了部分連接的卷積層與降維層,而且加入的是一個層級。輸入層-卷積層-降維層-卷積層-降維層--.--隱藏層-輸出層簡單來說,原來多層神經(jīng)網(wǎng)絡(luò)做的步驟是:特征映射到值。特征是人工挑選。深度學習做的步驟是信號->特征->值。特征是由網(wǎng)絡(luò)自己選擇。需要使用深度學習解決的問題有以下的特征:深度不足會出現(xiàn)問題。人腦具有一個深度結(jié)構(gòu)。認知過程逐層進行,逐步抽象。深度學習的核心思想:把學習結(jié)構(gòu)看作一個網(wǎng)絡(luò),則深度學習的核心思路如下:①無監(jiān)督學習用于每一層網(wǎng)絡(luò)的pre-train;②每次用無監(jiān)督學習只訓練一層,將其訓練結(jié)果作為其高一層的輸入;③用自頂而下的監(jiān)督算法去調(diào)整所有層

    四、人工智能,機器學習,神經(jīng)網(wǎng)絡(luò),深度神經(jīng)網(wǎng)絡(luò)之間的關(guān)系是什么?

    這些概念大家經(jīng)常碰到,可能會有一些混淆,我這里解釋下。

                           神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別(卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別)

    人工智能,顧名思義ArtificialIntelligence,縮寫是大家熟知的AI。是讓計算機具備人類擁有的能力——感知、學習、記憶、推理、決策等。細分的話,機器感知包括機器視覺、NLP,學習有模式識別、機器學習、增強學習、遷移學習等,記憶如知識表示,決策包括規(guī)劃、數(shù)據(jù)挖掘、專家系統(tǒng)等。上述劃分可能會有一定邏輯上的重疊,但更利于大家理解。

    其中,機器學習(MachineLearning,ML)逐漸成為熱門學科,主要目的是設(shè)計和分析一些學習算法,讓計算機從數(shù)據(jù)中獲得一些決策函數(shù),從而可以幫助人們解決一些特定任務(wù),提高效率。它的研究領(lǐng)域涉及了概率論、統(tǒng)計學、逼近論、凸分析、計算復雜性理論等多門學科。

    神經(jīng)網(wǎng)絡(luò),主要指人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeural Network,ANN),是機器學習算法中比較接近生物神經(jīng)網(wǎng)絡(luò)特性的數(shù)學模型。通過模擬人類神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和功能,由大量“神經(jīng)元”構(gòu)成了一個復雜的神經(jīng)網(wǎng)絡(luò),模擬神經(jīng)元的刺激和抑制的過程,最終完成復雜運算。

    深度神經(jīng)網(wǎng)絡(luò),大家可以理解為更加復雜的神經(jīng)網(wǎng)絡(luò),隨著深度學習的快速發(fā)展,它已經(jīng)超越了傳統(tǒng)的多層感知機神經(jīng)網(wǎng)絡(luò),而擁有對空間結(jié)構(gòu)進行處理(卷積神經(jīng)網(wǎng)絡(luò))和時間序列進行處理(遞歸神經(jīng)網(wǎng)絡(luò))的能力。

    所以上面的四種概念中,人工智能是最寬泛的概念,機器學習是其中最重要的學科,神經(jīng)網(wǎng)絡(luò)是機器學習的一種方式,而深度神經(jīng)網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)的加強版。記住這個即可。

    以上就是關(guān)于神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    圖神經(jīng)網(wǎng)絡(luò)有哪些用途

    神經(jīng)網(wǎng)絡(luò)多分類(神經(jīng)網(wǎng)絡(luò)多分類問題)

    腰椎間盤突出壓迫神經(jīng)腿疼怎么治(腰椎間盤突出壓迫神經(jīng)腿疼怎么治嚴重嗎)

    全國211排名最新(全國211排名最新名單公布)

    煮鍋排行榜(煮鍋品牌排行榜前十名)