-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
ai神經(jīng)網(wǎng)絡(luò)算法(ai神經(jīng)網(wǎng)絡(luò)算法智能車)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于ai神經(jīng)網(wǎng)絡(luò)算法的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、制作ai神經(jīng)網(wǎng)絡(luò)能買錢嗎
能。神經(jīng)網(wǎng)絡(luò)是一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法數(shù)學(xué)模型。神經(jīng)網(wǎng)絡(luò)被用于從物流、客戶支持到電子商務(wù)零售的各個(gè)領(lǐng)域,所以是能的。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,從而達(dá)到處理信息的目的。
二、薩摩耶云:模型數(shù)據(jù)升維,AI決策“破圈”
本刊訊 人類對(duì)人工智能的想象和 探索 ,從未止步。
隨著數(shù)據(jù)、算法、算力能力提升,人工智能的應(yīng)用場(chǎng)景深入到生活的方方面面。我們?cè)谒阉饕嫔陷斎腙P(guān)鍵詞后,網(wǎng)頁會(huì)自動(dòng)匹配相關(guān)搜索內(nèi)容;短視頻App能根據(jù)我們的瀏覽習(xí)慣,推送相似的博主和場(chǎng)景;對(duì)著智能手機(jī)等移動(dòng)終端喊話,便能調(diào)用相關(guān)功能,實(shí)現(xiàn)人機(jī)交互。
以人工智能為代表的數(shù)字化產(chǎn)業(yè)快速向前推進(jìn),產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型也成為不可逆的趨勢(shì),各行各業(yè)都在尋求與自身商業(yè)模式相匹配的AI大腦。AI決策能力,正是AI大腦的內(nèi)核,它決定了AI解決方案的效率和可執(zhí)行性。
AI決策由模型性能決定,而模型性能的好壞,離不開人工智能三駕馬車的拉動(dòng)——數(shù)據(jù)、算法、算力。其中,數(shù)據(jù)在模型搭建過程中起基礎(chǔ)性作用,一個(gè)模型的優(yōu)劣,百分之八十取決于數(shù)據(jù)和樣本的維度,正如巧婦難為無米之炊。
因此,數(shù)據(jù)提升對(duì)于模型優(yōu)化有著基礎(chǔ)性、全局性的作用,而數(shù)據(jù)與模型也是AI系統(tǒng)的重要組成部分。目前,AI模型開發(fā)及應(yīng)用難點(diǎn),主要在于數(shù)據(jù)應(yīng)用和算法創(chuàng)新上,其中,后者更多體現(xiàn)的是建模方法的適當(dāng)性。
數(shù)據(jù)應(yīng)用維度不足。從AI決策的模型發(fā)展現(xiàn)狀來看,當(dāng)前很多模型僅僅是基于二維的數(shù)據(jù)組織形式來構(gòu)建,沒有考慮到數(shù)據(jù)在完整周期中的時(shí)間節(jié)點(diǎn)變化。最終容易導(dǎo)致模型的辨識(shí)度、準(zhǔn)確度、穩(wěn)定性失衡,AI決策效果大打折扣。
例如,在視頻推薦和電商推薦場(chǎng)景中,如果模型僅是在用戶賬戶、行為屬性、社交記錄、交易結(jié)果等標(biāo)準(zhǔn)數(shù)據(jù)集上構(gòu)建和優(yōu)化,沒有納入用戶在決策過程中的重要時(shí)間節(jié)點(diǎn)下的行為表現(xiàn),可能就會(huì)使模型效果過于擬合,不能夠精準(zhǔn)地預(yù)判用戶喜好以及交易風(fēng)險(xiǎn)控制。
一般來講,二維數(shù)據(jù)的維度主要表現(xiàn)為樣本維度和特征維度。樣本維度常常為用戶ID信息或者是訂單編號(hào),特征維度則為用戶人口屬性、行為屬性、外部資信等信息。二維數(shù)據(jù)模式下,用戶在每個(gè)時(shí)間點(diǎn)只對(duì)應(yīng)一條變量。
回到實(shí)際業(yè)務(wù)場(chǎng)景,用戶在不同的時(shí)間節(jié)點(diǎn)會(huì)呈現(xiàn)不同的行為表現(xiàn),盡管這些表現(xiàn)強(qiáng)度存在差異化,但最終會(huì)反饋到行為特征上。如果把不同時(shí)間節(jié)點(diǎn)的用戶特征行為差異,盡可能納入建模過程,那么原有的一對(duì)一二維數(shù)據(jù)就延展至一對(duì)多的時(shí)間序列形式,也就是說把數(shù)據(jù)應(yīng)用升維到樣本維度、時(shí)間維度、特征維度的三維數(shù)據(jù)組織形式。
三維數(shù)據(jù)不僅能降低數(shù)據(jù)集特征不足的影響,而且能最大程度挖掘數(shù)據(jù)價(jià)值,增加特征數(shù)量,提升模型準(zhǔn)確性。尤其是在業(yè)務(wù)數(shù)據(jù)獲取時(shí),外部資信等數(shù)據(jù)往往會(huì)遇到接入不確定因素,而內(nèi)部數(shù)據(jù)數(shù)量和類型有限,并且利用程度趨于飽和。
但對(duì)于模型開發(fā)而言,更高的精準(zhǔn)度和辨識(shí)度,要求引入更多維度的數(shù)據(jù),挖掘數(shù)據(jù)規(guī)律,生成更多衍生變量。一旦無法從數(shù)量維度獲取更多變量,那么只能從質(zhì)量角度下功夫,向深度挖掘變量?jī)?nèi)部信息,其中一對(duì)多的時(shí)間序列角度的升維就是深挖數(shù)據(jù)信息的方法之一。
其實(shí),數(shù)據(jù)升維可用于AI模型優(yōu)化的場(chǎng)景非常多,例如在股票、基金的智能投顧業(yè)務(wù)中,AI模型的數(shù)據(jù)應(yīng)用加入時(shí)間維度,與樣本維度和個(gè)股、個(gè)基一起構(gòu)成三維樣本,便能把節(jié)點(diǎn)變量考慮在內(nèi),更加精準(zhǔn)預(yù)判未來走勢(shì)。
要想通過高維時(shí)序數(shù)據(jù)實(shí)現(xiàn)模型優(yōu)化,僅停留在數(shù)據(jù)層面遠(yuǎn)遠(yuǎn)不夠,還需對(duì)算法提升。決定模型好壞的剩下20%,正是建模方法的選擇,而與高維時(shí)序數(shù)據(jù)處理相匹配的算法通常為基于神經(jīng)網(wǎng)絡(luò)算法的深度學(xué)習(xí)。
以薩摩耶云為例,薩摩耶云基于深度學(xué)習(xí)框架, 探索 數(shù)據(jù)升維用于模型性能的提升,研發(fā)出適用于多行業(yè)和場(chǎng)景的AI解決方案,滿足企業(yè)高效智能決策的需求。同時(shí),這些端到端的云原生 科技 解決方案,以SaaS+aPaaS形式提供交付,通過雙方系統(tǒng)對(duì)接實(shí)現(xiàn)信息實(shí)時(shí)交互,能為合作伙伴輸出基于云的智能決策服務(wù)。
在薩摩耶云首席科學(xué)家王明明看來,更高維度的時(shí)序數(shù)據(jù)建模意味著對(duì)現(xiàn)有的業(yè)務(wù)數(shù)據(jù)的重新理解、更多的數(shù)據(jù)信息、更復(fù)雜的數(shù)據(jù)組織方式、更高的機(jī)器性能要求、存儲(chǔ)要求以及模型上線要求。以高維時(shí)序數(shù)據(jù)為基礎(chǔ),施以神經(jīng)網(wǎng)絡(luò)來訓(xùn)練,加工多維變量特征,最終建立并優(yōu)化模型的AI決策能力。
具體來看,作為機(jī)器學(xué)習(xí)的重要分支,神經(jīng)網(wǎng)絡(luò)是從數(shù)據(jù)中學(xué)習(xí)表示的一種新的方法,強(qiáng)調(diào)從連續(xù)地層中進(jìn)行學(xué)習(xí)。在神經(jīng)網(wǎng)絡(luò)算法驅(qū)動(dòng)下,模型可在同一時(shí)間共同學(xué)習(xí)所有表示層,可能包含數(shù)十個(gè)甚至上百個(gè)連續(xù)層,而其他機(jī)器學(xué)習(xí)方法往往僅僅學(xué)習(xí)一兩層的數(shù)據(jù)表示。
神經(jīng)網(wǎng)絡(luò)在高維時(shí)序數(shù)據(jù)學(xué)習(xí)中,一方面通過漸進(jìn)的、逐層式的方式形成越來越復(fù)雜的表示;另一方面,對(duì)漸進(jìn)的表示共同進(jìn)行學(xué)習(xí),每一層的變化都需要同時(shí)考慮上下兩層的需要。這意味著,循環(huán)神經(jīng)網(wǎng)絡(luò)引入狀態(tài)變量時(shí),能保存每個(gè)時(shí)刻的信息,并且與當(dāng)前的輸入共同決定此刻的輸出。
從薩摩耶云的AI決策實(shí)踐來看,薩摩耶云在模型搭建過程中,不僅考慮了以往的樣本維度和特征維度,還把各時(shí)間節(jié)點(diǎn)的用戶特征差異納入考量,通過三維數(shù)據(jù)加工完善數(shù)據(jù)特征。在此基礎(chǔ)上,薩摩耶云利用神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí),建立和訓(xùn)練模型,實(shí)現(xiàn)比常規(guī)模型更為高效的模型效果。
這對(duì)于提升模型的預(yù)判能力和精準(zhǔn)度至關(guān)重要。就像閱讀一段新聞,如果僅僅從每一個(gè)字、每一個(gè)詞組來理解,很容易斷章取義,無法真正明白新聞所指。但把新聞構(gòu)成中的字詞句連貫起來,并置于各個(gè)背景節(jié)點(diǎn)中,就可以理解新聞的準(zhǔn)確意思。
當(dāng)薩摩耶云把基于神經(jīng)網(wǎng)絡(luò)等技術(shù)的AI模型,應(yīng)用于實(shí)際業(yè)務(wù)場(chǎng)景之中,能進(jìn)一步放大數(shù)據(jù)價(jià)值,幫助企業(yè)增強(qiáng)預(yù)測(cè)分析能力,提升精準(zhǔn)營銷、銷售管理、供應(yīng)鏈協(xié)作、結(jié)果預(yù)測(cè)、風(fēng)險(xiǎn)控制的效率,進(jìn)而實(shí)現(xiàn)從經(jīng)驗(yàn)決策到智能決策,達(dá)到降本增效的效果。
實(shí)驗(yàn)數(shù)據(jù)也表明,用神經(jīng)網(wǎng)絡(luò)的時(shí)間序列來做變量衍生,可以產(chǎn)生較為顯著的變量增益效果,衍生變量可以直接用于其他傳統(tǒng)方式的建模環(huán)節(jié),同時(shí)也可擴(kuò)充內(nèi)部的衍生變量空間。當(dāng)原始特征的區(qū)分能力得到提升,模型的區(qū)分效果也得到增強(qiáng),最終強(qiáng)化AI模型性能。
作為領(lǐng)先的獨(dú)立云服務(wù) 科技 解決方案供應(yīng)商,薩摩耶云立足場(chǎng)景需求,深耕AI決策智能賽道,不斷升級(jí)大數(shù)據(jù)、算法、模型策略和產(chǎn)品設(shè)計(jì),為數(shù)字經(jīng)濟(jì)和企業(yè)數(shù)字化轉(zhuǎn)型提供技術(shù)支撐。在此過程中,薩摩耶云不僅強(qiáng)化了自身核心自主競(jìng)爭(zhēng)力,而且著眼數(shù)字中國全景,源源不斷釋放 科技 賦能的價(jià)值。(山河)
三、AI面試題第二彈(神經(jīng)網(wǎng)絡(luò)基礎(chǔ))
提取主要特征,減小網(wǎng)絡(luò)參數(shù)量,減小計(jì)算量
層層傳遞的梯度>1 梯度爆炸
層層傳遞的梯度<1 梯度消失
與權(quán)重有很大關(guān)系,激活函數(shù)的影響較小。
每次訓(xùn)練一層隱節(jié)點(diǎn),訓(xùn)練時(shí)將上一層隱節(jié)點(diǎn)的輸出作為輸入,而本層隱節(jié)點(diǎn)的輸出作為下一層隱節(jié)點(diǎn)的輸入,此過程就是逐層“預(yù)訓(xùn)練”(pre-training);在預(yù)訓(xùn)練完成后,再對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行“微調(diào)”(fine-tunning)。Hinton在訓(xùn)練深度信念網(wǎng)絡(luò)(Deep Belief Networks中,使用了這個(gè)方法,在各層預(yù)訓(xùn)練完成后,再利用BP算法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
這個(gè)方案主要是針對(duì)梯度爆炸提出的,其思想是設(shè)置一個(gè)梯度剪切閾值,然后更新梯度的時(shí)候,如果梯度超過這個(gè)閾值,那么就將其強(qiáng)制限制在這個(gè)范圍之內(nèi)。這可以防止梯度爆炸。
比較常見的是l1l1l1正則,和l2l2l2正則,在各個(gè)深度框架中都有相應(yīng)的API可以使用正則化
反向傳播中,經(jīng)過每一層的梯度會(huì)乘以該層的權(quán)重。
舉個(gè)簡(jiǎn)單例子:
為了得到一致假設(shè)而使假設(shè)變得過度復(fù)雜稱為過擬合(overfitting), 過擬合表現(xiàn)在訓(xùn)練好的模型在訓(xùn)練集上效果很好,但是在測(cè)試集上效果差 。也就是說模型的泛化能力弱。
過擬合主要由兩個(gè)原因造成,數(shù)據(jù)集太小或模型太復(fù)雜
(1). 數(shù)據(jù)集擴(kuò)增(Data Augmentation)
(2). 改進(jìn)模型
·Early Stopping。在模型效果比較好的時(shí)候便提前停止訓(xùn)練
·正則化(regularization)
L1:稀疏參數(shù)
L2:更小參數(shù)
·Dropout
·多任務(wù)學(xué)習(xí)
深度學(xué)習(xí)中兩種多任務(wù)學(xué)習(xí)模式:隱層參數(shù)的硬共享和軟共享
硬共享機(jī)制是指在所有任務(wù)中共享隱藏層,同時(shí)保留幾個(gè)特定任務(wù)的輸出層來實(shí)現(xiàn)。硬共享機(jī)制降低了過擬合的風(fēng)險(xiǎn)。多個(gè)任務(wù)同時(shí)學(xué)習(xí),模型就越能捕捉到多個(gè)任務(wù)的同一表示,從而導(dǎo)致模型在原始任務(wù)上的過擬合風(fēng)險(xiǎn)越小。
軟共享機(jī)制是指每個(gè)任務(wù)有自己的模型,自己的參數(shù)。模型參數(shù)之間的距離是正則化的,以便保障參數(shù)相似性。
見后文
leaky relu
輸入是x輸出是y,正常的流程是:我們首先把x通過網(wǎng)絡(luò)前向傳播,然后把誤差反向傳播以決定如何更新參數(shù)讓網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。使用Dropout之后,過程變成如下:
(1)首先隨機(jī)(臨時(shí))刪掉網(wǎng)絡(luò)中一半的隱藏神經(jīng)元,輸入輸出神經(jīng)元保持不變(圖中虛線為部分臨時(shí)被刪除的神經(jīng)元)
(2) 然后把輸入x通過修改后的網(wǎng)絡(luò)前向傳播,然后把得到的損失結(jié)果通過修改的網(wǎng)絡(luò)反向傳播。一小批訓(xùn)練樣本執(zhí)行完這個(gè)過程后,在沒有被刪除的神經(jīng)元上按照隨機(jī)梯度下降法更新對(duì)應(yīng)的參數(shù)(w,b)。
(3)然后繼續(xù)重復(fù)這一過程:
恢復(fù)被刪掉的神經(jīng)元(此時(shí)被刪除的神經(jīng)元保持原樣,而沒有被刪除的神經(jīng)元已經(jīng)有所更新)
從隱藏層神經(jīng)元中隨機(jī)選擇一個(gè)一半大小的子集臨時(shí)刪除掉(備份被刪除神經(jīng)元的參數(shù))。
對(duì)一小批訓(xùn)練樣本,先前向傳播然后反向傳播損失并根據(jù)隨機(jī)梯度下降法更新參數(shù)(w,b) (沒有被刪除的那一部分參數(shù)得到更新,刪除的神經(jīng)元參數(shù)保持被刪除前的結(jié)果)。
不斷重復(fù)這一過程。
沒有對(duì)數(shù)據(jù)進(jìn)行歸一化
忘記檢查輸入和輸出
沒有對(duì)數(shù)據(jù)進(jìn)行預(yù)處理
沒有對(duì)數(shù)據(jù)正則化
使用過大的樣本
使用不正確的學(xué)習(xí)率
在輸出層使用錯(cuò)誤的激活函數(shù)
網(wǎng)絡(luò)中包含壞梯度
初始化權(quán)重錯(cuò)誤
過深的網(wǎng)絡(luò)
隱藏單元數(shù)量錯(cuò)誤
網(wǎng)絡(luò)設(shè)計(jì)不合理(任務(wù)-網(wǎng)絡(luò)不匹配)
機(jī)器學(xué)習(xí)有個(gè)很重要的假設(shè):就是假設(shè)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)是滿足獨(dú)立同分布的,這保障了通過訓(xùn)練數(shù)據(jù)獲得的優(yōu)秀模型也能夠在測(cè)試集獲得好的效果。但是在機(jī)器學(xué)習(xí)訓(xùn)練中輸入層的每個(gè)批量(X,Y)中X的分布是不一致的,并且神經(jīng)網(wǎng)絡(luò)的隱藏層的輸入分布在每次訓(xùn)練迭代中發(fā)生變化。 BatchNorm就是在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中使得每一層神經(jīng)網(wǎng)絡(luò)的輸入保持相同分布的。
BN的基本思想其實(shí)相當(dāng)直觀:因?yàn)樯顚由窠?jīng)網(wǎng)絡(luò)在做非線性變換前(激活前)的 輸入值 (就是那個(gè)x=WU+B,U是輸入) 隨著網(wǎng)絡(luò)深度加深或者在訓(xùn)練過程中,其分布逐漸發(fā)生偏移或者變動(dòng),之所以訓(xùn)練收斂慢,一般是整體分布逐漸往非線性函數(shù)的取值區(qū)間的上下限兩端靠近 (對(duì)于Sigmoid函數(shù)來說,意味著激活輸入值WU+B是大的負(fù)值或正值),所以這 導(dǎo)致反向傳播時(shí)低層神經(jīng)網(wǎng)絡(luò)的梯度消失 ,這是訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)收斂越來越慢的 本質(zhì)原因 , 而BN就是通過一定的規(guī)范化手段,把每層神經(jīng)網(wǎng)絡(luò)任意神經(jīng)元這個(gè)輸入值的分布強(qiáng)行拉回到均值為0方差為1的標(biāo)準(zhǔn)正態(tài)分布 ,其實(shí)就是把越來越偏的分布強(qiáng)制拉回比較標(biāo)準(zhǔn)的分布,這樣使得激活輸入值落在非線性函數(shù)對(duì)輸入比較敏感的區(qū)域,這樣輸入的小變化就會(huì)導(dǎo)致?lián)p失函數(shù)較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產(chǎn)生,而且梯度變大意味著學(xué)習(xí)收斂速度快,能大大加快訓(xùn)練速度。
但是接下來的問題是:如果都通過BN,那么不就跟把非線性函數(shù)替換成線性函數(shù)效果相同了,意味著網(wǎng)絡(luò)的非線性表達(dá)能力下降了, 所以BN為了保證非線性的獲得,對(duì)變換后的滿足均值為0方差為1的x又進(jìn)行了scale加上shift操作(y=scale*x+shift), 每個(gè)神經(jīng)元增加了兩個(gè)參數(shù)scale和shift參數(shù),這兩個(gè)參數(shù)是通過訓(xùn)練學(xué)習(xí)到的,意思是通過scale和shift把這個(gè)值從標(biāo)準(zhǔn)正態(tài)分布左移或者右移一點(diǎn)并長(zhǎng)胖一點(diǎn)或者變瘦一點(diǎn),每個(gè)實(shí)例挪動(dòng)的程度不一樣,這樣等價(jià)于激活前的值經(jīng)過標(biāo)準(zhǔn)正太分布?xì)w一化后再從正中心周圍的線性區(qū)往非線性區(qū)動(dòng)了動(dòng)。核心思想應(yīng)該是想找到一個(gè)線性和非線性的較好平衡點(diǎn),既能享受非線性的較強(qiáng)表達(dá)能力的好處,又避免太靠非線性區(qū)兩頭使得網(wǎng)絡(luò)收斂速度太慢
Batch Normalization 好處:(1)提高了訓(xùn)練速度,收斂速度也大大加快(2)另外調(diào)參過程也簡(jiǎn)單多了,對(duì)于初始化要求沒那么高,而且可以使用大的學(xué)習(xí)率等 (3)可以防止梯度消失(4)BN類似于Dropout的一種防止過擬合的正則化表達(dá)方式,可以有效防止過擬合,不用太依賴dropou和正則化
以下情況最好不要使用BN:(1)數(shù)據(jù)不平衡(2)batch_size太小
batch_size是機(jī)器學(xué)習(xí)中的一個(gè)重要參數(shù),決定了梯度下降的方向,如果數(shù)據(jù)集比較小,完全可以采用全數(shù)據(jù)集的形式計(jì)算梯度,由全數(shù)據(jù)集確定的梯度方向能夠更好地代表樣本總體,從而更準(zhǔn)確地朝向極值所在的方向。對(duì)于大型數(shù)據(jù)集則需要使用mini-batch_size,因?yàn)殡S著數(shù)據(jù)集的海量增長(zhǎng)和內(nèi)存限制,一次性載入所有的數(shù)據(jù)進(jìn)來變得越來越不可行。
當(dāng)batch_size=1,即在線學(xué)習(xí),模型難以達(dá)到收斂 。
合理增加batch_size好處 :
(1)內(nèi)存利用率提高了,大矩陣乘法的并行化效率提高
(2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,對(duì)于相同數(shù)據(jù)量的處理速度進(jìn)一步加快。
(3)在一定范圍內(nèi),一般來說 Batch_Size 越大,其確定的下降方向越準(zhǔn),引起訓(xùn)練震蕩越小
盲目增大 Batch_Size 壞處 :
(1)內(nèi)存利用率提高了,但是內(nèi)存容量可能撐不住了
(2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,要想達(dá)到相同精度所需要的 epoch 數(shù)量越來越多,花費(fèi)的時(shí)間越長(zhǎng)
(3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,后者具有更好的泛化能力。
總之batchsize在變得很大(超過一個(gè)臨界點(diǎn))時(shí),會(huì)降低模型的泛化能力。在這個(gè)臨界點(diǎn)之下,模型的性能變換隨batch size通常沒有學(xué)習(xí)率敏感
目標(biāo)所在的真實(shí)框(ground truth) 與算法預(yù)測(cè)的目標(biāo)所在的框(bounding box)的交集與并集的比值,我們會(huì)用IOU閾值來判定預(yù)測(cè)的bounding box是否有效。一般閾值會(huì)設(shè)定在0.5,當(dāng)IOU的值大于等于0.5時(shí),我們會(huì)把這個(gè)預(yù)測(cè)的bounding box 歸為正類,而小于0.5的歸為負(fù)類。
牛頓法使用的是目標(biāo)函數(shù)的二階導(dǎo)數(shù),在高維情況下這個(gè)Hessian(n*n維度)矩陣非常大,計(jì)算復(fù)雜度是n*n,計(jì)算和存儲(chǔ)都是問題
(1) 通過控制卷積核個(gè)數(shù)實(shí)現(xiàn)升維或者降維,從而減少模型參數(shù)和計(jì)算量
(2) 用于不同channel上特征的融合
(3)1x1的卷積相當(dāng)于全連接層的計(jì)算過程,并且加入了非線性激活函數(shù),從而增加了網(wǎng)絡(luò)的非線性,使得網(wǎng)絡(luò)可以表達(dá)更加復(fù)雜的特征。
它能夠把輸入的連續(xù)實(shí)值變換為0和1之間的輸出,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1
缺點(diǎn):
(1)函數(shù)的飽和區(qū),導(dǎo)致梯度幾乎為0,造成梯度消失問題
(2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893
(3)其解析式中含有冪運(yùn)算,計(jì)算機(jī)求解時(shí)相對(duì)來講比較耗時(shí)。對(duì)于規(guī)模比較大的深度網(wǎng)絡(luò),這會(huì)較大地增加訓(xùn)練時(shí)間。
它解決了Sigmoid函數(shù)的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運(yùn)算的問題仍然存在。
(1)在正區(qū)間解決了梯度消失的問題
(2)函數(shù)簡(jiǎn)單,計(jì)算速度快,收斂速度遠(yuǎn)快于sigmoid和tanh
缺點(diǎn):
(1)Relu函數(shù)輸出不是0均值
(2)神經(jīng)元壞死問題:指的是某些神經(jīng)元可能永遠(yuǎn)不會(huì)被激活,導(dǎo)致相應(yīng)的參數(shù)永遠(yuǎn)不能被更新,有兩個(gè)主要原因?qū)е逻@種狀況發(fā)生
(1) 非常不幸的參數(shù)初始化,這種情況比較少見
(2) learning rate太高導(dǎo)致在訓(xùn)練過程中參數(shù)更新太大,不幸使網(wǎng)絡(luò)進(jìn)入這種狀態(tài)。解決方法是可以采用Xavier初始化方法,以及避免將learning rate設(shè)置太大或使用adagrad等自動(dòng)調(diào)節(jié)learning rate的算法
為了解決ReLU函數(shù)帶來的神經(jīng)元壞死問題 , 提出了將ReLU的前半段設(shè)為αx,α通常設(shè)為0.01,,另外一種直觀的想法是基于參數(shù)的方法PReLU函數(shù), α可由方向傳播算法學(xué)習(xí)出來。
ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優(yōu)點(diǎn),以及:(1)不會(huì)有神經(jīng)元壞死現(xiàn)象(2)函數(shù)輸出均值接近于0
但是ELU的小問題就是計(jì)算量稍微有點(diǎn)大。
1、使用不同的激活函數(shù),比如Relu,Leak-Relu,PRelu,elu等激活函數(shù)代替sigmoid函數(shù)
2、使用Batch Normalizaion(批量歸一化)
3、使用殘差網(wǎng)絡(luò)
4、預(yù)訓(xùn)練加微調(diào)
1、梯度裁剪
2、權(quán)重正則化
兩個(gè)3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時(shí),用3x3的卷積核可以提升網(wǎng)絡(luò)的深度,可以很明顯的減少計(jì)算量。
1、局部連接
2、權(quán)值共享:減小參數(shù)量
3、池化操作:增大感受野
4、多層次結(jié)構(gòu):可以提取low-level以及high-level的信息
1、數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時(shí),深度學(xué)習(xí)相對(duì)其它機(jī)器學(xué)習(xí)算法,沒有明顯優(yōu)勢(shì)。
2、數(shù)據(jù)集沒有局部相關(guān)特性,目前深度學(xué)習(xí)表現(xiàn)比較好的領(lǐng)域主要是圖像/語音/自然語言處理等領(lǐng)域,這些領(lǐng)域的一個(gè)共性是局部相關(guān)性。圖像中像素組成物體,語音信號(hào)中音位組合成單詞,文本數(shù)據(jù)中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時(shí)也被改變。對(duì)于沒有這樣的局部相關(guān)性的數(shù)據(jù)集,不適于使用深度學(xué)習(xí)算法進(jìn)行處理。舉個(gè)例子:預(yù)測(cè)一個(gè)人的健康狀況,相關(guān)的參數(shù)會(huì)有年齡、職業(yè)、收入、家庭狀況等各種元素,將這些元素打亂,并不會(huì)影響相關(guān)的結(jié)果。
作用 :對(duì)輸入的特征圖進(jìn)行壓縮,
一方面使特征圖變小,簡(jiǎn)化網(wǎng)絡(luò)計(jì)算復(fù)雜度;
一方面進(jìn)行特征壓縮,提取主要特征。
通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對(duì)數(shù)據(jù)做了下采樣,但是 max-pooling感覺更像是做了特征選擇,選出了分類辨識(shí)度更好的特征,提供了非線性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分類問題中,我們需要知道的是這張圖像有什么object,而不大關(guān)心這個(gè)object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網(wǎng)絡(luò)比較深的地方,特征已經(jīng)稀疏了,從一塊區(qū)域里選出最大的,比起這片區(qū)域的平均值來,更能把稀疏的特征傳遞下去 。
average-pooling更強(qiáng)調(diào)對(duì)整體特征信息進(jìn)行一層下采樣,在減少參數(shù)維度的貢獻(xiàn)上更大一點(diǎn),更多的體現(xiàn)在 信息的完整傳遞這個(gè)維度 上,在一個(gè)很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多采用average-pooling,在減少維度的同時(shí),更有利信息傳遞到下一個(gè)模塊進(jìn)行特征提取。
average-pooling在 全局平均池化操作 中應(yīng)用也比較廣,在ResNet和Inception結(jié)構(gòu)中最后一層都使用了平均池化。有的時(shí)候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數(shù)據(jù)變成一位向量。
CNN網(wǎng)絡(luò)中另外一個(gè)不可導(dǎo)的環(huán)節(jié)就是Pooling池化操作,因?yàn)镻ooling操作使得feature map的尺寸變化,假如做2×2的池化(步長(zhǎng)也為2),假設(shè)那么第l+1層的feature map有16個(gè)梯度,那么第l層就會(huì)有64個(gè)梯度,這使得梯度無法對(duì)位的進(jìn)行傳播下去。其實(shí)解決這個(gè)問題的思想也很簡(jiǎn)單,就是把1個(gè)像素的梯度傳遞給4個(gè)像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據(jù)這條原則,mean pooling和max pooling的反向傳播也是不同的
mean pooling的前向傳播就是把一個(gè)patch中的值求取平均來做pooling,那么反向傳播的過程也就是把 某個(gè)元素的梯度等分為n份分配給前一層,這樣就保證池化前后的梯度(殘差)之和保持不變 ,圖示如下 :
(2) max pooling
max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給后一層,而其他像素的值直接被舍棄掉。那么 反向傳播也就是把梯度直接傳給前一層某一個(gè)像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點(diǎn)在于需要記錄下池化操作時(shí)到底哪個(gè)像素的值是最大,也就是max id,這個(gè)變量就是記錄最大值所在位置的,因?yàn)樵诜聪騻鞑ブ幸玫?,那么假設(shè)前向傳播和反向傳播的過程就如下圖所示 :
28、細(xì)粒度分類
29、LSTM&RNN
30、解釋LSTM結(jié)構(gòu)(相對(duì)于RNN)的好處
31、RNN的梯度消失原因和解決辦法
32、Object Detection
33、Unet的介紹
34、FCN和Unet的區(qū)別
35、RCNN系列的算法流程和區(qū)別
36、Fast RCNN中 bbox 回歸的損失函數(shù)什么
37、解釋 ROI Pooling 和 ROI Align
38、Mask RCNN中 mask branch 如何接入 Faster RCNN中
39、解釋 FPN
40、解釋 ROI Align
41、簡(jiǎn)述 YOLO 和 SSD
42、簡(jiǎn)述 Hough 直線檢測(cè)、Sobel 邊緣檢測(cè)算法流程
43、Mask RCNN中的anchors如何判定為正負(fù)樣本
44、簡(jiǎn)述 NMS 算法流程
45、attention起源是用在哪里?pixel還是frame,是soft還是hard
46、anchor的正負(fù)樣本比是多少
47、算法和激活函數(shù)等
48、BN的原理和作用
49、BN層反向傳播,怎么求導(dǎo)
50、BN 的作用和缺陷,以及針對(duì)batch_size小的情況的改進(jìn)(GN)
51、BN層,先加BN還是激活,有什么區(qū)別
52、手推BP
53、優(yōu)化算法舉例和他們的區(qū)別(SGD、SGDM、RMSprop、Adam)
54、隨機(jī)梯度下降和梯度下降
55、訓(xùn)練不收斂的原因有哪些
56、簡(jiǎn)述 SVM 流程、核函數(shù)尋參及常見的核函數(shù)舉例
57、batch_size 和 learning rate 的關(guān)系(怎么平衡和調(diào)整二者)
58、解釋過擬合和欠擬合,以及解決方法
59、激活函數(shù)有哪些,各自區(qū)別
60、損失函數(shù)有哪些
61、Sigmoid 和 ReLu 對(duì)比(各自優(yōu)缺點(diǎn))
62、為什么不用sigmoid而用relu?做出了哪些改進(jìn)?
63、梯度消失和梯度爆炸的原因和解決方法
64、Precision 和 Recall 的定義
65、精確率高、召回率低是為什么
66、SVM,線性回歸和邏輯回歸的原理及區(qū)別
67、PCA原理,PCA和SVD的區(qū)別和聯(lián)系
68、正則化怎么選擇,有哪些方式
69、L1、L2范數(shù),區(qū)別
70、boost、Adaboost
71、dropout和batch normalization
72、講一下決策樹和隨機(jī)森林
73、講一下GBDT的細(xì)節(jié),寫出GBDT的目標(biāo)函數(shù)。 GBDT和Adaboost的區(qū)別與聯(lián)系
74、偏差、方差
75、距離度量公式哪些,區(qū)別
76、多標(biāo)簽識(shí)別怎么做
77、data argumentation怎么處理的
78、數(shù)據(jù)不均衡怎么處理、只有少量帶標(biāo)簽怎么處理
79、權(quán)重初始化方法都有哪些
80、權(quán)值衰減這個(gè)參數(shù)怎么設(shè)置
81、分類問題有哪些評(píng)價(jià)指標(biāo)?每種的適用場(chǎng)景。
82、無監(jiān)督學(xué)習(xí)了解哪些
83、圖像處理Opencv
84、邊緣檢測(cè)算子有哪些
85、霍夫變換
86、直方圖是什么
87、canny算子是怎么做的
88、圖像的特征提取有哪些算法,適用范圍、優(yōu)缺點(diǎn)
參考:
https://blog.csdn.net/bluesliuf/article/details/89389117
https://zhuanlan.zhihu.com/p/107279000
https://zhuanlan.zhihu.com/p/56475281
四、人工智能神經(jīng)網(wǎng)絡(luò)論文
隨著科學(xué)技術(shù)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)技術(shù)得到了空前的發(fā)展,并且在諸多領(lǐng)域得到了廣泛的應(yīng)用,為人工智能化的發(fā)展提供了強(qiáng)大的動(dòng)力。以下是我整理分享的人工智能神經(jīng)網(wǎng)絡(luò)論文的相關(guān)資料,歡迎閱讀!
人工智能神經(jīng)網(wǎng)絡(luò)論文篇一
人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及應(yīng)用
摘要隨著科學(xué)技術(shù)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)技術(shù)得到了空前的發(fā)展,并且在諸多領(lǐng)域得到了廣泛的應(yīng)用,為人工智能化的發(fā)展提供了強(qiáng)大的動(dòng)力。人工神經(jīng)網(wǎng)絡(luò)的發(fā)展經(jīng)歷了不同的階段,是人工智能的重要組成部分,并且在發(fā)展過程中形成了自身獨(dú)特的特點(diǎn)。文章對(duì)人工神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程進(jìn)行回顧,并對(duì)其在各個(gè)領(lǐng)域的應(yīng)用情況進(jìn)行探討。
關(guān)鍵詞人工神經(jīng)網(wǎng)絡(luò);發(fā)展;應(yīng)用
隨著科學(xué)技術(shù)的發(fā)展,各個(gè)行業(yè)和領(lǐng)域都在進(jìn)行人工智能化的研究工作,已經(jīng)成為專家學(xué)者研究的熱點(diǎn)。人工神經(jīng)網(wǎng)絡(luò)就是在人工智能基礎(chǔ)上發(fā)展而來的重要分支,對(duì)人工智能的發(fā)展具有重要的促進(jìn)作用。人工神經(jīng)網(wǎng)絡(luò)從形成之初發(fā)展至今,經(jīng)歷了不同的發(fā)展階段,并且在經(jīng)濟(jì)、生物、醫(yī)學(xué)等領(lǐng)域得到了廣泛的應(yīng)用,解決了許多技術(shù)上的難題。
1人工神經(jīng)網(wǎng)絡(luò)概述
關(guān)于人工神經(jīng)網(wǎng)絡(luò),到目前為止還沒有一個(gè)得到廣泛認(rèn)可的統(tǒng)一定義,綜合各專家學(xué)者的觀點(diǎn)可以將人工神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單的概括為是模仿人腦的結(jié)構(gòu)和功能的計(jì)算機(jī)信息處理系統(tǒng)[1]。人工神經(jīng)網(wǎng)絡(luò)具有自身的發(fā)展特性,其具有很強(qiáng)的并行結(jié)構(gòu)以及并行處理的能力,在實(shí)時(shí)和動(dòng)態(tài)控制時(shí)能夠起到很好的作用;人工神經(jīng)網(wǎng)絡(luò)具有非線性映射的特性,對(duì)處理非線性控制的問題時(shí)能給予一定的幫助;人工神經(jīng)網(wǎng)絡(luò)可以通過訓(xùn)練掌握數(shù)據(jù)歸納和處理的能力,因此在數(shù)學(xué)模型等難以處理時(shí)對(duì)問題進(jìn)行解決;人工神經(jīng)網(wǎng)絡(luò)的適應(yīng)性和集成性很強(qiáng),能夠適應(yīng)不同規(guī)模的信息處理和大規(guī)模集成數(shù)據(jù)的處理與控制;人工神經(jīng)網(wǎng)絡(luò)不但在軟件技術(shù)上比較成熟,而且近年來在硬件方面也得到了較大發(fā)展,提高了人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)的信息處理能力。
2人工神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程
2.1 萌芽時(shí)期
在20世紀(jì)40年代,生物學(xué)家McCulloch與數(shù)學(xué)家Pitts共同發(fā)表文章,第一次提出了關(guān)于神經(jīng)元的模型M-P模型,這一理論的提出為神經(jīng)網(wǎng)絡(luò)模型的研究和開發(fā)奠定了基礎(chǔ),在此基礎(chǔ)上人工神經(jīng)網(wǎng)絡(luò)研究逐漸展開。1951年,心理學(xué)家Hebb提出了關(guān)于連接權(quán)數(shù)值強(qiáng)化的法則,為神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)功能開發(fā)進(jìn)行了鋪墊。之后生物學(xué)家Eccles通過實(shí)驗(yàn)證實(shí)了突觸的真實(shí)分流,為神經(jīng)網(wǎng)絡(luò)研究突觸的模擬功能提供了真實(shí)的模型基礎(chǔ)以及生物學(xué)的依據(jù)[2]。隨后,出現(xiàn)了能夠模擬行為以及條件反射的處理機(jī)和自適應(yīng)線性網(wǎng)絡(luò)模型,提高了人工神經(jīng)網(wǎng)絡(luò)的速度和精準(zhǔn)度。這一系列研究成果的出現(xiàn)為人工神經(jīng)網(wǎng)絡(luò)的形成和發(fā)展提供了可能。
2.2 低谷時(shí)期
在人工神經(jīng)網(wǎng)絡(luò)形成的初期,人們只是熱衷于對(duì)它的研究,卻對(duì)其自身的局限進(jìn)行了忽視。Minskyh和Papert通過多年對(duì)神經(jīng)網(wǎng)絡(luò)的研究,在1969年對(duì)之前所取得的研究成果提出了質(zhì)疑,認(rèn)為當(dāng)前研究出的神經(jīng)網(wǎng)絡(luò)只合適處理比較簡(jiǎn)單的線性問題,對(duì)于非線性問題以及多層網(wǎng)絡(luò)問題卻無法解決。由于他們的質(zhì)疑,使神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)入了低谷時(shí)期,但是在這一時(shí)期,專家和學(xué)者也并沒有停止對(duì)神經(jīng)網(wǎng)絡(luò)的研究,針對(duì)他們的質(zhì)疑也得出一些相應(yīng)的研究成果。
2.3 復(fù)興時(shí)期
美國的物理學(xué)家Hopfield在1982年提出了新的神經(jīng)網(wǎng)絡(luò)模型,并通過實(shí)驗(yàn)證明在滿足一定的條件時(shí),神經(jīng)網(wǎng)絡(luò)是能夠達(dá)到穩(wěn)定的狀態(tài)的。通過他的研究和帶動(dòng),眾多專家學(xué)者又重新開始了對(duì)人工神經(jīng)網(wǎng)絡(luò)方面的研究,推動(dòng)了神經(jīng)網(wǎng)絡(luò)的再一次發(fā)展[3]。經(jīng)過專家學(xué)者的不斷努力,提出了各種不同的人工神經(jīng)網(wǎng)絡(luò)的模型,神經(jīng)網(wǎng)絡(luò)理論研究不斷深化,新的理論和方法層出不窮,使神經(jīng)網(wǎng)絡(luò)的研究和應(yīng)用進(jìn)入了一個(gè)嶄新的時(shí)期。
2.4 穩(wěn)步發(fā)展時(shí)期
隨著人工神經(jīng)網(wǎng)絡(luò)研究在世界范圍內(nèi)的再次興起,我國也迎來了相關(guān)理論研究的熱潮,在人工神經(jīng)網(wǎng)絡(luò)和計(jì)算機(jī)技術(shù)方面取得了突破性的進(jìn)展。到20世紀(jì)90年代時(shí),國內(nèi)對(duì)于神經(jīng)網(wǎng)絡(luò)領(lǐng)域的研究得到了進(jìn)一步的完善和發(fā)展,而且能夠利用神經(jīng)網(wǎng)絡(luò)對(duì)非線性的系統(tǒng)控制問題進(jìn)行解決,研究成果顯著。隨著各類人工神經(jīng)網(wǎng)絡(luò)的相關(guān)刊物的創(chuàng)建和相關(guān)學(xué)術(shù)會(huì)議的召開,我國人工神經(jīng)網(wǎng)絡(luò)的研究和應(yīng)用條件逐步改善,得到了國際的關(guān)注。
隨著人工神經(jīng)網(wǎng)絡(luò)的穩(wěn)步發(fā)展,逐漸建立了光學(xué)神經(jīng)網(wǎng)絡(luò)系統(tǒng),利用光學(xué)的強(qiáng)大功能,提高了人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和自適應(yīng)能力。對(duì)非線性動(dòng)態(tài)系統(tǒng)的控制問題,采取有效措施,提高超平面的光滑性,對(duì)其精度進(jìn)行改進(jìn)。之后有專家提出了關(guān)于人工神經(jīng)網(wǎng)絡(luò)的抽取算法,雖然保證了精度,但也加大了消耗,在一定程度上降低了神經(jīng)網(wǎng)絡(luò)的效率,因此在此基礎(chǔ)上又提出了改進(jìn)算法FERNN?;煦缟窠?jīng)網(wǎng)絡(luò)的發(fā)展也得到了相應(yīng)的進(jìn)步,提高了神經(jīng)網(wǎng)絡(luò)的泛化能力。
3人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用
3.1 在信息領(lǐng)域中的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)在信息領(lǐng)域中的應(yīng)用主要體現(xiàn)在信息處理和模式識(shí)別兩個(gè)方面。由于科技的發(fā)展,當(dāng)代信息處理工作越來越復(fù)雜,利用人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)可以對(duì)人的思維進(jìn)行模仿甚至是替代,面對(duì)問題自動(dòng)診斷和解決,能夠輕松解決許多傳統(tǒng)方法無法解決的問題,在軍事信息處理中的應(yīng)用極為廣泛[4]。模式識(shí)別是對(duì)事物表象的各種信息進(jìn)行整理和分析,對(duì)事物進(jìn)行辨別和解釋的一個(gè)過程,這樣對(duì)信息進(jìn)行處理的過程與人類大腦的思維方式很相像。模式識(shí)別的方法可以分為兩種,一種是統(tǒng)計(jì)模式識(shí)別,還有一種是結(jié)構(gòu)模式識(shí)別,在語音識(shí)別和指紋識(shí)別等方面得到了廣泛的應(yīng)用。
3.2 在醫(yī)學(xué)領(lǐng)域的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)對(duì)于非線性問題處理十分有效,而人體的構(gòu)成和疾病形成的原因十分復(fù)雜,具有不可預(yù)測(cè)性,在生物信號(hào)的表現(xiàn)形式和變化規(guī)律上也很難掌握,信息檢測(cè)和分析等諸多方面都存在著復(fù)雜的非線性聯(lián)系,所以應(yīng)用人工神經(jīng)網(wǎng)絡(luò)決解這些非線性問題具有特殊意義[5]。目前,在醫(yī)學(xué)領(lǐng)域中的應(yīng)用涉及到理論和臨床的各個(gè)方面,最主要的是生物信號(hào)的檢測(cè)和自動(dòng)分析以及專家系統(tǒng)等方面的應(yīng)用。
3.3 在經(jīng)濟(jì)領(lǐng)域中的應(yīng)用
經(jīng)濟(jì)領(lǐng)域中的商品價(jià)格、供需關(guān)系、風(fēng)險(xiǎn)系數(shù)等方面的信息構(gòu)成也十分復(fù)雜且變幻莫測(cè),人工神經(jīng)網(wǎng)絡(luò)可以對(duì)不完整的信息以及模糊不確定的信息進(jìn)行簡(jiǎn)單明了的處理,與傳統(tǒng)的經(jīng)濟(jì)統(tǒng)計(jì)方法相比具有其無法比擬的優(yōu)勢(shì),數(shù)據(jù)分析的穩(wěn)定性和可靠性更強(qiáng)。
3.4 在其他領(lǐng)域的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)在控制領(lǐng)域、交通領(lǐng)域、心理學(xué)領(lǐng)域等方面都有很廣泛的應(yīng)用,能夠?qū)Ω唠y度的非線性問題進(jìn)行處理,對(duì)交通運(yùn)輸方面進(jìn)行集成式的管理,以其高適應(yīng)性和優(yōu)秀的模擬性能解決了許多傳統(tǒng)方法無法解決的問題,促進(jìn)了各個(gè)領(lǐng)域的快速發(fā)展。
4總結(jié)
隨著科技的發(fā)展,人工智能系統(tǒng)將進(jìn)入更加高級(jí)的發(fā)展階段,人工神經(jīng)網(wǎng)絡(luò)也將得到更快的發(fā)展和更加廣泛的應(yīng)用。人工神經(jīng)網(wǎng)絡(luò)也許無法完全對(duì)人腦進(jìn)行取代,但是其特有的非線性信息處理能力解決了許多人工無法解決的問題,在智能系統(tǒng)的各個(gè)領(lǐng)域中得到成功應(yīng)用,今后的發(fā)展趨勢(shì)將向著更加智能和集成的方向發(fā)展。
參考文獻(xiàn)
[1]徐用懋,馮恩波.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在控制中的應(yīng)用[J].化工進(jìn)展,1993(5):8-12,20.
[2]湯素麗,羅宇鋒.人工神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展與應(yīng)用[J].電腦開發(fā)與應(yīng)用,2009(10):59-61.
[3]李會(huì)玲,柴秋燕.人工神經(jīng)網(wǎng)絡(luò)與神經(jīng)網(wǎng)絡(luò)控制的發(fā)展及展望[J].邢臺(tái)職業(yè)技術(shù)學(xué)院學(xué)報(bào),2009(5):44-46.
[4]過效杰,祝彥知.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在巖土工程領(lǐng)域研究現(xiàn)狀[J].河南水利,2004(1):22-23.
[5]崔永華.基于人工神經(jīng)網(wǎng)絡(luò)的河流匯流預(yù)報(bào)模型及應(yīng)用研究[D].鄭州大學(xué),2006.
下一頁分享更優(yōu)秀的<<<人工智能神經(jīng)網(wǎng)絡(luò)論文
以上就是關(guān)于ai神經(jīng)網(wǎng)絡(luò)算法相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
ai人工智能機(jī)器人app(AI人工智能機(jī)器人圖片)
關(guān)于介紹ai技術(shù)的視頻(關(guān)于介紹ai技術(shù)的視頻素材)
幼兒園景觀設(shè)計(jì)平面圖(幼兒園景觀設(shè)計(jì)平面圖怎么畫)
牧野公園景觀設(shè)計(jì)(牧野公園景觀設(shè)計(jì)理念)