HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    發(fā)布時(shí)間:2023-04-06 22:55:07     稿源: 創(chuàng)意嶺    閱讀: 128        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    一、為什么有圖卷積神經(jīng)網(wǎng)絡(luò)?

    本質(zhì)上說,世界上所有的數(shù)據(jù)都是拓?fù)浣Y(jié)構(gòu),也就是網(wǎng)絡(luò)結(jié)構(gòu),如果能夠把這些網(wǎng)絡(luò)數(shù)據(jù)真正的收集、融合起來,這確實(shí)是實(shí)現(xiàn)了AI智能的第一步。所以,如何利用深度學(xué)習(xí)處理這些復(fù)雜的拓?fù)鋽?shù)據(jù),如何開創(chuàng)新的處理圖數(shù)據(jù)以及知識(shí)圖譜的智能算法是AI的一個(gè)重要方向。

    深度學(xué)習(xí)在多個(gè)領(lǐng)域的成功主要?dú)w功于計(jì)算資源的快速發(fā)展(如 GPU)、大量訓(xùn)練數(shù)據(jù)的收集,還有深度學(xué)習(xí)從歐幾里得數(shù)據(jù)(如圖像、文本和視頻)中提取潛在表征的有效性。但是,盡管深度學(xué)習(xí)已經(jīng)在歐幾里得數(shù)據(jù)中取得了很大的成功,但從非歐幾里得域生成的數(shù)據(jù)已經(jīng)取得更廣泛的應(yīng)用,它們需要有效分析。如在電子商務(wù)領(lǐng)域,一個(gè)基于圖的學(xué)習(xí)系統(tǒng)能夠利用用戶和產(chǎn)品之間的交互以實(shí)現(xiàn)高度精準(zhǔn)的推薦。在化學(xué)領(lǐng)域,分子被建模為圖,新藥研發(fā)需要測(cè)定其生物活性。在論文引用網(wǎng)絡(luò)中,論文之間通過引用關(guān)系互相連接,需要將它們分成不同的類別。自2012年以來,深度學(xué)習(xí)在計(jì)算機(jī)視覺以及自然語言處理兩個(gè)領(lǐng)域取得了巨大的成功。假設(shè)有一張圖,要做分類,傳統(tǒng)方法需要手動(dòng)提取一些特征,比如紋理,顏色,或者一些更高級(jí)的特征。然后再把這些特征放到像隨機(jī)森林等分類器,給到一個(gè)輸出標(biāo)簽,告訴它是哪個(gè)類別。而深度學(xué)習(xí)是輸入一張圖,經(jīng)過神經(jīng)網(wǎng)絡(luò),直接輸出一個(gè)標(biāo)簽。特征提取和分類一步到位,避免了手工提取特征或者人工規(guī)則,從原始數(shù)據(jù)中自動(dòng)化地去提取特征,是一種端到端(end-to-end)的學(xué)習(xí)。相較于傳統(tǒng)的方法,深度學(xué)習(xí)能夠?qū)W習(xí)到更高效的特征與模式。

    圖數(shù)據(jù)的復(fù)雜性對(duì)現(xiàn)有機(jī)器學(xué)習(xí)算法提出了重大挑戰(zhàn),因?yàn)閳D數(shù)據(jù)是不規(guī)則的。每張圖大小不同、節(jié)點(diǎn)無序,一張圖中的每個(gè)節(jié)點(diǎn)都有不同數(shù)目的鄰近節(jié)點(diǎn),使得一些在圖像中容易計(jì)算的重要運(yùn)算(如卷積)不能再直接應(yīng)用于圖。此外,現(xiàn)有機(jī)器學(xué)習(xí)算法的核心假設(shè)是實(shí)例彼此獨(dú)立。然而,圖數(shù)據(jù)中的每個(gè)實(shí)例都與周圍的其它實(shí)例相關(guān),含有一些復(fù)雜的連接信息,用于捕獲數(shù)據(jù)之間的依賴關(guān)系,包括引用、朋友關(guān)系和相互作用。

    最近,越來越多的研究開始將深度學(xué)習(xí)方法應(yīng)用到圖數(shù)據(jù)領(lǐng)域。受到深度學(xué)習(xí)領(lǐng)域進(jìn)展的驅(qū)動(dòng),研究人員在設(shè)計(jì)圖神經(jīng)網(wǎng)絡(luò)的架構(gòu)時(shí)借鑒了卷積網(wǎng)絡(luò)、循環(huán)網(wǎng)絡(luò)和深度自編碼器的思想。為了應(yīng)對(duì)圖數(shù)據(jù)的復(fù)雜性,重要運(yùn)算的泛化和定義在過去幾年中迅速發(fā)展。

    二、神經(jīng)網(wǎng)絡(luò)的歷史是什么?

    沃倫·麥卡洛克和沃爾特·皮茨(1943)基于數(shù)學(xué)和一種稱為閾值邏輯的算法創(chuàng)造了一種神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。這種模型使得神經(jīng)網(wǎng)絡(luò)的研究分裂為兩種不同研究思路。一種主要關(guān)注大腦中的生物學(xué)過程,另一種主要關(guān)注神經(jīng)網(wǎng)絡(luò)在人工智能里的應(yīng)用。

    一、赫布型學(xué)習(xí)

    二十世紀(jì)40年代后期,心理學(xué)家唐納德·赫布根據(jù)神經(jīng)可塑性的機(jī)制創(chuàng)造了一種對(duì)學(xué)習(xí)的假說,現(xiàn)在稱作赫布型學(xué)習(xí)。赫布型學(xué)習(xí)被認(rèn)為是一種典型的非監(jiān)督式學(xué)習(xí)規(guī)則,它后來的變種是長(zhǎng)期增強(qiáng)作用的早期模型。從1948年開始,研究人員將這種計(jì)算模型的思想應(yīng)用到B型圖靈機(jī)上。

    法利和韋斯利·A·克拉克(1954)首次使用計(jì)算機(jī),當(dāng)時(shí)稱作計(jì)算器,在MIT模擬了一個(gè)赫布網(wǎng)絡(luò)。納撒尼爾·羅切斯特(1956)等人模擬了一臺(tái) IBM 704計(jì)算機(jī)上的抽象神經(jīng)網(wǎng)絡(luò)的行為。

    弗蘭克·羅森布拉特創(chuàng)造了感知機(jī)。這是一種模式識(shí)別算法,用簡(jiǎn)單的加減法實(shí)現(xiàn)了兩層的計(jì)算機(jī)學(xué)習(xí)網(wǎng)絡(luò)。羅森布拉特也用數(shù)學(xué)符號(hào)描述了基本感知機(jī)里沒有的回路,例如異或回路。這種回路一直無法被神經(jīng)網(wǎng)絡(luò)處理,直到保羅·韋伯斯(1975)創(chuàng)造了反向傳播算法。

    在馬文·明斯基和西摩爾·派普特(1969)發(fā)表了一項(xiàng)關(guān)于機(jī)器學(xué)習(xí)的研究以后,神經(jīng)網(wǎng)絡(luò)的研究停滯不前。他們發(fā)現(xiàn)了神經(jīng)網(wǎng)絡(luò)的兩個(gè)關(guān)鍵問題。

    第一是基本感知機(jī)無法處理異或回路。第二個(gè)重要的問題是電腦沒有足夠的能力來處理大型神經(jīng)網(wǎng)絡(luò)所需要的很長(zhǎng)的計(jì)算時(shí)間。直到計(jì)算機(jī)具有更強(qiáng)的計(jì)算能力之前,神經(jīng)網(wǎng)絡(luò)的研究進(jìn)展緩慢。

    二、反向傳播算法與復(fù)興

    后來出現(xiàn)的一個(gè)關(guān)鍵的進(jìn)展是保羅·韋伯斯發(fā)明的反向傳播算法(Werbos 1975)。這個(gè)算法有效地解決了異或的問題,還有更普遍的訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的問題。

    在二十世紀(jì)80年代中期,分布式并行處理(當(dāng)時(shí)稱作聯(lián)結(jié)主義)流行起來。戴維·魯姆哈特和詹姆斯·麥克里蘭德的教材對(duì)于聯(lián)結(jié)主義在計(jì)算機(jī)模擬神經(jīng)活動(dòng)中的應(yīng)用提供了全面的論述。

    神經(jīng)網(wǎng)絡(luò)傳統(tǒng)上被認(rèn)為是大腦中的神經(jīng)活動(dòng)的簡(jiǎn)化模型,雖然這個(gè)模型和大腦的生理結(jié)構(gòu)之間的關(guān)聯(lián)存在爭(zhēng)議。人們不清楚人工神經(jīng)網(wǎng)絡(luò)能多大程度地反映大腦的功能。

    支持向量機(jī)和其他更簡(jiǎn)單的方法(例如線性分類器)在機(jī)器學(xué)習(xí)領(lǐng)域的流行度逐漸超過了神經(jīng)網(wǎng)絡(luò),但是在2000年代后期出現(xiàn)的深度學(xué)習(xí)重新激發(fā)了人們對(duì)神經(jīng)網(wǎng)絡(luò)的興趣。

    三、2006年之后的進(jìn)展

    人們用CMOS創(chuàng)造了用于生物物理模擬和神經(jīng)形態(tài)計(jì)算的計(jì)算設(shè)備。最新的研究顯示了用于大型主成分分析和卷積神經(jīng)網(wǎng)絡(luò)的納米設(shè)備具有良好的前景。

    如果成功的話,這會(huì)創(chuàng)造出一種新的神經(jīng)計(jì)算設(shè)備,因?yàn)樗蕾囉趯W(xué)習(xí)而不是編程,并且它從根本上就是模擬的而不是數(shù)字化的,雖然它的第一個(gè)實(shí)例可能是數(shù)字化的CMOS設(shè)備。

    在2009到2012年之間,Jürgen Schmidhuber在Swiss AI Lab IDSIA的研究小組研發(fā)的循環(huán)神經(jīng)網(wǎng)絡(luò)和深前饋神經(jīng)網(wǎng)絡(luò)贏得了8項(xiàng)關(guān)于模式識(shí)別和機(jī)器學(xué)習(xí)的國(guó)際比賽。

    例如,Alex Graves et al.的雙向、多維的LSTM贏得了2009年ICDAR的3項(xiàng)關(guān)于連筆字識(shí)別的比賽,而且之前并不知道關(guān)于將要學(xué)習(xí)的3種語言的信息。

    IDSIA的Dan Ciresan和同事根據(jù)這個(gè)方法編寫的基于GPU的實(shí)現(xiàn)贏得了多項(xiàng)模式識(shí)別的比賽,包括IJCNN 2011交通標(biāo)志識(shí)別比賽等等。

    他們的神經(jīng)網(wǎng)絡(luò)也是第一個(gè)在重要的基準(zhǔn)測(cè)試中(例如IJCNN 2012交通標(biāo)志識(shí)別和NYU的揚(yáng)·勒丘恩(Yann LeCun)的MNIST手寫數(shù)字問題)能達(dá)到或超過人類水平的人工模式識(shí)別器。

    類似1980年Kunihiko Fukushima發(fā)明的neocognitron和視覺標(biāo)準(zhǔn)結(jié)構(gòu)(由David H. Hubel和Torsten Wiesel在初級(jí)視皮層中發(fā)現(xiàn)的那些簡(jiǎn)單而又復(fù)雜的細(xì)胞啟發(fā))那樣有深度的、高度非線性的神經(jīng)結(jié)構(gòu)可以被多倫多大學(xué)杰弗里·辛頓實(shí)驗(yàn)室的非監(jiān)督式學(xué)習(xí)方法所訓(xùn)練。

    2012年,神經(jīng)網(wǎng)絡(luò)出現(xiàn)了快速的發(fā)展,主要原因在于計(jì)算技術(shù)的提高,使得很多復(fù)雜的運(yùn)算變得成本低廉。以AlexNet為標(biāo)志,大量的深度網(wǎng)絡(luò)開始出現(xiàn)。

    2014年出現(xiàn)了殘差神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)極大解放了神經(jīng)網(wǎng)絡(luò)的深度限制,出現(xiàn)了深度學(xué)習(xí)的概念。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    構(gòu)成

    典型的人工神經(jīng)網(wǎng)絡(luò)具有以下三個(gè)部分:

    1、結(jié)構(gòu)(Architecture)結(jié)構(gòu)指定了網(wǎng)絡(luò)中的變量和它們的拓?fù)潢P(guān)系。例如,神經(jīng)網(wǎng)絡(luò)中的變量可以是神經(jīng)元連接的權(quán)重(weights)和神經(jīng)元的激勵(lì)值(activities of the neurons)。

    2、激勵(lì)函數(shù)(Activation Rule)大部分神經(jīng)網(wǎng)絡(luò)模型具有一個(gè)短時(shí)間尺度的動(dòng)力學(xué)規(guī)則,來定義神經(jīng)元如何根據(jù)其他神經(jīng)元的活動(dòng)來改變自己的激勵(lì)值。一般激勵(lì)函數(shù)依賴于網(wǎng)絡(luò)中的權(quán)重(即該網(wǎng)絡(luò)的參數(shù))。

    3、學(xué)習(xí)規(guī)則(Learning Rule)學(xué)習(xí)規(guī)則指定了網(wǎng)絡(luò)中的權(quán)重如何隨著時(shí)間推進(jìn)而調(diào)整。這一般被看做是一種長(zhǎng)時(shí)間尺度的動(dòng)力學(xué)規(guī)則。一般情況下,學(xué)習(xí)規(guī)則依賴于神經(jīng)元的激勵(lì)值。它也可能依賴于監(jiān)督者提供的目標(biāo)值和當(dāng)前權(quán)重的值。

    例如,用于手寫識(shí)別的一個(gè)神經(jīng)網(wǎng)絡(luò),有一組輸入神經(jīng)元。輸入神經(jīng)元會(huì)被輸入圖像的數(shù)據(jù)所激發(fā)。在激勵(lì)值被加權(quán)并通過一個(gè)函數(shù)(由網(wǎng)絡(luò)的設(shè)計(jì)者確定)后,這些神經(jīng)元的激勵(lì)值被傳遞到其他神經(jīng)元。

    這個(gè)過程不斷重復(fù),直到輸出神經(jīng)元被激發(fā)。最后,輸出神經(jīng)元的激勵(lì)值決定了識(shí)別出來的是哪個(gè)字母。

    三、一文詳解圖神經(jīng)網(wǎng)絡(luò)(二)

    《The Graph Neural Network Model》

    圖領(lǐng)域的應(yīng)用主要可以分為兩種類型 :專注于 圖的應(yīng)用(graph-focused) 和 專注于節(jié)點(diǎn)的應(yīng)用(node-focused) 。對(duì)于graph-focused的應(yīng)用,函數(shù) 和具體的節(jié)點(diǎn)無關(guān),(即 ),訓(xùn)練時(shí),在一個(gè)圖的數(shù)據(jù)集中進(jìn)行分類或回歸。對(duì)于node-focused的應(yīng)用, 函數(shù)依賴于具體的節(jié)點(diǎn) ,即

    在一個(gè)圖-節(jié)點(diǎn)對(duì)的集合 , 表示圖的集合, 表示節(jié)點(diǎn)集合,圖領(lǐng)域問題可以表示成一個(gè)有如下數(shù)據(jù)集的監(jiān)督學(xué)習(xí)框架:

    其中, 表示集合 中的第 個(gè)節(jié)點(diǎn), 表示節(jié)點(diǎn) 的期望目標(biāo)(即標(biāo)簽)。節(jié)點(diǎn) 的狀態(tài)用 表示,該節(jié)點(diǎn)的輸出用 表示, 為 local transition function , 為 local output function ,那么 和 的更新方式如下:

    其中, 分別表示節(jié)點(diǎn) 的特征向量、與節(jié)點(diǎn) 相連的邊的特征向量、節(jié)點(diǎn) 鄰居節(jié)點(diǎn)的狀態(tài)向量、節(jié)點(diǎn) 鄰居節(jié)點(diǎn)的特征向量。 分別為所有的狀態(tài)、所有的輸出、所有的特征向量、所有節(jié)點(diǎn)的特征向量的疊加起來的向量,那么上面函數(shù)可以寫成如下形式:

    其中, 為 global transition function , 為 global output function ,分別是 和 的疊加形式

    根據(jù) Banach的不動(dòng)點(diǎn)理論 ,假設(shè) 是一個(gè)壓縮映射函數(shù),那么式子有唯一不動(dòng)點(diǎn)解,而且可以通過迭代方式逼近該不動(dòng)點(diǎn)

    其中, 表示 在第 個(gè)迭代時(shí)刻的值,對(duì)于任意初值,迭代的誤差是以指數(shù)速度減小的,使用迭代的形式寫出狀態(tài)和輸出的更新表達(dá)式為:

    GNN的學(xué)習(xí)就是估計(jì)參數(shù) ,使得函數(shù) 能夠近似估計(jì)訓(xùn)練集

    其中, 表示在圖 中監(jiān)督學(xué)習(xí)的節(jié)點(diǎn),對(duì)于graph-focused的任務(wù),需要增加一個(gè)特殊的節(jié)點(diǎn),該節(jié)點(diǎn)用來作為目標(biāo)節(jié)點(diǎn),這樣, graph-focused 任務(wù)和 node-focused 任務(wù)都能統(tǒng)一到節(jié)點(diǎn)預(yù)測(cè)任務(wù)上,學(xué)習(xí)目標(biāo)可以是最小化如下二次損失函數(shù)

    優(yōu)化算法基于隨機(jī)梯度下降的策略,優(yōu)化步驟按照如下幾步進(jìn)行:

    在GNN中,函數(shù) 不需要滿足特定的約束,直接使用多層前饋神經(jīng)網(wǎng)絡(luò),對(duì)于函數(shù) ,則需要著重考慮,因?yàn)? 需要滿足壓縮映射的條件,而且與不動(dòng)點(diǎn)計(jì)算相關(guān)。下面提出兩種神經(jīng)網(wǎng)絡(luò)和不同的策略來滿足這些需求

    對(duì)于節(jié)點(diǎn)n nn狀態(tài)的計(jì)算,將 改成如下形式

    相當(dāng)于是對(duì)節(jié)點(diǎn) 的每一個(gè)鄰居節(jié)點(diǎn)使用 ,并將得到的值求和來作為節(jié)點(diǎn) 的狀態(tài),由此,對(duì)上式中的函數(shù) 按照如下方式實(shí)現(xiàn):

    其中,向量 ,矩陣 定義為兩個(gè)前向神經(jīng)網(wǎng)絡(luò)的輸出。更確切地說,令產(chǎn)生矩陣 的網(wǎng)絡(luò)為transition network,產(chǎn)生向量 的網(wǎng)絡(luò)為forcing network

    其中, , , 表示將 維的向量整理(reshape)成 的矩陣,也就是說,將transition network的輸出整理成方形矩陣,然后乘以一個(gè)系數(shù)就得到 , 就是forcing network的輸出

    在這里,假定 ,這個(gè)可以通過設(shè)定transition function的激活函數(shù)來滿足,比如設(shè)定激活函數(shù)為 tanh() 。在這種情況下, , 和 分別是 的塊矩陣形式和 的堆疊形式,可得:

    該式表示 對(duì)于任意的參數(shù) 是一個(gè)壓縮映射,矩陣 的 1-norm 定義為:

    在這個(gè)結(jié)構(gòu)中, 通過多層前饋網(wǎng)絡(luò)實(shí)現(xiàn),但是,并不是所有的參數(shù) 都會(huì)被使用,因?yàn)橥瑯有枰WC 是一個(gè)壓縮映射函數(shù),這個(gè)可以通過懲罰項(xiàng)來實(shí)現(xiàn)

    其中,懲罰項(xiàng) 在 時(shí)為 ,在 時(shí)為0,參數(shù) 定義為希望的 的壓縮系數(shù)

    NLP新人,歡迎大家一起交流,互相學(xué)習(xí),共同成長(zhǎng)~~

    四、人工智能未來的發(fā)展前景怎么樣?

    1、市場(chǎng)規(guī)模:中國(guó)人工智能行業(yè)呈現(xiàn)高速增長(zhǎng)態(tài)勢(shì)

    人工智能產(chǎn)業(yè)是智能產(chǎn)業(yè)發(fā)展的核心,是其他智能科技產(chǎn)品發(fā)展的基礎(chǔ),近年來,中國(guó)人工智能產(chǎn)業(yè)在政策與技術(shù)雙重驅(qū)動(dòng)下呈現(xiàn)高速增長(zhǎng)態(tài)勢(shì)。根據(jù)中國(guó)信通院數(shù)研中心測(cè)算,2020年中國(guó)人工智能產(chǎn)業(yè)規(guī)模為3031億元人民幣,同比增長(zhǎng)15.1%。中國(guó)人工智能產(chǎn)業(yè)規(guī)模增速超過全球。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    注:中國(guó)信通院的市場(chǎng)規(guī)模根據(jù)IDC數(shù)據(jù)測(cè)算,統(tǒng)計(jì)口徑與IDC一致,即包括軟件、硬件與服務(wù)市場(chǎng)。

    2、競(jìng)爭(zhēng)格局:中國(guó)人工智能企業(yè)主要分布在應(yīng)用層 占比超過80%

    ——中國(guó)人工智能企業(yè)全產(chǎn)業(yè)鏈布局完善

    我國(guó)作為全球人工智能領(lǐng)域發(fā)展較好的地區(qū),無論是人工智能領(lǐng)域的基礎(chǔ)層、技術(shù)層、應(yīng)用層,還是人工智能的硬件產(chǎn)品、軟件產(chǎn)品及服務(wù),我國(guó)企業(yè)都有涉及。在國(guó)內(nèi),除去訊飛等垂直類企業(yè),真正在人工智能有所長(zhǎng)進(jìn)的巨頭依然是百度、阿里、騰訊這三家。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    ——中國(guó)人工智能企業(yè)主要分布在應(yīng)用層,占比超過80%

    據(jù)中國(guó)新一代人工智能發(fā)展戰(zhàn)略研究院2021年5月發(fā)布的《中國(guó)新一代人工智能科技產(chǎn)業(yè)發(fā)展報(bào)告(2021)》數(shù)據(jù),截至2020年底,中國(guó)人工智能企業(yè)布局側(cè)重在應(yīng)用層和技術(shù)層。其中,應(yīng)用層人工智能企業(yè)數(shù)占比最高,達(dá)到84.05%;其次是技術(shù)層企業(yè)數(shù),占比為13.65%;基礎(chǔ)層企業(yè)數(shù)占比最低,為2.30%。應(yīng)用層企業(yè)占比高說明中國(guó)的人工智能科技產(chǎn)業(yè)發(fā)展主要以應(yīng)用需求為牽引。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    3、技術(shù)分布:中國(guó)人工智能企業(yè)核心布局的技術(shù)主要為大數(shù)據(jù)和云計(jì)算

    從人工智能企業(yè)核心技術(shù)分布看,大數(shù)據(jù)和云計(jì)算占比最高,達(dá)到41.13%;其次是硬件、機(jī)器學(xué)習(xí)和推薦、服務(wù)機(jī)器人,占比分別為7.64%、6.81%、5.64%;緊隨其后,物聯(lián)網(wǎng)、工業(yè)機(jī)器人、語音識(shí)別和自然語言處理、圖形圖像識(shí)別技術(shù)的占比依次為5.55%、5.47%、4.76%、4.72%。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    4、細(xì)分領(lǐng)域:深度神經(jīng)網(wǎng)絡(luò)領(lǐng)域?yàn)橹袊?guó)AI研究熱門

    根據(jù)清華大學(xué)人工智能研究院、與中國(guó)工程院知識(shí)智能聯(lián)合研究中心聯(lián)合發(fā)布的《人工智能發(fā)展報(bào)告2011-2020》,2011-2020年十大AI研究熱點(diǎn)分別為深度神經(jīng)網(wǎng)絡(luò)、特征抽取、圖像分類、目標(biāo)檢測(cè)、語義分割、表示學(xué)習(xí)、生成對(duì)抗網(wǎng)絡(luò)、語義網(wǎng)絡(luò)、協(xié)同過濾和機(jī)器翻譯。

    圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景

    —— 更多行業(yè)相關(guān)數(shù)據(jù)請(qǐng)參考前瞻產(chǎn)業(yè)研究院《中國(guó)人工智能行業(yè)市場(chǎng)前瞻與投資戰(zhàn)略規(guī)劃分析報(bào)告》

    以上就是關(guān)于圖神經(jīng)網(wǎng)絡(luò)發(fā)展前景相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    美圖神器軟件排行榜(美圖神器軟件排行榜前十名)

    全能作圖神器

    作圖神器(免費(fèi)作圖工具)

    衛(wèi)生紙十大名牌排行榜(衛(wèi)生紙十大名牌排行榜龍頭股)

    大學(xué)宿舍神器排行榜(大學(xué)宿舍神器排行榜圖片)