-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
DNN語言模型(DNN語言模型拼寫糾錯(cuò))
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于DNN語言模型的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、深度學(xué)習(xí)在語音識(shí)別方面主要的難題和困難是什么?
深度學(xué)習(xí)的應(yīng)用:語音識(shí)別系統(tǒng)長期以來,在描述每個(gè)建模單元的統(tǒng)計(jì)概率模型時(shí),大多采用的是混合高斯模型(GMM)。這種模型由于估計(jì)簡單,適合海量數(shù)據(jù)訓(xùn)練,同時(shí)有成熟的區(qū)分度訓(xùn)練技術(shù)支持,長期以來,一直在語音識(shí)別應(yīng)用中占有壟斷性地位。但這種混合高斯模型本質(zhì)上是一種淺層網(wǎng)絡(luò)建模,不能充分描述特征的狀態(tài)空間分布。另外,GMM建模的特征維數(shù)一般是幾十維,不能充分描述特征之間的相關(guān)性。最后,GMM建模本質(zhì)上是一種似然概率建模,雖然區(qū)分度訓(xùn)練能夠模擬一些模式類之間的區(qū)分性,但能力有限。微軟研究院語音識(shí)別專家鄧立和俞棟從2009年開始和深度學(xué)習(xí)專家GeofferyHinton合作。2011年微軟宣布基于深度神經(jīng)網(wǎng)絡(luò)的識(shí)別系統(tǒng)取得成果并推出產(chǎn)品,徹底改變了語音識(shí)別原有的技術(shù)框架。采用深度神經(jīng)網(wǎng)絡(luò)后,可以充分描述特征之間的相關(guān)性,可以把連續(xù)多幀的語音特征并在一起,構(gòu)成一個(gè)高維特征。最終的深度神經(jīng)網(wǎng)絡(luò)可以采用高維特征訓(xùn)練來模擬。由于深度神經(jīng)網(wǎng)絡(luò)采用模擬人腦的多層結(jié)果,可以逐級(jí)地進(jìn)行信息特征抽取,最終形成適合模式分類的較理想特征。這種多層結(jié)構(gòu)和人腦處理語音圖像信息時(shí),是有很大的相似性的。深度神經(jīng)網(wǎng)絡(luò)的建模技術(shù),在實(shí)際線上服務(wù)時(shí),能夠無縫地和傳統(tǒng)的語音識(shí)別技術(shù)相結(jié)合,在不引起任何系統(tǒng)額外耗費(fèi)情況下,大幅度提升了語音識(shí)別系統(tǒng)的識(shí)別率。其在線的使用方法具體如下:在實(shí)際解碼過程中,聲學(xué)模型仍然是采用傳統(tǒng)的HMM模型,語音模型仍然是采用傳統(tǒng)的統(tǒng)計(jì)語言模型,解碼器仍然是采用傳統(tǒng)的動(dòng)態(tài)WFST解碼器。但在聲學(xué)模型的輸出分布計(jì)算時(shí),完全用神經(jīng)網(wǎng)絡(luò)的輸出后驗(yàn)概率乘以一個(gè)先驗(yàn)概率來代替?zhèn)鹘y(tǒng)HMM模型中的GMM的輸出似然概率。百度在實(shí)踐中發(fā)現(xiàn),采用DNN進(jìn)行聲音建模的語音識(shí)別系統(tǒng)相比于傳統(tǒng)的GMM語音識(shí)別系統(tǒng)而言,相對(duì)誤識(shí)別率能降低25%。最終在2012年11月,百度上線了第一款基于DNN的語音搜索系統(tǒng),成為最早采用DNN技術(shù)進(jìn)行商業(yè)語音服務(wù)的公司之一。
國際上,Google也采用了深層神經(jīng)網(wǎng)絡(luò)進(jìn)行聲音建模,是最早突破深層神經(jīng)網(wǎng)絡(luò)工業(yè)化應(yīng)用的企業(yè)之一。但Google產(chǎn)品中采用的深度神經(jīng)網(wǎng)絡(luò)只有4-5層,而百度采用的深度神經(jīng)網(wǎng)絡(luò)多達(dá)9層。這種結(jié)構(gòu)差異的核心其實(shí)是百度更好地解決了深度神經(jīng)網(wǎng)絡(luò)在線計(jì)算的技術(shù)難題,因此百度線上產(chǎn)品可以采用更復(fù)雜的網(wǎng)絡(luò)模型。這將對(duì)于未來拓展海量語料的DNN模型訓(xùn)練有更大的優(yōu)勢。
二、Youtube DNN經(jīng)典論文
最近在看王喆的知乎專欄,第三、四、十三篇都是Youtube的經(jīng)典論文DNN:https://zhuanlan.zhihu.com/p/52169807 https://zhuanlan.zhihu.com/p/52504407 https://zhuanlan.zhihu.com/p/61827629
跟著大佬又回顧了一下,發(fā)現(xiàn)之前真的只能算是一知半解,趁著這次把對(duì)這篇論文的新的理解記錄一下,可能還會(huì)有一些錯(cuò)誤。
論文講解了在召回和精排兩個(gè)階段的模型:
召回:
先從特征說起:用戶觀看過的video的embedding,用戶搜索詞的embedding,用戶的地理位置、年齡等side_infomation,還有exampl_age這個(gè)需要解釋的特征
然后是模型:三層DNN
最后是training的loss:softmax做分類
serving的方式:nearest neighbor
里面其實(shí)有很多疑點(diǎn):
1.example_age是什么
這個(gè)點(diǎn)專欄里說是訓(xùn)練時(shí)間 - 得到這條樣本的時(shí)間(視頻點(diǎn)擊時(shí)間),但是我覺得這樣表達(dá)不出“新視頻”這個(gè)概念,也不知道用當(dāng)前時(shí)間去減是啥意思,label是點(diǎn)擊那一刻打上去的,又不是訓(xùn)練的時(shí)候;
所以我覺得這個(gè)example age應(yīng)該是點(diǎn)擊時(shí)間-上架時(shí)間,表示用戶對(duì)新上架視頻的偏好,用這個(gè)特征去捕獲這個(gè)偏好了,在serve的時(shí)候全都置為0就可以消除這個(gè)偏好,畢竟這是召回階段,可以多召回些東西。(這樣就是消除用戶對(duì)新視頻的偏好了?)
2.為什么要做多分類,而不是預(yù)測分,多分類的話有海量視頻,性能怎么保證
為什么要做多分類,而不是把樣本的embedding也給到網(wǎng)絡(luò)里做打分,這一點(diǎn)我是真的沒弄明白;
海量視頻的多分類性能的提升是用到了sampled softmax,可以參考http://www.4k8k.xyz/article/Kaiyuan_sjtu/119881236 https://zhuanlan.zhihu.com/p/349908071 總的來說就是通過Q(y|x)采樣出一個(gè)子集,對(duì)子集計(jì)算logits,然后用計(jì)算結(jié)果F(x,y)-log(Q(y|x))可以表示原數(shù)據(jù)集上的logits
3.serving階段為什么不做多分類了,而是做nearest neighbor
這里首先要弄明白serving階段的user embedding和video embedding是什么,user_embedding是最后一層relu之后的結(jié)果,比如是一個(gè)d維的向量;然后要得到一個(gè)幾百萬維(用d_N表示)的向量,需要過一個(gè)d*d_N維的矩陣,這個(gè)矩陣的每一列訓(xùn)練完之后就是video embedding;如果是serving的階段依然是和每一列相乘,再算一個(gè)softmax,既然分母是一樣的,取指數(shù)的操作也是一樣的,那么就直接做點(diǎn)積就好了。
排序:
先從特征說起:當(dāng)前排序的video的embedding,用戶觀看過的video的embedding,用戶和video的語言embedding,time since last watch是自上次觀看同channel視頻的時(shí)間,previous impressions是該視頻已經(jīng)被曝光給該用戶的次數(shù)(這里已經(jīng)引入了負(fù)反饋的思路)
然后是模型:三層DNN
最后是training的loss:weighted logistic
serving的方式:e^(Wx+b)
這里面也有一些疑點(diǎn):
1.training時(shí)候的weighted logistic是什么,為什么serving的時(shí)候用的是e^(Wx+b)
這個(gè)點(diǎn)是我重讀的時(shí)候最沒理解的地方,先嘗試寫一下,這里首先要搞清楚weighted logitstic是什么,那先回顧一下LR的公式的由來是log(odds) = w*x;這里的odds=p/(1-p)表示正樣本發(fā)生的概率/負(fù)樣本發(fā)生的概率;在weighted LR里面這個(gè)odds要變成W*p/(1-p)這里的W就是給正樣本加的權(quán)重,至于為什么是這樣有一種解釋是用正負(fù)樣本比去解釋的,我覺得不是很合理 https://zhuanlan.zhihu.com/p/435912211;但是如果能夠接受這個(gè)odds的話,那么log(odds) = w*x就可以得到odds = e^(wx),后者就是serving的目標(biāo);
再說W*p/(1-p)是什么,這里W權(quán)重是這條視頻的時(shí)長T,那么sum(Ti*pi)就是E(T)即時(shí)長的期望,E(T)/(1-p)泰勒展開就是E(T)*(1+p)這里的p很小的話其實(shí)就是E(T)也就是說serving的時(shí)候其實(shí)得到的就是觀看時(shí)長的期望,這里如果用到電商里用price去加權(quán),得到的應(yīng)該也是對(duì)price的預(yù)估。
還是非常建議多去看一下十大工程問題那篇專欄,講到了更多,比如對(duì)每個(gè)用戶提取等數(shù)量的訓(xùn)練樣本、把大量長尾video的embedding置0這些方法的出發(fā)點(diǎn)。
三、各種編程語言的深度學(xué)習(xí)庫整理大全!
各種編程語言的深度學(xué)習(xí)庫整理大全!
Python1. Theano是一個(gè)python類庫,用數(shù)組向量來定義和計(jì)算數(shù)學(xué)表達(dá)式。它使得在Python環(huán)境下編寫深度學(xué)習(xí)算法變得簡單。在它基礎(chǔ)之上還搭建了許多類庫。
1.Keras是一個(gè)簡潔、高度模塊化的神經(jīng)網(wǎng)絡(luò)庫,它的設(shè)計(jì)參考了Torch,用Python語言編寫,支持調(diào)用GPU和CPU優(yōu)化后的Theano運(yùn)算。
2.Pylearn2是一個(gè)集成大量深度學(xué)習(xí)常見模型和訓(xùn)練算法的庫,如隨機(jī)梯度下降等。它的功能庫都是基于Theano之上。
3.Lasagne是一個(gè)搭建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)的輕量級(jí)封裝庫,基于Theano。它遵循簡潔化、透明化、模塊化、實(shí)用化和專一化的原則。
4.Blocks也是一個(gè)基于Theano的幫助搭建神經(jīng)網(wǎng)絡(luò)的框架。
2. Caffe是深度學(xué)習(xí)的框架,它注重于代碼的表達(dá)形式、運(yùn)算速度以及模塊化程度。它是由伯克利視覺和學(xué)習(xí)中心(Berkeley Vision and Learning Center, BVLC)以及社區(qū)成員共同開發(fā)。谷歌的DeepDream項(xiàng)目就是基于Caffe框架完成。這個(gè)框架是使用BSD許可證的C++庫,并提供了Python調(diào)用接口。
3. nolearn囊括了大量的現(xiàn)有神經(jīng)網(wǎng)絡(luò)函數(shù)庫的封裝和抽象接口、大名鼎鼎的Lasagne以及一些機(jī)器學(xué)習(xí)的常用模塊。
4. Genism也是一個(gè)用Python編寫的深度學(xué)習(xí)小工具,采用高效的算法來處理大規(guī)模文本數(shù)據(jù)。
5. Chainer在深度學(xué)習(xí)的理論算法和實(shí)際應(yīng)用之間架起一座橋梁。它的特點(diǎn)是強(qiáng)大、靈活、直觀,被認(rèn)為是深度學(xué)習(xí)的靈活框架。
6. deepnet是基于GPU的深度學(xué)習(xí)算法函數(shù)庫,使用Python語言開發(fā),實(shí)現(xiàn)了前饋神經(jīng)網(wǎng)絡(luò)(FNN)、受限玻爾茲曼機(jī)(RBM)、深度信念網(wǎng)絡(luò)(DBN)、自編碼器(AE)、深度玻爾茲曼機(jī)(DBM)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)等算法。
7. Hebel也是深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的一個(gè)Python庫,它通過pyCUDA控制支持CUDA的GPU加速。它實(shí)現(xiàn)了最重要的幾類神經(jīng)網(wǎng)絡(luò)模型,提供了多種激活函數(shù)和模型訓(xùn)練方法,例如momentum、Nesterov momentum、dropout、和early stopping等方法。
8. CXXNET是一個(gè)基于MShadow開發(fā)的快速、簡潔的分布式深度學(xué)習(xí)框架。它是一個(gè)輕量級(jí)、易擴(kuò)展的C++/CUDA神經(jīng)網(wǎng)絡(luò)工具箱,提供友好的Python/Matlab接口來進(jìn)行訓(xùn)練和預(yù)測。
9. DeepPy是基于NumPy的深度學(xué)習(xí)框架。
10. DeepLearning是一個(gè)用C++和Python共同開發(fā)的深度學(xué)習(xí)函數(shù)庫。
11. Neon是Nervana System 的深度學(xué)習(xí)框架,使用Python開發(fā)。
Matlab
1. ConvNet 卷積神經(jīng)網(wǎng)絡(luò)是一類深度學(xué)習(xí)分類算法,它可以從原始數(shù)據(jù)中自主學(xué)習(xí)有用的特征,通過調(diào)節(jié)權(quán)重值來實(shí)現(xiàn)。
2. DeepLearnToolBox是用于深度學(xué)習(xí)的Matlab/Octave工具箱,它包含深度信念網(wǎng)絡(luò)(DBN)、棧式自編碼器(stacked AE)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)等算法。
3. cuda-convet是一套卷積神經(jīng)網(wǎng)絡(luò)(CNN)代碼,也適用于前饋神經(jīng)網(wǎng)絡(luò),使用C++/CUDA進(jìn)行運(yùn)算。它能對(duì)任意深度的多層神經(jīng)網(wǎng)絡(luò)建模。只要是有向無環(huán)圖的網(wǎng)絡(luò)結(jié)構(gòu)都可以。訓(xùn)練過程采用反向傳播算法(BP算法)。
4. MatConvNet是一個(gè)面向計(jì)算機(jī)視覺應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)(CNN)Matlab工具箱。它簡單高效,能夠運(yùn)行和學(xué)習(xí)最先進(jìn)的機(jī)器學(xué)習(xí)算法。
CPP
1. eblearn是開源的機(jī)器學(xué)習(xí)C++封裝庫,由Yann LeCun主導(dǎo)的紐約大學(xué)機(jī)器學(xué)習(xí)實(shí)驗(yàn)室開發(fā)。它用基于能量的模型實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò),并提供可視化交互界面(GUI)、示例以及示范教程。
2. SINGA是Apache軟件基金會(huì)支持的一個(gè)項(xiàng)目,它的設(shè)計(jì)目標(biāo)是在現(xiàn)有系統(tǒng)上提供通用的分布式模型訓(xùn)練算法。
3. NVIDIA DIGITS是用于開發(fā)、訓(xùn)練和可視化深度神經(jīng)網(wǎng)絡(luò)的一套新系統(tǒng)。它把深度學(xué)習(xí)的強(qiáng)大功能用瀏覽器界面呈現(xiàn)出來,使得數(shù)據(jù)科學(xué)家和研究員可以實(shí)時(shí)地可視化神經(jīng)網(wǎng)絡(luò)行為,快速地設(shè)計(jì)出最適合數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò)。
4. Intel? Deep Learning Framework提供了Intel?平臺(tái)加速深度卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)統(tǒng)一平臺(tái)。
Java
1. N-Dimensional Arrays for Java (ND4J) 是JVM平臺(tái)的科學(xué)計(jì)算函數(shù)庫。它主要用于產(chǎn)品中,也就是說函數(shù)的設(shè)計(jì)需求是運(yùn)算速度快、存儲(chǔ)空間最省。
2. Deeplearning4j 是第一款商業(yè)級(jí)別的開源分布式深度學(xué)習(xí)類庫,用Java和Scala編寫。它的設(shè)計(jì)目的是為了在商業(yè)環(huán)境下使用,而不是作為一款研究工具。
3. Encog是一個(gè)機(jī)器學(xué)習(xí)的高級(jí)框架,涵蓋支持向量機(jī)、人工神經(jīng)網(wǎng)絡(luò)、遺傳編程、貝葉斯網(wǎng)絡(luò)、隱馬可夫模型等,也支持遺傳算法。
JavaScript
1. Convnet.js 由JavaScript編寫,是一個(gè)完全在瀏覽器內(nèi)完成訓(xùn)練深度學(xué)習(xí)模型(主要是神經(jīng)網(wǎng)絡(luò))的封裝庫。不需要其它軟件,不需要編譯器,不需要安裝包,不需要GPU,甚至不費(fèi)吹灰之力。
Lua
1. Torch是一款廣泛適用于各種機(jī)器學(xué)習(xí)算法的科學(xué)計(jì)算框架。它使用容易,用快速的腳本語言LuaJit開發(fā),底層是C/CUDA實(shí)現(xiàn)。Torch基于Lua編程語言。
Julia
1. Mocha是Julia的深度學(xué)習(xí)框架,受C++框架Caffe的啟發(fā)。Mocha中通用隨機(jī)梯度求解程序和通用模塊的高效實(shí)現(xiàn),可以用來訓(xùn)練深度/淺層(卷積)神經(jīng)網(wǎng)絡(luò),可以通過(棧式)自編碼器配合非監(jiān)督式預(yù)訓(xùn)練(可選)完成。它的優(yōu)勢特性包括模塊化結(jié)構(gòu)、提供上層接口,可能還有速度、兼容性等更多特性。
Lisp
1. Lush(Lisp Universal Shell)是一種面向?qū)ο蟮木幊陶Z言,面向?qū)Υ笠?guī)模數(shù)值和圖形應(yīng)用感興趣的廣大研究員、實(shí)驗(yàn)員和工程師們。它擁有機(jī)器學(xué)習(xí)的函數(shù)庫,其中包含豐富的深度學(xué)習(xí)庫。
Haskell
1. DNNGraph是Haskell用于深度神經(jīng)網(wǎng)絡(luò)模型生成的領(lǐng)域特定語言(DSL)。
.NET
1. Accord.NET 是完全用C#編寫的.NET機(jī)器學(xué)習(xí)框架,包括音頻和圖像處理的類庫。它是產(chǎn)品級(jí)的完整框架,用于計(jì)算機(jī)視覺、計(jì)算機(jī)音頻、信號(hào)處理和統(tǒng)計(jì)應(yīng)用領(lǐng)域。
R
1. darch包可以用來生成多層神經(jīng)網(wǎng)絡(luò)(深度結(jié)構(gòu))。訓(xùn)練的方法包括了對(duì)比散度的預(yù)訓(xùn)練和眾所周知的訓(xùn)練算法(如反向傳播法或共軛梯度法)的細(xì)調(diào)。
2. deepnet實(shí)現(xiàn)了許多深度學(xué)習(xí)框架和神經(jīng)網(wǎng)絡(luò)算法,包括反向傳播(BP)、受限玻爾茲曼機(jī)(RBM)、深度信念網(wǎng)絡(luò)(DBP)、深度自編碼器(Deep autoencoder)等等。
四、漢字糾錯(cuò)手抄報(bào)
漢字糾錯(cuò)手抄報(bào)
中文別字錯(cuò)誤類型:
1. 別字: 感帽,隨然,傳然,嘔土
2. 人名,地名錯(cuò)誤:哈蜜(正:哈密)
3. 拼音錯(cuò)誤:咳數(shù)(ke shu)—> ke sou,
4. 知識(shí)性錯(cuò)誤:廣州黃浦(埔)
5. 用戶發(fā)音、方言糾錯(cuò):我系東北滴黑社會(huì),俚蛾幾現(xiàn)在在我手上。(我是東北的黑社會(huì),你兒子現(xiàn)在在我手上。)
6. 重復(fù)性錯(cuò)誤:在 上 上面 上面 那 什么 啊
7. 口語化問題:呃 。 呃 ,啊,那用戶名稱是叫什么呢?(正:那用戶名稱是叫什么呢?)
錯(cuò)別字糾正的主要技術(shù):
錯(cuò)別字詞典,編輯距離,語言模型(ngram LM,DNN LM,基于字的模型?基于詞的模型?)
三個(gè)關(guān)鍵點(diǎn):分詞質(zhì)量、領(lǐng)域相關(guān)詞表質(zhì)量、語言模型的種類和質(zhì)量。
1. 常見的中文錯(cuò)誤類型
發(fā)音錯(cuò)誤, 特點(diǎn):音近,發(fā)音不標(biāo)準(zhǔn), 原因:地方發(fā)音,語言轉(zhuǎn)化。 - 灰機(jī)
拼寫錯(cuò)誤:特點(diǎn): 正確詞語錯(cuò)誤使用, 原因: 輸入法導(dǎo)致-拼音、五筆、手寫 - 眼睛蛇
語法,知識(shí)錯(cuò)誤: 特點(diǎn):邏輯錯(cuò)誤,多字、少字,亂序 - 女性患病前列腺炎
漢字是我們中國人使用的文字,它長得方方正正,寫在紙上非常好看。
在我呀呀學(xué)語的時(shí)候,爸爸媽媽就開始教我學(xué)漢字;我上幼兒園的時(shí)候,幼兒園老師繼續(xù)教我學(xué)漢字;現(xiàn)在我上小學(xué)四年級(jí)了,我還在學(xué)漢字。老師告訴我說,漢語言文化博大精深,要活到老學(xué)到老。我對(duì)此也深有體會(huì),記得在學(xué)習(xí)《字謎七則》時(shí),有這樣一道題把我難住了:有心走不快,見水裝不完,長草難收拾,遇食就可餐。我絞盡腦汁就是想不出來是什么字,最后還是在老師的引導(dǎo)下我才知道謎底是“曼”字,為什么呢?你看“曼”字加上字謎里說的偏旁不就變成“慢”、“漫”、“蔓”、“饅”了嗎。多有意思呀!
在我學(xué)漢字的過程中,最讓我記憶猶新不能忘記的是爸爸給我說的一句話:不認(rèn)識(shí)的字要查字典,不能只讀一半。這還要從我學(xué)漢字時(shí)鬧的一個(gè)笑話說起,那時(shí)我覺得我認(rèn)識(shí)的漢字已經(jīng)很多了,就開始讓爸爸給我推薦課外書,爸爸給了我一本《水滸》,我張口就讀成了“水許”,爸爸媽媽笑了,爺爺奶奶也笑了,我有些莫名其妙,后來我查了字典才知道自己鬧了一個(gè)大笑話。從那以后,我養(yǎng)成了查字典的習(xí)慣,這對(duì)我大量讀課外書帶來了很大的幫助。
聽說現(xiàn)在很多外國人都在學(xué)習(xí)漢字,我真感到自豪和驕傲!
以上就是關(guān)于DNN語言模型相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
youtube網(wǎng)頁版登錄入口(海外網(wǎng)站cdn加速)
銷售計(jì)劃實(shí)施方案(銷售計(jì)劃實(shí)施方案pDNA)
中國傳統(tǒng)文化簡介50字(中國傳統(tǒng)文化簡介100字)
猜你喜歡
為什么交友平臺(tái)都要收費(fèi)(為什么交友平臺(tái)都要收費(fèi)了)
chatGPT中文手機(jī)版(chat手機(jī)版下載)
openai賬戶(openai賬戶可以用手機(jī)號(hào)找回嗎-)
計(jì)算機(jī)輔助制造軟件(計(jì)算機(jī)輔助制造軟件UG)
AI聊天機(jī)器人的新必爭之地(智能的聊天ai機(jī)器人)
1020錯(cuò)誤是什么意思(錯(cuò)誤代碼1020是什么意思)
電腦禁用u盤啟動(dòng)(電腦禁用u盤啟動(dòng)不了)
facebook網(wǎng)頁版登錄(facebook官網(wǎng)登錄入口)