-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 短視頻 > 專題列表 > 正文
AI自動生成文章摘要(ai自動生成文章摘要怎么弄)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于AI自動生成文章摘要的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
2023新版文章智能生成器,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com
本文目錄:
一、人工智能一些術(shù)語總結(jié)
隨著智能時代慢慢的到來,有一些基本概念都不知道真的是要落伍了,作為正在積極學(xué)習(xí)向上的青年,我想總結(jié)一份筆記,此份筆記會記錄眾多AI領(lǐng)域的術(shù)語和概念,當(dāng)然,學(xué)一部分記錄一部分,并且可能會夾雜著自己的一些理解,由于能力有限,有問題希望大家多多賜教。當(dāng)然,由于內(nèi)容太多,僅僅只是記錄了中英名對照,有的加上了簡單的解釋,沒加的后續(xù)大家有需求,我會慢慢完善~~。目錄暫定以首字母的字典序排序。可以當(dāng)作目錄方便以后查閱~~建議收藏加點(diǎn)贊哈哈哈
------------------------------------------------這里是分割線--------------------------------------------------
A
準(zhǔn)確率(accuracy)
分類模型預(yù)測準(zhǔn)確的比例。
二分類問題中,準(zhǔn)確率定義為:accuracy = (true positives +true negatives)/all samples
多分類問題中,準(zhǔn)確率定義為:accuracy = correctpredictions/all samples
激活函數(shù)(activation function)
一種函數(shù),將前一層所有神經(jīng)元激活值的加權(quán)和 輸入到一個非線性函數(shù)中,然后作為下一層神經(jīng)元的輸入,例如 ReLU 或 Sigmoid
AdaGrad
一種復(fù)雜的梯度下降算法,重新調(diào)節(jié)每個參數(shù)的梯度,高效地給每個參數(shù)一個單獨(dú)的學(xué)習(xí)率。
AUC(曲線下面積)
一種考慮到所有可能的分類閾值的評估標(biāo)準(zhǔn)。ROC 曲線下面積代表分類器隨機(jī)預(yù)測真正類(Ture Positives)要比假正類(False Positives)概率大的確信度。
Adversarial example(對抗樣本)
Adversarial Networks(對抗網(wǎng)絡(luò))
Artificial General Intelligence/AGI(通用人工智能)
Attention mechanism(注意力機(jī)制)
Autoencoder(自編碼器)
Automatic summarization(自動摘要)
Average gradient(平均梯度)
Average-Pooling(平均池化)
B
反向傳播(Backpropagation/BP)
神經(jīng)網(wǎng)絡(luò)中完成梯度下降的重要算法。首先,在前向傳播的過程中計算每個節(jié)點(diǎn)的輸出值。然后,在反向傳播的過程中計算與每個參數(shù)對應(yīng)的誤差的偏導(dǎo)數(shù)。
基線(Baseline)
被用為對比模型表現(xiàn)參考的簡單模型。
批量(Batch)
模型訓(xùn)練中一個迭代(指一次梯度更新)使用的樣本集。
批量大?。˙atch size)
一個批量中樣本的數(shù)量。例如,SGD 的批量大小為 1,而 mini-batch 的批量大小通常在 10-1000 之間。
偏置(Bias)
與原點(diǎn)的截距或偏移量。
二元分類器(Binary classification)
一類分類任務(wù),輸出兩個互斥類別中的一個。比如垃圾郵件檢測。
詞袋(Bag of words/Bow)
基學(xué)習(xí)器(Base learner)
基學(xué)習(xí)算法(Base learning algorithm)
貝葉斯網(wǎng)絡(luò)(Bayesian network)
基準(zhǔn)(Bechmark)
信念網(wǎng)絡(luò)(Belief network)
二項分布(Binomial distribution)
玻爾茲曼機(jī)(Boltzmann machine)
自助采樣法/可重復(fù)采樣/有放回采樣(Bootstrap sampling)
廣播(Broadcasting)
C
類別(Class)
所有同類屬性的目標(biāo)值作為一個標(biāo)簽。
分類模型(classification)
機(jī)器學(xué)習(xí)模型的一種,將數(shù)據(jù)分離為兩個或多個離散類別。
收斂(convergence)
訓(xùn)練過程達(dá)到的某種狀態(tài),其中訓(xùn)練損失和驗證損失在經(jīng)過了確定的迭代次數(shù)后,在每一次迭代中,改變很小或完全不變。
凸函數(shù)(concex function)
一種形狀大致呈字母 U 形或碗形的函數(shù)。然而,在退化情形中,凸函數(shù)的形狀就像一條線。
成本(cost)
loss 的同義詞。深度學(xué)習(xí)模型一般都會定義自己的loss函數(shù)。
交叉熵(cross-entropy)
多類別分類問題中對 Log 損失函數(shù)的推廣。交叉熵量化兩個概率分布之間的區(qū)別。
條件熵(Conditional entropy)
條件隨機(jī)場(Conditional random field/CRF)
置信度(Confidence)
共軛方向(Conjugate directions)
共軛分布(Conjugate distribution)
共軛梯度(Conjugate gradient)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network/CNN)
余弦相似度(Cosine similarity)
成本函數(shù)(Cost Function)
曲線擬合(Curve-fitting)
D
數(shù)據(jù)集(data set)
樣本的集合
深度模型(deep model)
一種包含多個隱藏層的神經(jīng)網(wǎng)絡(luò)。深度模型依賴于其可訓(xùn)練的非線性性質(zhì)。和寬度模型對照(widemodel)。
dropout 正則化(dropoutregularization)
訓(xùn)練神經(jīng)網(wǎng)絡(luò)時一種有用的正則化方法。dropout 正則化的過程是在單次梯度計算中刪去一層網(wǎng)絡(luò)中隨機(jī)選取的固定數(shù)量的單元。刪去的單元越多,正則化越強(qiáng)。
數(shù)據(jù)挖掘(Data mining)
決策樹/判定樹(Decisiontree)
深度神經(jīng)網(wǎng)絡(luò)(Deep neural network/DNN)
狄利克雷分布(Dirichlet distribution)
判別模型(Discriminative model)
下采樣(Down sampling)
動態(tài)規(guī)劃(Dynamic programming)
E
早期停止法(early stopping)
一種正則化方法,在訓(xùn)練損失完成下降之前停止模型訓(xùn)練過程。當(dāng)驗證數(shù)據(jù)集(validationdata set)的損失開始上升的時候,即泛化表現(xiàn)變差的時候,就該使用早期停止法了。
嵌入(embeddings)
一類表示為連續(xù)值特征的明確的特征。嵌入通常指將高維向量轉(zhuǎn)換到低維空間中。
經(jīng)驗風(fēng)險最小化(empirical risk minimization,ERM)
選擇能使得訓(xùn)練數(shù)據(jù)的損失函數(shù)最小化的模型的過程。和結(jié)構(gòu)風(fēng)險最小化(structualrisk minimization)對照。
集成(ensemble)
多個模型預(yù)測的綜合考慮??梢酝ㄟ^以下一種或幾種方法創(chuàng)建一個集成方法:
設(shè)置不同的初始化;
設(shè)置不同的超參量;
設(shè)置不同的總體結(jié)構(gòu)。
深度和廣度模型是一種集成。
樣本(example)
一個數(shù)據(jù)集的一行內(nèi)容。一個樣本包含了一個或多個特征,也可能是一個標(biāo)簽。參見標(biāo)注樣本(labeledexample)和無標(biāo)注樣本(unlabeled example)。
F
假負(fù)類(false negative,F(xiàn)N)
被模型錯誤的預(yù)測為負(fù)類的樣本。例如,模型推斷一封郵件為非垃圾郵件(負(fù)類),但實際上這封郵件是垃圾郵件。
假正類(false positive,F(xiàn)P)
被模型錯誤的預(yù)測為正類的樣本。例如,模型推斷一封郵件為垃圾郵件(正類),但實際上這封郵件是非垃圾郵件。
假正類率(false positive rate,F(xiàn)P rate)
ROC 曲線(ROC curve)中的 x 軸。FP 率的定義是:假正率=假正類數(shù)/(假正類數(shù)+真負(fù)類數(shù))
特征工程(feature engineering)
在訓(xùn)練模型的時候,挖掘?qū)δP托Ч欣奶卣鳌?/p>
前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks/FNN )
G
泛化(generalization)
指模型利用新的沒見過的數(shù)據(jù)而不是用于訓(xùn)練的數(shù)據(jù)作出正確的預(yù)測的能力。
廣義線性模型(generalized linear model)
最小二乘回歸模型的推廣/泛化,基于高斯噪聲,相對于其它類型的模型(基于其它類型的噪聲,比如泊松噪聲,或類別噪聲)。廣義線性模型的例子包括:
logistic 回歸
多分類回歸
最小二乘回歸
梯度(gradient)
所有變量的偏導(dǎo)數(shù)的向量。在機(jī)器學(xué)習(xí)中,梯度是模型函數(shù)的偏導(dǎo)數(shù)向量。梯度指向最陡峭的上升路線。
梯度截斷(gradient clipping)
在應(yīng)用梯度之前先修飾數(shù)值,梯度截斷有助于確保數(shù)值穩(wěn)定性,防止梯度爆炸出現(xiàn)。
梯度下降(gradient descent)
通過計算模型的相關(guān)參量和損失函數(shù)的梯度最小化損失函數(shù),值取決于訓(xùn)練數(shù)據(jù)。梯度下降迭代地調(diào)整參量,逐漸靠近權(quán)重和偏置的最佳組合,從而最小化損失函數(shù)。
圖(graph)
在 TensorFlow 中的一種計算過程展示。圖中的節(jié)點(diǎn)表示操作。節(jié)點(diǎn)的連線是有指向性的,表示傳遞一個操作(一個張量)的結(jié)果(作為一個操作數(shù))給另一個操作。使用 TensorBoard 能可視化計算圖。
高斯核函數(shù)(Gaussian kernel function)
高斯混合模型(Gaussian Mixture Model)
高斯過程(Gaussian Process)
泛化誤差(Generalization error)
生成模型(Generative Model)
遺傳算法(Genetic Algorithm/GA)
吉布斯采樣(Gibbs sampling)
基尼指數(shù)(Gini index)
梯度下降(Gradient Descent)
H
啟發(fā)式(heuristic)
一個問題的實際的和非最優(yōu)的解,但能從學(xué)習(xí)經(jīng)驗中獲得足夠多的進(jìn)步。
隱藏層(hidden layer)
神經(jīng)網(wǎng)絡(luò)中位于輸入層(即特征)和輸出層(即預(yù)測)之間的合成層。一個神經(jīng)網(wǎng)絡(luò)包含一個或多個隱藏層。
超參數(shù)(hyperparameter)
連續(xù)訓(xùn)練模型的過程中可以擰動的「旋鈕」。例如,相對于模型自動更新的參數(shù),學(xué)習(xí)率(learningrate)是一個超參數(shù)。和參量對照。
硬間隔(Hard margin)
隱馬爾可夫模型(Hidden Markov Model/HMM)
層次聚類(Hierarchical clustering)
假設(shè)檢驗(Hypothesis test)
I
獨(dú)立同分布(independently and identicallydistributed,i.i.d)
從不會改變的分布中獲取的數(shù)據(jù),且獲取的每個值不依賴于之前獲取的值。i.i.d. 是機(jī)器學(xué)習(xí)的理想情況——一種有用但在現(xiàn)實世界中幾乎找不到的數(shù)學(xué)構(gòu)建。
推斷(inference)
在機(jī)器學(xué)習(xí)中,通常指將訓(xùn)練模型應(yīng)用到無標(biāo)注樣本來進(jìn)行預(yù)測的過程。在統(tǒng)計學(xué)中,推斷指在觀察到的數(shù)據(jù)的基礎(chǔ)上擬合分布參數(shù)的過程。
輸入層(input layer)
神經(jīng)網(wǎng)絡(luò)的第一層(接收輸入數(shù)據(jù))。
評分者間一致性(inter-rater agreement)
用來衡量一項任務(wù)中人類評分者意見一致的指標(biāo)。如果意見不一致,則任務(wù)說明可能需要改進(jìn)。有時也叫標(biāo)注者間信度(inter-annotator agreement)或評分者間信度(inter-raterreliability)。
增量學(xué)習(xí)(Incremental learning)
獨(dú)立成分分析(Independent Component Analysis/ICA)
獨(dú)立子空間分析(Independent subspace analysis)
信息熵(Information entropy)
信息增益(Information gain)
J
JS 散度(Jensen-ShannonDivergence/JSD)
K
Kernel 支持向量機(jī)(KernelSupport Vector Machines/KSVM)
一種分類算法,旨在通過將輸入數(shù)據(jù)向量映射到更高維度的空間使正類和負(fù)類之間的邊際最大化。例如,考慮一個輸入數(shù)據(jù)集包含一百個特征的分類問題。為了使正類和負(fù)類之間的間隔最大化,KSVM 從內(nèi)部將特征映射到百萬維度的空間。KSVM 使用的損失函數(shù)叫作 hinge 損失。
核方法(Kernel method)
核技巧(Kernel trick)
k 折交叉驗證/k 倍交叉驗證(K-fold cross validation)
K - 均值聚類(K-MeansClustering)
K近鄰算法(K-Nearest NeighboursAlgorithm/KNN)
知識圖譜(Knowledge graph)
知識庫(Knowledge base)
知識表征(Knowledge Representation)
L
L1 損失函數(shù)(L1 loss)
損失函數(shù)基于模型對標(biāo)簽的預(yù)測值和真實值的差的絕對值而定義。L1 損失函數(shù)比起 L2 損失函數(shù)對異常值的敏感度更小。
L1 正則化(L1regularization)
一種正則化,按照權(quán)重絕對值總和的比例進(jìn)行懲罰。在依賴稀疏特征的模型中,L1 正則化幫助促使(幾乎)不相關(guān)的特征的權(quán)重趨近于 0,從而從模型中移除這些特征。
L2 損失(L2 loss)
參見平方損失。
L2 正則化(L2regularization)
一種正則化,按照權(quán)重平方的總和的比例進(jìn)行懲罰。L2 正則化幫助促使異常值權(quán)重更接近 0 而不趨近于 0。(可與 L1 正則化對照閱讀。)L2 正則化通常改善線性模型的泛化效果。
標(biāo)簽(label)
在監(jiān)督式學(xué)習(xí)中,樣本的「答案」或「結(jié)果」。標(biāo)注數(shù)據(jù)集中的每個樣本包含一或多個特征和一個標(biāo)簽。在垃圾郵件檢測數(shù)據(jù)集中,特征可能包括主題、發(fā)出者何郵件本身,而標(biāo)簽可能是「垃圾郵件」或「非垃圾郵件」。
標(biāo)注樣本(labeled example)
包含特征和標(biāo)簽的樣本。在監(jiān)督式訓(xùn)練中,模型從標(biāo)注樣本中進(jìn)行學(xué)習(xí)。
學(xué)習(xí)率(learning rate)
通過梯度下降訓(xùn)練模型時使用的一個標(biāo)量。每次迭代中,梯度下降算法使學(xué)習(xí)率乘以梯度,乘積叫作 gradient step。學(xué)習(xí)率是一個重要的超參數(shù)。
最小二乘回歸(least squares regression)
通過 L2 損失最小化進(jìn)行訓(xùn)練的線性回歸模型。
線性回歸(linear regression)
對輸入特征的線性連接輸出連續(xù)值的一種回歸模型。
logistic 回歸(logisticregression)
將 sigmoid 函數(shù)應(yīng)用于線性預(yù)測,在分類問題中為每個可能的離散標(biāo)簽值生成概率的模型。盡管 logistic 回歸常用于二元分類問題,但它也用于多類別分類問題(這種情況下,logistic回歸叫作「多類別 logistic 回歸」或「多項式 回歸」。
對數(shù)損失函數(shù)(Log Loss)
二元 logistic 回歸模型中使用的損失函數(shù)。
損失(Loss)
度量模型預(yù)測與標(biāo)簽距離的指標(biāo),它是度量一個模型有多糟糕的指標(biāo)。為了確定損失值,模型必須定義損失函數(shù)。例如,線性回歸模型通常使用均方差作為損失函數(shù),而 logistic 回歸模型使用對數(shù)損失函數(shù)。
隱狄利克雷分布(Latent Dirichlet Allocation/LDA)
潛在語義分析(Latent semantic analysis)
線性判別(Linear Discriminant Analysis/LDA)
長短期記憶(Long-Short Term Memory/LSTM)
M
機(jī)器學(xué)習(xí)(machine learning)
利用輸入數(shù)據(jù)構(gòu)建(訓(xùn)練)預(yù)測模型的項目或系統(tǒng)。該系統(tǒng)使用學(xué)習(xí)的模型對與訓(xùn)練數(shù)據(jù)相同分布的新數(shù)據(jù)進(jìn)行有用的預(yù)測。機(jī)器學(xué)習(xí)還指與這些項目或系統(tǒng)相關(guān)的研究領(lǐng)域。
均方誤差(Mean Squared Error/MSE)
每個樣本的平均平方損失。MSE 可以通過平方損失除以樣本數(shù)量來計算。
小批量(mini-batch)
在訓(xùn)練或推斷的一個迭代中運(yùn)行的整批樣本的一個小的隨機(jī)選擇的子集。小批量的大小通常在10 到 1000 之間。在小批量數(shù)據(jù)上計算損失比在全部訓(xùn)練數(shù)據(jù)上計算損失要高效的多。
機(jī)器翻譯(Machine translation/MT)
馬爾可夫鏈蒙特卡羅方法(Markov Chain Monte Carlo/MCMC)
馬爾可夫隨機(jī)場(Markov Random Field)
多文檔摘要(Multi-document summarization)
多層感知器(Multilayer Perceptron/MLP)
多層前饋神經(jīng)網(wǎng)絡(luò)(Multi-layer feedforward neuralnetworks)
N
NaN trap
訓(xùn)練過程中,如果模型中的一個數(shù)字變成了 NaN,則模型中的很多或所有其他數(shù)字最終都變成 NaN。NaN 是「Not aNumber」的縮寫。
神經(jīng)網(wǎng)絡(luò)(neural network)
該模型從大腦中獲取靈感,由多個層組成(其中至少有一個是隱藏層),每個層包含簡單的連接單元或神經(jīng)元,其后是非線性。
神經(jīng)元(neuron)
神經(jīng)網(wǎng)絡(luò)中的節(jié)點(diǎn),通常輸入多個值,生成一個輸出值。神經(jīng)元通過將激活函數(shù)(非線性轉(zhuǎn)換)應(yīng)用到輸入值的加權(quán)和來計算輸出值。
歸一化(normalization)
將值的實際區(qū)間轉(zhuǎn)化為標(biāo)準(zhǔn)區(qū)間的過程,標(biāo)準(zhǔn)區(qū)間通常是-1 到+1 或 0 到 1。例如,假設(shè)某個特征的自然區(qū)間是 800 到 6000。通過減法和分割,你可以把那些值標(biāo)準(zhǔn)化到區(qū)間-1 到+1。參見縮放。
Numpy
Python 中提供高效數(shù)組運(yùn)算的開源數(shù)學(xué)庫。pandas 基于 numpy 構(gòu)建。
Naive bayes(樸素貝葉斯)
Naive Bayes Classifier(樸素貝葉斯分類器)
Named entity recognition(命名實體識別)
Natural language generation/NLG(自然語言生成)
Natural language processing(自然語言處理)
Norm(范數(shù))
O
目標(biāo)(objective)
算法嘗試優(yōu)化的目標(biāo)函數(shù)。
one-hot 編碼(獨(dú)熱編碼)(one-hotencoding)
一個稀疏向量,其中:一個元素設(shè)置為 1,所有其他的元素設(shè)置為 0。。
一對多(one-vs.-all)
給出一個有 N 個可能解決方案的分類問題,一對多解決方案包括 N 個獨(dú)立的二元分類器——每個可能的結(jié)果都有一個二元分類器。例如,一個模型將樣本分為動物、蔬菜或礦物,則一對多的解決方案將提供以下三種獨(dú)立的二元分類器:
動物和非動物
蔬菜和非蔬菜
礦物和非礦物
過擬合(overfitting)
創(chuàng)建的模型與訓(xùn)練數(shù)據(jù)非常匹配,以至于模型無法對新數(shù)據(jù)進(jìn)行正確的預(yù)測
Oversampling(過采樣)
P
pandas
一種基于列的數(shù)據(jù)分析 API。很多機(jī)器學(xué)習(xí)框架,包括 TensorFlow,支持 pandas 數(shù)據(jù)結(jié)構(gòu)作為輸入。參見 pandas 文檔。
參數(shù)(parameter)
機(jī)器學(xué)習(xí)系統(tǒng)自行訓(xùn)練的模型的變量。例如,權(quán)重是參數(shù),它的值是機(jī)器學(xué)習(xí)系統(tǒng)通過連續(xù)的訓(xùn)練迭代逐漸學(xué)習(xí)到的。注意與超參數(shù)的區(qū)別。
性能(performance)
在軟件工程中的傳統(tǒng)含義:軟件運(yùn)行速度有多快/高效?
在機(jī)器學(xué)習(xí)中的含義:模型的準(zhǔn)確率如何?即,模型的預(yù)測結(jié)果有多好?
困惑度(perplexity)
對模型完成任務(wù)的程度的一種度量指標(biāo)。例如,假設(shè)你的任務(wù)是閱讀用戶在智能手機(jī)上輸入的單詞的頭幾個字母,并提供可能的完整單詞列表。該任務(wù)的困惑度(perplexity,P)是為了列出包含用戶實際想輸入單詞的列表你需要進(jìn)行的猜測數(shù)量。
流程(pipeline)
機(jī)器學(xué)習(xí)算法的基礎(chǔ)架構(gòu)。管道包括收集數(shù)據(jù)、將數(shù)據(jù)放入訓(xùn)練數(shù)據(jù)文件中、訓(xùn)練一或多個模型,以及最終輸出模型。
Principal component analysis/PCA(主成分分析)
Precision(查準(zhǔn)率/準(zhǔn)確率)
Prior knowledge(先驗知識)
Q
Quasi Newton method(擬牛頓法)
R
召回率(recall)
回歸模型(regression model)
一種輸出持續(xù)值(通常是浮點(diǎn)數(shù))的模型。而分類模型輸出的是離散值。
正則化(regularization)
對模型復(fù)雜度的懲罰。正則化幫助防止過擬合。正則化包括不同種類:
L1 正則化
L2 正則化
dropout 正則化
early stopping(這不是正式的正則化方法,但可以高效限制過擬合)
正則化率(regularization rate)
一種標(biāo)量級,用 lambda 來表示,指正則函數(shù)的相對重要性。從下面這個簡化的損失公式可以看出正則化率的作用:
minimize(loss function + λ(regularization function))
提高正則化率能夠降低過擬合,但可能會使模型準(zhǔn)確率降低。
表征(represention)
將數(shù)據(jù)映射到有用特征的過程。
受試者工作特征曲線(receiver operatingcharacteristic/ROC Curve)
反映在不同的分類閾值上,真正類率和假正類率的比值的曲線。參見 AUC。
Recurrent Neural Network(循環(huán)神經(jīng)網(wǎng)絡(luò))
Recursive neural network(遞歸神經(jīng)網(wǎng)絡(luò))
Reinforcement learning/RL(強(qiáng)化學(xué)習(xí))
Re-sampling(重采樣法)
Representation learning(表征學(xué)習(xí))
Random Forest Algorithm(隨機(jī)森林算法)
S
縮放(scaling)
特征工程中常用的操作,用于控制特征值區(qū)間,使之與數(shù)據(jù)集中其他特征的區(qū)間匹配。例如,假設(shè)你想使數(shù)據(jù)集中所有的浮點(diǎn)特征的區(qū)間為 0 到 1。給定一個特征區(qū)間是 0 到 500,那么你可以通過將每個值除以 500,縮放特征值區(qū)間。還可參見正則化。
scikit-learn
一種流行的開源機(jī)器學(xué)習(xí)平臺。網(wǎng)址:www.scikit-learn.org。
序列模型(sequence model)
輸入具有序列依賴性的模型。例如,根據(jù)之前觀看過的視頻序列對下一個視頻進(jìn)行預(yù)測。
Sigmoid 函數(shù)(sigmoid function)
softmax
為多類別分類模型中每個可能的類提供概率的函數(shù)。概率加起來的總和是 1.0。例如,softmax 可能檢測到某個圖像是一只狗的概率為 0.9,是一只貓的概率為 0.08,是一匹馬的概率為 0.02。(也叫作 full softmax)。
結(jié)構(gòu)風(fēng)險最小化(structural risk minimization/SRM)
這種算法平衡兩個目標(biāo):
構(gòu)建預(yù)測性最強(qiáng)的模型(如最低損失)。
使模型盡量保持簡單(如強(qiáng)正則化)。
比如,在訓(xùn)練集上的損失最小化 + 正則化的模型函數(shù)就是結(jié)構(gòu)風(fēng)險最小化算法。更多信息,參見 http://www.svms.org/srm/??膳c經(jīng)驗風(fēng)險最小化對照閱讀。
監(jiān)督式機(jī)器學(xué)習(xí)(supervised machine learning)
利用輸入數(shù)據(jù)及其對應(yīng)標(biāo)簽來訓(xùn)練模型。監(jiān)督式機(jī)器學(xué)習(xí)類似學(xué)生通過研究問題和對應(yīng)答案進(jìn)行學(xué)習(xí)。在掌握問題和答案之間的映射之后,學(xué)生就可以提供同樣主題的新問題的答案了。可與非監(jiān)督機(jī)器學(xué)習(xí)對照閱讀。
Similarity measure(相似度度量)
Singular Value Decomposition(奇異值分解)
Soft margin(軟間隔)
Soft margin maximization(軟間隔最大化)
Support Vector Machine/SVM(支持向量機(jī))
T
張量(tensor)
TensorFlow 項目的主要數(shù)據(jù)結(jié)構(gòu)。張量是 N 維數(shù)據(jù)結(jié)構(gòu)(N 的值很大),經(jīng)常是標(biāo)量、向量或矩陣。張量可以包括整數(shù)、浮點(diǎn)或字符串值。
Transfer learning(遷移學(xué)習(xí))
U
無標(biāo)簽樣本(unlabeled example)
包含特征但沒有標(biāo)簽的樣本。無標(biāo)簽樣本是推斷的輸入。在半監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的訓(xùn)練過程中,通常使用無標(biāo)簽樣本。
無監(jiān)督機(jī)器學(xué)習(xí)(unsupervised machine learning)
訓(xùn)練一個模型尋找數(shù)據(jù)集(通常是無標(biāo)簽數(shù)據(jù)集)中的模式。無監(jiān)督機(jī)器學(xué)習(xí)最常用于將數(shù)據(jù)分成幾組類似的樣本。無監(jiān)督機(jī)器學(xué)習(xí)的另一個例子是主成分分析(principal componentanalysis,PCA)
W
Word embedding(詞嵌入)
Word sense disambiguation(詞義消歧)
二、數(shù)據(jù)標(biāo)注這個工作有發(fā)展前途嗎?
數(shù)據(jù)標(biāo)注員有沒有發(fā)展前景?
我國在十三五規(guī)劃中提出發(fā)展大數(shù)據(jù)產(chǎn)業(yè)以來,數(shù)據(jù)標(biāo)注與審核產(chǎn)業(yè)在國內(nèi)發(fā)展迅速,預(yù)計在2023年前后市場規(guī)模突破30億元。同時隨著5G及物聯(lián)網(wǎng)的普及和落地,未來人類還將產(chǎn)生更多的數(shù)據(jù),能極大地促進(jìn)數(shù)據(jù)標(biāo)注行業(yè)的發(fā)展。隨著產(chǎn)業(yè)的發(fā)展,不僅各大互聯(lián)網(wǎng)公司,連一些老牌的傳統(tǒng)制造商也都在積極布局各自的人工智能領(lǐng)域,比如海爾冰箱希望借助人工智能技術(shù)來分辨冰箱中哪些食材快要變質(zhì)、過期了,而實現(xiàn)這類功能的背后也離不開數(shù)據(jù)標(biāo)注。所謂先人工,后智能,只要人工智能產(chǎn)業(yè)持續(xù)向好、功能需求穩(wěn)定增長,數(shù)據(jù)標(biāo)注行業(yè)就會伴其長遠(yuǎn)的發(fā)展。
與此同時,在日常生活中,人工智能所涉及到的領(lǐng)域非常多,如教育、安防、金融、交通、醫(yī)療、電商等。在加入人工智能行業(yè)做數(shù)據(jù)標(biāo)注員的同時,能更早地接觸到未來各行各業(yè)的發(fā)展方向以及未來生活的真實場景。可以使我們快人一步,打開眼界率先看到未來的發(fā)展和需求,這樣我們才能在時間差中尋找更多的生存機(jī)會。
數(shù)據(jù)標(biāo)注員是做什么的?
數(shù)據(jù)標(biāo)注是對未處理的非機(jī)構(gòu)化初級數(shù)據(jù),包括語音、圖片、文本、視頻等,通過大量的人力進(jìn)行加工處理,并轉(zhuǎn)換為機(jī)器可識別信息的過程。原始數(shù)據(jù)一般通過數(shù)據(jù)采集獲得,隨后的數(shù)據(jù)標(biāo)注相當(dāng)于對數(shù)據(jù)進(jìn)行加工,然后輸送到人工智能算法和模型里完成調(diào)用。
數(shù)據(jù)標(biāo)注員就是對圖像、聲音、文字等初級數(shù)據(jù),進(jìn)行打標(biāo)簽、分類和整理等不同方式的標(biāo)注,常見的數(shù)據(jù)標(biāo)注任務(wù)包括分類標(biāo)注、標(biāo)框標(biāo)注、區(qū)域標(biāo)注、描點(diǎn)標(biāo)注和其他標(biāo)注等。
三、人工智能發(fā)展的結(jié)課論文
自從計算機(jī)誕生以來,計算機(jī)的發(fā)展十分迅猛快速,而且計算機(jī)的運(yùn)算速度已經(jīng)超過了人腦的運(yùn)算速度。目前對于計算機(jī)科學(xué)的研究已經(jīng)出現(xiàn)了很多的分支,其中的人工智能在整個計算機(jī)科學(xué)領(lǐng)域中也是一個十分熱門的課題。以下是我整理分享的人工智能發(fā)展的結(jié)課論文的相關(guān)資料,歡迎閱讀!
人工智能發(fā)展的結(jié)課論文篇一淺談人工智能技術(shù)的發(fā)展
摘要:自從計算機(jī)誕生以來,計算機(jī)的發(fā)展十分迅猛快速,而且計算機(jī)的運(yùn)算速度已經(jīng)超過了人腦的運(yùn)算速度。目前對于計算機(jī)科學(xué)的研究已經(jīng)出現(xiàn)了很多的分支,其中的人工智能在整個計算機(jī)科學(xué)領(lǐng)域中也是一個十分熱門的課題。本文從人工智能的概念開始,對人工智能的發(fā)展進(jìn)行講述,并從哲學(xué)的角度對人工智能能否超過人的智能這個問題進(jìn)行了分析。
關(guān)鍵詞:人工智能 發(fā)展 智能
1、人工智能的概念
人工智能(Artificial Intelligence,簡稱AI)是計算機(jī)科學(xué)的一個分支,它探究智能的實質(zhì),并以制造一種能以人類智能相類似的方式做出反應(yīng)的智能機(jī)器為目的。人工智能的產(chǎn)生和發(fā)展首先是一場思維科學(xué)的革命,它的產(chǎn)生和發(fā)展一定程度上依賴于思維科學(xué)的革命,同時它也對人類的 思維方式 和 方法 產(chǎn)生了深刻的變革。人工智能是與哲學(xué)關(guān)系最為緊密的科學(xué)話題,它集合了來自認(rèn)知心理學(xué)、語言學(xué)、神經(jīng)科學(xué)、邏輯學(xué)、數(shù)學(xué)、計算機(jī)科學(xué)、機(jī)器人學(xué)、經(jīng)濟(jì)學(xué)、社會學(xué)等等學(xué)科的研究成果。過去的半個多世紀(jì)以來人工智能在人類認(rèn)識自身及改造世界的道路上扮演了重要角色。一直以來,對人工智能研究存在兩種態(tài)度:強(qiáng)人工智能和弱人工智能,前者認(rèn)為AI可以達(dá)到具備思維理解的程度,可以具有真正的智能;后者認(rèn)為研究AI只是通過它來探索人類認(rèn)知,其智能只是模仿的不完全的智能。
2、人工智能的發(fā)展
對于人工智能的研究一共可以分為五個階段。
第一個階段是人工智能的興起與冷落,這個時間是在20世紀(jì)的50年代。這個階段是人工智能的起始階段,人工智能的概念首次被提出,并相繼涌現(xiàn)出一批科技成果,例如機(jī)器定理證明、 跳棋 程序、LISP語言等。由于人工智能處于起始階段,很多地方都存在著缺陷,在加上對自然語言的翻譯失敗等諸多原因,人工智能的發(fā)展一度陷入低谷。同時在這一個階段的人工智能研究有一個十分明顯的特點(diǎn):對問題求解的方法過度重視,而忽視了知識重要性。
第二個階段從20世紀(jì)的60年代末到70年代。專家系統(tǒng)的出現(xiàn)將人工智能的研究再一次推向高潮。其中比較著名的專家系統(tǒng)有DENDAL化學(xué)質(zhì)譜分析系統(tǒng)、MTCIN疾病診斷和治療系統(tǒng)、Hearsay-11語言理解系統(tǒng)等。這些專家系統(tǒng)的出現(xiàn)標(biāo)志著人工智能已經(jīng)進(jìn)入了實際運(yùn)用的階段。
第三個階段是20世紀(jì)80年代。這個階段伴隨著第五代計算機(jī)的研制,人工智能的研究也取得了極大的進(jìn)展。日本為了能夠使推理的速度達(dá)到數(shù)值運(yùn)算的速度那么快,于1982年開始了“第五代計算機(jī)研制計劃”。這個計劃雖然最終結(jié)果是以失敗結(jié)束,但是它卻帶來了人工智能研究的又一輪熱潮。
第四個階段是20世紀(jì)的80年代末。1987年是神經(jīng)網(wǎng)絡(luò)這一新興科學(xué)誕生的年份。1987年,美國召開了第一次神經(jīng)網(wǎng)絡(luò)國際會議,并向世人宣告了這一新興科學(xué)的誕生。此后,世界各國在神經(jīng)網(wǎng)絡(luò)上的投資也開始逐漸的增加。
第五個階段是20世紀(jì)90年代后。 網(wǎng)絡(luò)技術(shù) 的出現(xiàn)和發(fā)展,為人工智能的研究提供了新的方向。人工智能的研究已經(jīng)從曾經(jīng)的單個智能主體研究開始轉(zhuǎn)向基于網(wǎng)絡(luò)環(huán)境下的分布式人工智能研究。在這個階段人工智能不僅僅對基于同一目標(biāo)的分布式問題求解進(jìn)行研究,同時還對多個智能主體的多目標(biāo)問題求解進(jìn)行研究,讓人工智能有更多的實際用途。
3、人工智能可否超過人的智能
那么人工智能可否超過人的智能呢?關(guān)于這個問題可以從下面幾個方面來分析:
首先,從哲學(xué)量變會引起質(zhì)變的角度來說,人工智能的不斷發(fā)展必定會產(chǎn)生質(zhì)的飛躍。大家都知道,人工智能從最初的簡單模擬功能,到現(xiàn)在能進(jìn)行推理分析 (比如計算機(jī)戰(zhàn)勝了 國際象棋 世界冠軍),這本身就是巨大的量變。在一部科幻電影中,父親把兒子生前的記憶輸人芯片,裝在機(jī)器人中,這個機(jī)器人就與他的兒子死去時具有相同的思維和記憶,雖然他不會長大。從技術(shù)的角度來說,科幻電影中的東西在不久的將來也可以成為現(xiàn)實。到那個時候,真的就很難辨別是人還是機(jī)器了。
第二,有的人會說,人工智能不會超過人的智能,因為人工智能是人制造出來的,所以不可能超過人的智能。對于這個觀點(diǎn),我們這樣想一想,起重機(jī)也是人造出來的,它的力量不是超過人類很多嗎?汽車也是人制造出來的,它的速度不也遠(yuǎn)超過人類的速度嗎?從科學(xué)技術(shù)的角度來說,智能和力氣、速度一樣,也是人的某個方面的特性,為什么人工智能就不能超過人類的智能呢?
第三,還有的人認(rèn)為,人工智能是人制造的,必有其致命的弱點(diǎn),所以人的智能勝于人工智能。我認(rèn)為這一點(diǎn)也不成立,因為人與機(jī)器人比較,也可以說有致命弱點(diǎn),比如說人如果沒有空氣的話,就不能生存,就好比是機(jī)器人沒有電一樣。再比如,人體在超過一定的溫度或壓力的環(huán)境下,不能生存,在這一點(diǎn)上,機(jī)器人卻可以遠(yuǎn)勝于人類。因此,在弱點(diǎn)比較方面,我認(rèn)為人工智能的機(jī)器人并不比人差,在某些方面還遠(yuǎn)勝于人類。
第四,隨著科學(xué)技術(shù)的發(fā)展,人工智能不單需要 邏輯思維 與模仿??茖W(xué)家對人類大腦和精神系統(tǒng)研究得越多,他們越加肯定情感是智能的一部分,而不是與智能相分離的,因此人工智能領(lǐng)域的下一個突破可能不僅在于賦予它情感能力。
4、結(jié)束語
人工智能一直處于計算機(jī)技術(shù)的前沿,其研究的理論和發(fā)現(xiàn)在很大程度上將決定計算機(jī)技術(shù)、控制科學(xué)與技術(shù)的發(fā)展方向。今天,已經(jīng)有很多人工智能研究的成果進(jìn)入人們的日常生活。將來,人工智能技術(shù)的發(fā)展將會給人們的生活、工作和 教育 等帶來更大的影響。
下一頁分享更優(yōu)秀的<<<人工智能發(fā)展的結(jié)課論文
四、科大訊飛中報業(yè)績大增 AI新基建風(fēng)口帶來新動能
出品|每日財報
作者|呂明俠
作為人工智能領(lǐng)軍企業(yè)的科大訊飛正在向外界展示AI商業(yè)落地的盈利潛力。
在繼2019年營收創(chuàng)新高后,科大訊飛再次給出了亮眼的中期單。今年上半年公司營收 43.49 億,歸屬于上市公司股東的凈利潤同比增長36.28%。
值得一提的是,在一季度因疫情開工不利虧損超1億元的情況下,科大訊飛在二季度實現(xiàn)了“加速狂奔”,單季歸母凈利潤及扣非后凈利潤快速拉升至3.89億元和1.41億元,前者同比增長超300%。
從亮眼的半年報來看,科大訊飛已步入人工智能2.0時代,加速了AI在核心賽道兌現(xiàn)紅利的步伐。尤其是在今年新基建加快推進(jìn)的當(dāng)下,公司有望迎來更大的舞臺和發(fā)展機(jī)遇。
疫情剛需不受影響 在線教育、醫(yī)療業(yè)務(wù)增速強(qiáng)勁
今年以來,受疫情影響,線下很多實體受到了沖擊,但在線教育、在線醫(yī)療、線上辦公等行業(yè)受到追捧,用戶線上使用習(xí)慣逐漸養(yǎng)成,相關(guān)公司業(yè)績爆發(fā)增長。
一直致力于智慧教育和智慧醫(yī)療落地的科大訊飛乘風(fēng)而上,上半年兩項業(yè)務(wù)分別實現(xiàn)了35%和665%的增長。
上半年,科大訊飛針對個性化學(xué)習(xí)場景進(jìn)一步實現(xiàn)了以人推題、分層推題等核心功能。區(qū)域因材施教解決方案的應(yīng)用成效在報告期內(nèi)得到驗證,并獲得行業(yè)客戶認(rèn)可,繼安徽蚌埠、青島西海岸之后,在昆明五華、廣西百色、重慶兩江區(qū)多地持續(xù)落地。目前,智學(xué)網(wǎng)已覆蓋全國16,000余所學(xué)校,年處理350億條過程化學(xué)習(xí)數(shù)據(jù)。
智慧醫(yī)療方向,科大訊飛的人工智能輔助診療“安徽模式”開始在全國推廣,提升基層診療能力。目前“智醫(yī)助理”輔助診療系統(tǒng),已在全國11個省市近百個區(qū)縣、超2000個鄉(xiāng)鎮(zhèn)級醫(yī)療機(jī)構(gòu)、超20000個村級醫(yī)療機(jī)構(gòu)投入使用,日均提供超30萬條輔診建議,累計服務(wù)數(shù)億人次。
隨著3月初網(wǎng)上招標(biāo)開始逐步實施,科大訊飛人工智能核心技術(shù)驅(qū)動的各項業(yè)務(wù)加速落地。公開資料顯示,上半年整體新增中標(biāo)合同金額較去年同期增長119%,其中不包括蚌埠、青島項目,智慧教育項目中標(biāo)額同比增長175%。可見,疫情對科大訊飛相關(guān)業(yè)務(wù)的長期剛需沒有造成重大影響,反而帶來更多的增長機(jī)會。
To C業(yè)務(wù)占比近四成,“AI+辦公”場景產(chǎn)品受追捧
伴隨 科技 的發(fā)展,人工智能在賦能行業(yè)改變世界的同時,也在賦能個體,通過人工智能輔助機(jī)器,人們可以去做更有創(chuàng)新的工作。
譬如在辦公領(lǐng)域,圍繞“AI+辦公”場景的市場需求及用戶痛點(diǎn),科大訊飛發(fā)布了針對不同場景和用戶的系列產(chǎn)品。目前,聽見智能會議系統(tǒng)累計服務(wù)558場次的高規(guī)格大會,為全國政協(xié)、多省人大會議、國內(nèi)及國際等諸多重要會議提供實時轉(zhuǎn)寫和翻譯字幕支持。
2020年公司進(jìn)一步豐富產(chǎn)品矩陣,推出智能錄音筆A1、訊飛會議寶S8等,擴(kuò)大應(yīng)用場景和用戶群體覆蓋,將AI+辦公的產(chǎn)品族進(jìn)一步豐富。訊飛錄音筆SR系列產(chǎn)品也進(jìn)一步升級,新增支持錄音聲源定位,并增加角色分離、自動摘要功能對錄音內(nèi)容進(jìn)行全面的語義理解與分析,自動抽取關(guān)鍵信息等多種功能。
此外,公司還與咪咕集團(tuán)合作推出了智能閱讀器R1和業(yè)內(nèi)首款彩色電子墨水屏閱讀器,進(jìn)一步擴(kuò)大公司面向C端消費(fèi)領(lǐng)域的布局。
半年報顯示,公司To C業(yè)務(wù)實現(xiàn)營業(yè)收入 16.35 億,在整體營收中占比達(dá) 37.59%,高于去年全年的35.96%;實現(xiàn)毛利7.82 億,To C業(yè)務(wù)毛利占比達(dá) 39.24%。
以在2020年“6·18大促”的表現(xiàn)為例,科大訊飛C端產(chǎn)品斬獲京東、天貓、蘇寧易購三大平臺22項第一,核心品類連續(xù)多年保持銷售額第一。在疫情影響下實現(xiàn)逆勢增長,整體銷售額也實現(xiàn)逆市增長,同比增長超過40%。剔除訊飛翻譯機(jī)的影響,其他硬件銷售額同比增長超過140%。
站上新基建風(fēng)口
2020年最強(qiáng)勁的產(chǎn)業(yè)風(fēng)口當(dāng)屬新基建。
今年3月份,中央決策層強(qiáng)調(diào),要加快推進(jìn)國家規(guī)劃已明確的重大工程和基礎(chǔ)設(shè)施建設(shè),其中要加快5G網(wǎng)絡(luò)、大數(shù)據(jù)中心、人工智能、工業(yè)互聯(lián)網(wǎng)等新型基礎(chǔ)設(shè)施建設(shè)進(jìn)度。
5G、人工智能、工業(yè)互聯(lián)網(wǎng)、物聯(lián)網(wǎng)為代表的“新基建”,本質(zhì)上是信息數(shù)字化的基礎(chǔ)設(shè)施。招商證券測算顯示,新口徑下新基建未來五年的投資規(guī)模最高可達(dá)11萬億以上。而充分利用數(shù)字信息化技術(shù),為傳統(tǒng)基建賦能,正是科大訊飛近年來一直在力推且已經(jīng)成功大規(guī)模商業(yè)化的業(yè)務(wù)范疇。
根據(jù)公開資料,科大訊飛已經(jīng)和廣東省政府,以及廣州、深圳、東莞、佛山、珠海、陽江、河源、惠州、汕尾等城市實現(xiàn)全面戰(zhàn)略合作 ?!稄V東省新一代人工智能發(fā)展規(guī)劃》更明確指出“支持科大訊飛加快建設(shè)智能語音國家新一代人工智能開放創(chuàng)新平臺”。截至目前,科大訊飛的技術(shù)創(chuàng)新已深入應(yīng)用到粵港澳大灣區(qū)教育、醫(yī)療、政法、城市、客服等多個領(lǐng)域。
8月11日,科大訊飛又與江西省政府簽署戰(zhàn)略合作框架協(xié)議,并在人工智能、虛擬現(xiàn)實產(chǎn)業(yè)創(chuàng)新培育與服務(wù)、重點(diǎn)行業(yè)和領(lǐng)域示范應(yīng)用、人才培養(yǎng)等方面依法依規(guī)開展深度合作。
日前,合肥市印發(fā)了《合肥市推進(jìn)新型基礎(chǔ)設(shè)施實施方案(2020-2022年)》,明確了合肥推進(jìn)新型基礎(chǔ)設(shè)施建設(shè)的發(fā)展目標(biāo)、具體任務(wù)和保障措施。其中提到了要加快人工智能基礎(chǔ)設(shè)施建設(shè),積極推進(jìn)智能語音國家新一代人工智能開放創(chuàng)新平臺建設(shè),以深度學(xué)習(xí)算法為核心,建立面向物聯(lián)網(wǎng)、智能家居、智能車載、教育、醫(yī)療等多行業(yè)應(yīng)用的開源平臺。對于合肥政府大力支持的龍頭企業(yè)來說,科大訊飛將迎來更多的發(fā)展機(jī)遇。
我們注意到,“平臺+賽道”是科大訊飛一直以來堅定的發(fā)展戰(zhàn)略。在平臺方面,科大訊飛2010年上線國內(nèi)首家人工智能開放平臺,持續(xù)為移動互聯(lián)網(wǎng)、智能硬件的創(chuàng)業(yè)開發(fā)者和海量用戶提供人工智能開發(fā)與服務(wù)能力,積極構(gòu)建了以自身為核心的產(chǎn)業(yè)生態(tài)。
同時,積極賦能行業(yè)領(lǐng)域,為運(yùn)營商、金融、保險、電力等行業(yè)客戶提供智能語音以及人工智能產(chǎn)品和解決方案,改善用戶體驗、降低服務(wù)成本;面向人車交互應(yīng)用場景,為 汽車 行業(yè)提供智能語音交互產(chǎn)品和解決方案等。
截至2020年6月30日,訊飛開放平臺開發(fā)者總量133W+,總應(yīng)用數(shù)83W+,累計終端用戶數(shù)28.9億+。
在應(yīng)用賽道方面,科大訊飛人工智能在教育、醫(yī)療、司法、辦公等應(yīng)用場景,已經(jīng)實現(xiàn)了源頭技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用的良性互動。
以上就是關(guān)于AI自動生成文章摘要相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
ai智能教育陪伴機(jī)器人(ai智能教育陪伴機(jī)器人怎么用)_1
有創(chuàng)意的園林公司名字大全(順風(fēng)順?biāo)墓久郑?/a>
世界排名前十的服裝設(shè)計學(xué)院(帕森斯設(shè)計學(xué)院入學(xué)條件)