HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    二分類模型評估(二分類模型是什么意思)

    發(fā)布時間:2023-04-19 13:17:16     稿源: 創(chuàng)意嶺    閱讀: 82        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于二分類模型評估的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    二分類模型評估(二分類模型是什么意思)

    一、分類評估指標

    # 準確率(Accuracy,ACC)

    最常用、最經(jīng)典的評估指標之一,計算公式為:

    $ACC = \frac{預(yù)測準確的樣例數(shù)}{總預(yù)測數(shù)}$

    由此可見,準確率是類別無關(guān)的,衡量整個數(shù)據(jù)集的準確情況,即預(yù)測正確的樣本所占的比例。

    by the way,有時人們也會用錯誤率(Error Rate, ERR),與準確率定義相反,表示分類錯誤的樣本所占的比例,計算公式為:

    $ERR = 1 - ACC$

    **存在問題**

    在類別不平衡數(shù)據(jù)集中,ACC不能客觀反映模型的能力。比如在三分類中,樣本數(shù)量分布為(9800,100,100),那么模型只要無腦將所有樣例都預(yù)測為A類即可以有98%的準確率,然而事實是模型根本沒有分辨ABC的能力。因此下面引入精確率和召回率的概念。

    # 概念定義

    介紹精確率和召回率之前,我們先來了解幾個概念:

    | 名稱 | 定義 |

    | ------ | ------ |

    | TP(True Positives,真陽性樣本數(shù))   | 被正確預(yù)測為正類別的樣本個數(shù) |

    | FP(False Positives,假陽性樣本數(shù))  | 被錯誤預(yù)測為正類別的樣本個數(shù) |

    | FN(False Negatives,假陰性樣本數(shù))   | 被錯誤預(yù)測為負類別的樣本個數(shù) |

    | TN(True Negatives,真陰性樣本數(shù))   | 被正常預(yù)測為負類別的樣本個數(shù) |

    注意:

    * 第一個字母代表預(yù)測是否正確,第二個字母代表預(yù)測結(jié)果。Ground Truth(標簽,數(shù)據(jù)的類別的真實情況,GT)則需要通過玩家組合這兩個字母進行推理:預(yù)測正確則代表GT和預(yù)測結(jié)果一致,即TP的樣本是正類別,TN的樣本是負類別;反之FP的樣本是負類別,F(xiàn)N的樣本是正類別。搞清楚這個對精確率和召回率的了解會更加容易。

    * 對于二分類而言,只要規(guī)定了正類別和負類別,這4個值是唯一的(負類別的TP等于正類別的TN,負類別的FP等于正類別的FN,負類別的FN等于正類別的FP,負類別的TN等于正類別的TP,因此對于二分類問題衡量正類別的指標就夠了,因為兩個類別是對等的)。對于多分類而言,用**One VS Others**的思想,將其中一類看作正類別,其他類看作負類別,**則每個類別都有這4個值,即這4個值在多分類中是與類別強相關(guān)的,每個類別的這幾個值都不一樣。**

    # 混淆矩陣

    混淆矩陣是所有分類算法模型評估的基礎(chǔ),它展示了模型預(yù)測結(jié)果和GT的對應(yīng)關(guān)系。

    | 推理類別/真實類別 | A | B | C | D |

    | :----: | :----: | :----: | :----: | :----: |

    | A | 56 | 5 | 11 | 0 |

    | B | 5 | 83 | 0 | 26 |

    | C | 9 | 0 | 28 | 2 |

    | D | 1 | 3 | 6 | 47 |

    其中矩陣所有元素之和為樣本總數(shù),每一行代表**預(yù)測為某類別的樣本在真實類別中的分布**,每一列代表**某真實類別的樣本在預(yù)測類別中的分布**。以A類為例,第一行代表預(yù)測為A的有72個樣本(即TP+FP,56+5+11+0),第一列表示真實類別為A的有71個樣本(即TP+FN,56+5+9+1)。其中TP為56,F(xiàn)P為16(行,5+11+0),F(xiàn)N為15(列,5+9+1),TN為195(即除第一行和第一列外所有的值之和)。樣本總數(shù)等于混淆矩陣所有元素之和,即282。

    如果用符號E來表示$B \cup C \cup D$,那么對于A來說,混淆矩陣可以改寫如下:

    | 推理類別/真實類別 | A | E |

    | :----: | :----: | :----: |

    | A | 56 | 16 |

    | E | 15 | 195 |

    由此可見,對于二分類來說,混淆矩陣的值與TP等指標對應(yīng)如下:

    | 推理類別/真實類別 | Positives(正類別) | Negatives(負類別) |

    | :----: | :----: | :----: |

    | Positives(正類別) | TP | FP |

    | Negatives(負類別) | FN | TN |

    對應(yīng)多分類,可以用不同顏色來對應(yīng)TP等指標的區(qū)域,使可視化效果更好,更方便理解。后續(xù)再更新。

    # 精確率(Precision,$P$)

    **對于某一類別而言**,預(yù)測為該類別樣本中確實為該類別樣本的比例,計算公式為:

    $ P = \frac{TP}{TP+FP}$

    以A、E的混淆矩陣為例:$ P_A = \frac{56}{56+16}=0.78, P_E = \frac{195}{15+195}=0.93$

    以ABCD的混淆矩陣為例:$ P_A = 0.78, P_B = \frac{83}{5+83+0+26} = 0.73, P_C = \frac{28}{9+0+28+2}=0.72, P_D = \frac{47}{1+3+6+47} = 0.83$

    可以觀察到,精確率的分母是混淆矩陣的行和,分子在對角線上。

    # 召回率(Recall,$R$)

    **對于某一類別而言**,在某類別所有的真實樣本中,被預(yù)測(找出來,召回)為該類別的樣本數(shù)量的比例,計算公式為:

    $ R = \frac{TP}{TP+FN}$

    以A、E的混淆矩陣為例:$ R_A = \frac{56}{56+15} = 0.79, R_E = \frac{195}{16+195} = 0.92$

    以ABCD的混淆矩陣為例:$ R_A = 0.79, R_B = \frac{83}{5+83+0+3} = 0.91, R_C = \frac{28}{11+0+28+6} = 0.62, R_D = \frac{47}{0+26+2+47} = 0.63$

    可以觀察到,召回率的分母是混淆矩陣的列和,分子在對角線上。

    # F1

    剛才提到,用ACC衡量模型的能力并不準確,因此要同時衡量精確率和召回率,遺憾的是,**一個模型的精確率和召回率往往是此消彼長的**。用西瓜書上的解釋就是:挑西瓜的時候,如果希望將好瓜盡可能多地選出來(提高召回率),則可以通過增加選瓜的數(shù)量來實現(xiàn)(),如果將所有西瓜都選上(),那么所有的好瓜也必然被選上了,但是這樣的策略明顯精確率較低;若希望選出的瓜中好瓜比例可能高,則可只挑選最有把握的瓜,但這樣就難免會漏掉不少好瓜,使得召回率較低。通常只有在一些簡單任務(wù)中,才可能使得召回率和精確率都很高。因此我們引入F1來評價精確率和召回率的綜合效果,F(xiàn)1是這兩個值的調(diào)和平均(harmonic mean,與算數(shù)平均$\frac{P+R}{2}$和幾何平均$\sqrt{P*R}$相比,調(diào)和平均更重視較小值),定義如下:

    $ \frac{1}{F1} = \frac{1}{2}*(\frac{1}{P}+\frac{1}{R})$

    化簡得:

    $ F1 = \frac{2*P*R}{P+R}$

    在一些應(yīng)用中,對精確率和召回率的重視程度有所不同。例如在商品推薦系統(tǒng)中,為了盡可能少打擾用戶,更希望推薦內(nèi)容的確是用戶感興趣的,此時精確率更重要;而在逃犯信息檢索系統(tǒng)中,更希望盡可能少漏掉逃犯,此時召回率更重要。$F1$的一般形式————$F_\beta$,能讓我們表達出對精確率和召回率的不同偏好,它定義為:

    $F_\beta = \frac{(1+\beta^2)*P*R}{(\beta^2*P)+R}$

    其中$\beta > 0$度量了召回率對精確率的相對重要性。$\beta=1$時退化為標準$F1$;$\beta>1$時召回率有更大影響;$\beta<1$時精確率有更大影響。

    以AE的混淆矩陣為例:

    $F1_A = \frac{2 * P_A * R_A}{P_A + R_A} = \frac{2 * 0.78 * 0.93}{0.78+0.93} = 0.85$

    $F1_E = \frac{2 * P_E * R_E}{P_E + R_E} = \frac{2 * 0.93 * 0.92}{0.93+0.92} = 0.92$

    以ABCD的混淆矩陣為例:

    $ F1_A = 0.85 $

    $ F1_B = \frac{2 * P_B * R_B}{P_B + R_B} = \frac{2 * 0.73 * 0.91}{0.73+0.91} = 0.81$

    $ F1_C = \frac{2 * P_C * R_C}{P_C + R_C} = \frac{2 * 0.72 * 0.62}{0.72+0.62} = 0.67$

    $ F1_D = \frac{2 * P_D * R_D}{P_D + R_D} = \frac{2 * 0.83 * 0.63}{0.83+0.63} = 0.72$

    # 多分類

    以上指標除了準確率,其他指標都是類別相關(guān)的。要對模型做出總體評價,就需要算出所有類別綜合之后的總體指標。求總體指標的方法有兩種:宏平均(Macro Average)和微平均(Micro Average)。

    **宏平均**

    計算各個類對應(yīng)的指標的算術(shù)平均

    例,$F1_{macro} = \frac{F1_A+F1_B+F1_C+F1_D}{4} = \frac{0.85+0.81+0.67+0.72}{4} = 0.7625$

    所謂宏,就是從更宏觀的角度去平均,即粒度是在類以上的。

    **微平均**

    先平均每個類別的TP、FP、TN、FN,再計算他們的衍生指標

    例,

    $TP_{micro} = \frac{TP_A+TP_B+TP_C+TP_D}{4} = \frac{56+83+28+47}{4} = 53.5$

    $FP_{micro} = \frac{FP_A+FP_B+FP_C+FP_D}{4} = \frac{16+31+11+10}{4} = 17$

    $FN_{micro} = \frac{FN_A+FN_B+FN_C+FN_D}{4} = \frac{15+8+17+28}{4} = 17$

    $TN_{micro} = \frac{TN_A+TN_B+TN_C+FN_D}{4} = \frac{195+160+226+197}{4}=194.5$

    $P_{micro} = \frac{TP_{micro}}{TP_{micro}+FP_{micro}} = \frac{53.5}{53.5+17} = 0.7589$

    $R_{micro} = \frac{TP_{micro}}{TP_{micro}+FN_{micro}} = \frac{53.5}{53.5+17} = 0.7589$

    $F1_{micro} = \frac{2 * P_{micro}* R_{micro}}{P_{micro} + R_{micro}} = \frac{2 * 0.7589 *0.7589}{0.7589+0.7589} = 0.7589$

    # 參考資料

    1. 《西瓜書》

    2. 《ModelArts人工智能應(yīng)用開發(fā)指南》

    如有錯誤,歡迎指出。下一期繼續(xù)探討ROC曲線、AUC曲線和PR曲線

    二、支持向量機

    支持向量機(support vector machines,SVM)是一種二分類模型,它的基本模型是定義在特征空間上的 間隔最大的線性分類器 ,間隔最大使它有別于感知機;SVM還包括 核技巧 ,這使它成為實質(zhì)上的非線性分類器。 SVM的學(xué)習策略就是間隔最大化 ,可形式化為一個求解凸二次規(guī)劃的問題,也等價于正則化的損失函數(shù)最小值問題。SVM的學(xué)習算法就是求解凸二次規(guī)劃的最優(yōu)算法。

        它在手寫識別數(shù)字和人臉識別中應(yīng)用廣泛,在文本和超文本的分類中舉足輕重,因為SVM可以大量減少標準歸納和轉(zhuǎn)換設(shè)置中對標記訓(xùn)練實例的需求。同時, SVM也被用來執(zhí)行圖像的分類,并用于圖像分割系統(tǒng) 。實驗結(jié)果表明,在僅僅三到四輪相關(guān)反饋之后,SVM就能實現(xiàn)比傳統(tǒng)的查詢細化方案高出一大截的搜索精度。除此之外,生物學(xué)和許多其他學(xué)科都是SVM的青睞者,SVM現(xiàn)在已經(jīng)廣泛用于 蛋白質(zhì)分類 ,現(xiàn)在化合物分類的業(yè)界平均水平可以達到90%以上的準確率。在生物科學(xué)的尖端研究中,人們還使用支持向量機來識別用于模型預(yù)測的各種特征,以找出各種基因表現(xiàn)結(jié)果的影響因素。

    SVM學(xué)習的基本想法是求解能夠正確劃分訓(xùn)練數(shù)據(jù)集并且?guī)缀伍g隔最大的分離超平面 。如下圖所示, 即為分離超平面,對于線性可分的數(shù)據(jù)集來說,這樣的超平面有無窮多個(即感知機), 但是幾何間隔最大的分離超平面卻是唯一的。

    超平面與最近數(shù)據(jù)點之間的距離成為邊距??梢詫蓚€類分開的最佳或最佳超平面是具有最大邊距的線。只有這些點與定義超平面和分類器的構(gòu)造有關(guān)。這些點稱為支持向量。他們支持或定義超平面。實際上,優(yōu)化算法用于找到使裕度最大化的系數(shù)的值。

    SVM的三層理解:

    (1)線性可分支持向量機、硬間隔

    (2)線性支持向量機、軟間隔

    (3)非線性支持向量機、Kernel SVM

    支持向量機模型存在三寶:

    (1)間隔:是指樣本點到超平面的距離。 硬間隔 是指對給定的樣本數(shù)據(jù)集中所以的樣本都能正確分類。對于線性不可分的樣本集,無法滿足線性可分支持向量機的不等式約束,也就是不存在對所有樣本都能正確分類的超平面。這種情況可能是因為問題本身是非線性的,也可能問題是線性可分的,但個別樣本點標記錯誤或存在誤差而導(dǎo)致樣本集線性不可分。

    因此,我們可以允許對少量的樣本分類錯誤, 容忍特異點的存在,而對于去除特異點的樣本集是線性可分的,這時稱為軟間隔 。

    (2)對偶

    (3)核技巧

    支持向量機和感知機在某些方面很相似,其相同點 :

    (1)都是二分類模型

    (2)都是通過一個分離超平民啊對特征進行分類

    不同點:

    (1)SVM是特殊的感知機

    (2)感知機是用誤分類最小的策略,求得分離超平面,這時存在無窮個解,感知機利用間隔最大化求得最優(yōu)分離超平面。如下圖所示。

        圖中的藍色和黃色圓點分別表示正負樣本,對于這個二分類,從圖中我們可知,在最上面的黃線和最下面的綠線之間的線條都是可以把訓(xùn)練樣本集完全分開的,這就是感知機的原理,通過這些分離超平面把訓(xùn)練集分開,這樣的分離超平面存在很多條,比如圖中的虛線,從視覺上中間那條實線應(yīng)該是眾多線條中最優(yōu)的一條,感知機對于學(xué)習的分離超平面由于優(yōu)化算法、學(xué)習率等不同因素,會隨機地學(xué)習到這眾多分離超平面的一條,當學(xué)習到的是靠近上下邊緣的分離超平面是,對于一個未知樣本,當這個樣本稍微浮動一下,模型就很可能對他進行誤分類了,因此魯棒性很低,而支持向量機的目標是找到圖中中間那條最優(yōu)的分離超平面。

    為求解支持向量機的最優(yōu)化問題,我們將公式10作為原始問題,應(yīng)用拉格朗日對偶性,通過求解對偶問題得到原始問題的最優(yōu)解,這就是支持向量機的對偶算法。 在約束最優(yōu)化問題中,常常利用拉格朗日對偶性將原始問題轉(zhuǎn)換為對偶問題,通過解對偶問題而得到原始問題的解(最優(yōu)解是反的,值是一樣的 ) 。這是因為:

        1)對偶問題的對偶是原問題

        2)無論原始問題與約束條件是否是凸的,對偶問題都是凹問題,加個負號就變成凸問題了,凸問題容易優(yōu)化。

        3)對偶問題可以給出原始問題一個下界

        4)當滿足一定條件時,原始問題與對偶問題的解是完全等價的

    LinearSVC()類的主要參數(shù):

    (1)C: float, default=1.0, 懲罰系數(shù),必須大于0,默認值1.0。用于設(shè)置對錯誤分類的懲罰強度,對于設(shè)置對錯誤分類的懲罰強度,對于完全線性可分的硬間隔問題不需要設(shè)置。

    (2)fit_intercept: boolean, optional(default=True):是否計算截距,默認為True。如果數(shù)據(jù)均值為0,則可以選擇False不計算截距。

    (3)multi_class: string,”ovr“ or "crammer_singer"(default='ovr'):多類別分類策略開關(guān)。對于多元分類問題,選擇'ovr'將使用多類別策略(one-vs-set)直接對多個類別進行分類(默認方法);選擇"crammer_singer"將主次進行二值分類。

    (4)class_weight:dict or "balanced", default=None,特征變量的加權(quán)系數(shù)。用于為某個特征變量設(shè)置權(quán)重,默認所有特征變量的權(quán)重相同。

    結(jié)論:1)線性核,尤其是多項式核函數(shù)在高次項時計算非常緩慢。

                2)rbf和多項式核函數(shù)都不擅長處理量綱不統(tǒng)一的數(shù)據(jù)集

    這兩個缺點都可以由數(shù)據(jù)無量綱化來解決。因此,SVM執(zhí)行之前,非常推薦先進行數(shù)據(jù)的無量綱化!

    svc.score(): 返回給定測試數(shù)據(jù)和標簽的平均準確度。

        首先,分類模型天生會傾向于多數(shù)的類,讓多數(shù)類更容易被判斷正確,少數(shù)類被犧牲掉 。因為對于模型而言,樣本量越大的標簽可以學(xué)習的信息越多,算法就會更加依賴于從多數(shù)類中學(xué)到的信息來進行判斷。如果我們希望捕獲少數(shù)類,模型就會失敗。 其次,模型評估指標會失去意義 。這種分類狀況下,即便模型什么也不做,全把所有人都當成不會犯罪的人,準確率也能非常高,這使得模型評估指標accuracy變得毫無意義,根本無法達到我們的“要識別出會犯罪的人”的建模目的。

        所以現(xiàn)在,我們首先要讓算法意識到數(shù)據(jù)的標簽是不均衡的,通過施加一些懲罰或者改變樣本本身,來讓模型向著捕獲少數(shù)類的方向建模。然后,我們要改進我們的模型評估指標,使用更加針對于少數(shù)類的指標來優(yōu)化模型。 要解決第一個問題,我們在邏輯回歸中已經(jīng)介紹了一些基本方法,比如上采樣下采樣 。但這些采樣方法會增加樣本的總數(shù),對于支持向量機這個樣本總是對計算速度影響巨大的算法來說,我們完全不想輕易地增加樣本數(shù)量。況且,支持向量機中的決策僅僅受到?jīng)Q策邊界的影響,而決策邊界僅僅受到參數(shù)C和支持向量的影響,單純地增加樣本數(shù)量不僅會增加計算時間,可能還會增加無數(shù)對決策邊界無影響的樣本點。因此在支持向量機中,我們要大力依賴我們調(diào)節(jié)樣本均衡的參數(shù):SVC類的class_weight和接口fit可以設(shè)定的sample_weight。

        混淆矩陣是二分類問題的多維衡量指標體系,在樣本不平衡時極其有用。在混淆矩陣中,我們將少數(shù)類認為是正例,多數(shù)類認為是負例。在決策樹,隨機森林這些普通的分類算法里,即是說少數(shù)類是1,多數(shù)類是0。在SVM里,就是說少數(shù)類是1,多數(shù)類是-1。普通的混淆矩陣,一般使用{0,1}來表示?;煜仃囍校肋h是真實值在前,預(yù)測值在后。

    ROC曲線及相關(guān)問題

        基于混淆矩陣,總共有六個指標:準確率Accuracy,精確度Precision,召回率Recall,精確度和召回度的平衡指標F measure, 特異度Specificity,以及假正率FPR。

        其中,假正率有一個非常重要的應(yīng)用:我們在追求較高的Recall的時候,Precision會下降,就是說隨著更多的少數(shù)類被捕捉出來,會有更多的多數(shù)類被判斷錯誤,但我們很好奇,隨著Recall的逐漸增加,模型將多數(shù)類判斷錯誤的能力如何變化呢?我們希望理解,我每判斷正確一個少數(shù)類,就有多少個多數(shù)類會被判斷錯誤。假正率正好可以幫助我們衡量這個變化。相對的,Precision無法判斷這些判斷錯誤的多數(shù)類在全部多數(shù)類中究竟占多大的比例,所以無法在提升Recall的過程中也顧及到模型整體的Accuracy。因此, 我們可以使用Recall和FPR之間的平衡,來替代Recall和Precision之間的平衡,讓我們衡量模型在盡量捕捉少數(shù)類的時候,誤傷多數(shù)類的情況如何變化,這就是我們的ROC曲線衡量的平衡 。

        ROC曲線,全稱The Receiver Operating Characteristic Curve。這是一條以下不同閾值下的假正率FPR為橫坐標,不同閾值下的召回率Recall為縱坐標的曲線。

    優(yōu)點:

    (1)有嚴格的數(shù)學(xué)理論支持,可解釋性強,不依靠統(tǒng)計方法,從而簡化了通常的分類和回歸問題

    (2)解決小樣本下機器學(xué)習問題;

    (3)能找出對任務(wù)至關(guān)重要的關(guān)鍵樣本(即:支持向量)

    (4)采用核技巧之后,可以處理非線性分類/回歸任務(wù);可以解決高維問題,即大型特征空間;

    (5)最終決策函數(shù)只由少數(shù)的支持向量所確定,計算的復(fù)雜性取決于支持向量的數(shù)目,而不是樣本空間的維數(shù),這在某種意義上避免了”維數(shù)災(zāi)難“。

    缺點:

    (1)訓(xùn)練時間長。當采用SMO算法時,由于每次都需要挑選一對參數(shù),因此時間復(fù)雜度 ,其中N為訓(xùn)練樣本的數(shù)量;

    (2)當采用核技巧時,如果需要存儲核矩陣,則空間復(fù)雜度為 。對非線性問題沒有通用解決方案,有時候很難找到一個合適的核函數(shù);

    (3)對于核函數(shù)的高維映射解釋力不強,尤其是徑向基函數(shù);

    (4)模型預(yù)測時,預(yù)測時間與支持向量的個數(shù)成正比。當支持向量的數(shù)量較大時,預(yù)測計算復(fù)雜度較高。

    (5) 對缺失數(shù)據(jù)敏感;

    因此支持向量機目前只適合小批量樣本的任務(wù),無法適應(yīng)百萬條甚至上億樣本的任務(wù) 。

        SVM主要用于分類問題,主要的應(yīng)用場景有字符識別、面部識別、行人檢測、文本分類等領(lǐng)域。 在機器學(xué)習領(lǐng)域,SVM是有監(jiān)督的學(xué)習模型,通常用來進行模式識別、分類(異常值檢測)以及回歸分析 。

    三、與簡單的線性回歸模型相比,如何評估邏輯回歸模型?

    邏輯回歸:y=sigmoid(w'x)

    線性回歸

    :y=w'x

    也就是邏輯回歸比線性回歸多了一個

    sigmoid函數(shù)

    ,sigmoid(x)=1/(1+exp(-x)),其實就是對x進行

    歸一化

    操作,使得sigmoid(x)位于0~1

    邏輯回歸通常用于二分類模型,

    目標函數(shù)

    是二類

    交叉熵

    ,y的值表示屬于第1類的概率,用戶可以自己設(shè)置一個分類閾值。

    線性回歸用來擬合數(shù)據(jù),目標函數(shù)是

    平法

    和誤差

    四、關(guān)于機器學(xué)習應(yīng)用不得不思考哪些問題?

    機器學(xué)習是一種能夠賦予機器學(xué)習的能力以此讓它完成直接編程無法完成的功能的方法。但從實踐的意義上來說,機器學(xué)習是一種通過利用數(shù)據(jù),訓(xùn)練出模型,然后使用模型預(yù)測的一種方法。

    讓我們具體看一個例子。

    二分類模型評估(二分類模型是什么意思)

    圖4房價的例子

    拿國民話題的房子來說。現(xiàn)在我手里有一棟房子需要售賣,我應(yīng)該給它標上多大的價格?房子的面積是100平方米,價格是100萬,120萬,還是140萬?

    很顯然,我希望獲得房價與面積的某種規(guī)律。那么我該如何獲得這個規(guī)律?用報紙上的房價平均數(shù)據(jù)么?還是參考別人面積相似的?無論哪種,似乎都并不是太靠譜。

    我現(xiàn)在希望獲得一個合理的,并且能夠最大程度的反映面積與房價關(guān)系的規(guī)律。于是我調(diào)查了周邊與我房型類似的一些房子,獲得一組數(shù)據(jù)。這組數(shù)據(jù)中包含了大大小小房子的面積與價格,如果我能從這組數(shù)據(jù)中找出面積與價格的規(guī)律,那么我就可以得出房子的價格。

    對規(guī)律的尋找很簡單,擬合出一條直線,讓它“穿過”所有的點,并且與各個點的距離盡可能的小。

    通過這條直線,我獲得了一個能夠最佳反映房價與面積規(guī)律的規(guī)律。這條直線同時也是一個下式所表明的函數(shù):房價=面積*a+b

    上述中的a、b都是直線的參數(shù)。獲得這些參數(shù)以后,我就可以計算出房子的價格。

    假設(shè)a=0.75,b=50,則房價=100*0.75+50=125萬。這個結(jié)果與我前面所列的100萬,120萬,140萬都不一樣。由于這條直線綜合考慮了大部分的情況,因此從“統(tǒng)計”意義上來說,這是一個最合理的預(yù)測。

    在求解過程中透露出了兩個信息:

    1.房價模型是根據(jù)擬合的函數(shù)類型決定的。如果是直線,那么擬合出的就是直線方程。如果是其他類型的線,例如拋物線,那么擬合出的就是拋物線方程。機器學(xué)習有眾多算法,一些強力算法可以擬合出復(fù)雜的非線性模型,用來反映一些不是直線所能表達的情況。

    2.如果我的數(shù)據(jù)越多,我的模型就越能夠考慮到越多的情況,由此對于新情況的預(yù)測效果可能就越好。這是機器學(xué)習界“數(shù)據(jù)為王”思想的一個體現(xiàn)。一般來說(不是絕對),數(shù)據(jù)越多,最后機器學(xué)習生成的模型預(yù)測的效果越好。

    通過我擬合直線的過程,我們可以對機器學(xué)習過程做一個完整的回顧。首先,我們需要在計算機中存儲歷史的數(shù)據(jù)。接著,我們將這些數(shù)據(jù)通過機器學(xué)習算法進行處理,這個過程在機器學(xué)習中叫做“訓(xùn)練”,處理的結(jié)果可以被我們用來對新的數(shù)據(jù)進行預(yù)測,這個結(jié)果一般稱之為“模型”。對新數(shù)據(jù)的預(yù)測過程在機器學(xué)習中叫做“預(yù)測”。“訓(xùn)練”與“預(yù)測”是機器學(xué)習的兩個過程,“模型”則是過程的中間輸出結(jié)果,“訓(xùn)練”產(chǎn)生“模型”,“模型”指導(dǎo)“預(yù)測”。

    以上就是關(guān)于二分類模型評估相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    二分類算法(二分類算法什么意思)

    二分類模型評估(二分類模型是什么意思)

    杭州頂點財經(jīng)二分(杭州頂點財經(jīng)二分怎樣)

    青島墻壁垂直綠化景觀設(shè)計(青島墻壁垂直綠化景觀設(shè)計招聘)

    如何制作地圖動態(tài)線路圖(如何制作地圖動態(tài)線路圖ppt)