-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
邏輯回歸是屬于什么算法(邏輯回歸是屬于什么算法的)
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于邏輯回歸是屬于什么算法的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。
開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、每個(gè)數(shù)據(jù)科學(xué)人都應(yīng)該知道的7種回歸技術(shù)
介紹 線性回歸和邏輯回歸通常是人們?cè)跀?shù)據(jù)科學(xué)中學(xué)習(xí)的第一種算法。由于它們的受歡迎程度,許多分析師甚至認(rèn)為它們是唯一的回歸形式。哪兒些稍微有工作經(jīng)驗(yàn)的人也會(huì)認(rèn)為它們是所有回歸分析形式的中最重要的。
事實(shí)是,有無(wú)數(shù)種形式的回歸可以使用。每種形式的回歸都有其自身的重要性和最適合應(yīng)用的特定場(chǎng)景。在本文中,我會(huì)以簡(jiǎn)單的方式解釋了數(shù)據(jù)科學(xué)中最常用的7種回歸形式。通過(guò)這篇文章,我也希望人們能夠?qū)貧w的廣度有一個(gè)概念,而不是僅僅對(duì)他們遇到的每個(gè)問(wèn)題應(yīng)都用線性/邏輯回歸,并希望他們能夠使用這么多的回歸技術(shù)!
如果您是數(shù)據(jù)科學(xué)的新手,并且正在尋找一個(gè)開(kāi)始學(xué)習(xí)的地方,那么“ 數(shù)據(jù)科學(xué) ”課程是一個(gè)很好的起點(diǎn)!它涵蓋了Python,統(tǒng)計(jì)和預(yù)測(cè)建模的核心主題,它是你進(jìn)入數(shù)據(jù)科學(xué)的第一步的完美方法。
什么是回歸分析?
回歸分析是預(yù)測(cè)建模技術(shù)的一種技術(shù),它研究依賴(目標(biāo))和自變量(預(yù)測(cè)變量)之間的關(guān)系。該技術(shù)用于預(yù)測(cè),時(shí)間序列建模和查找變量之間的因果關(guān)系。例如,通過(guò)回歸可以最好地研究魯莽駕駛與駕駛員發(fā)生道路交通事故數(shù)量之間的關(guān)系。
回歸分析是建模和分析數(shù)據(jù)的重要工具。在這里,我們將曲線/直線線擬合到數(shù)據(jù)點(diǎn),使得數(shù)據(jù)點(diǎn)距曲線或直線的距離之間的差異最小化。我將在接下來(lái)的章節(jié)中詳細(xì)解釋這一點(diǎn)。
為什么我們使用回歸分析?
如上所述,回歸分析是估計(jì)兩個(gè)或更多變量之間的關(guān)系。讓我們通過(guò)一個(gè)簡(jiǎn)單的例子來(lái)理解這一點(diǎn):
比方說(shuō),你想根據(jù)當(dāng)前的經(jīng)濟(jì)狀況估算公司的銷售增長(zhǎng)率。您有最近的公司數(shù)據(jù)表明銷售增長(zhǎng)約為經(jīng)濟(jì)增長(zhǎng)的2.5倍。利用這種洞察力,我們可以根據(jù)當(dāng)前和過(guò)去的信息預(yù)測(cè)公司的未來(lái)銷售情況。
使用回歸分析有許多好處。如下:
它表明因變量和自變量之間的顯著關(guān)系。 它表示多個(gè)自變量對(duì)一個(gè)因變量的影響強(qiáng)度。
回歸分析還允許我們比較不同尺度上測(cè)量的變量的影響,例如價(jià)格變化的影響和促銷活動(dòng)的數(shù)量。這些優(yōu)勢(shì)有助于市場(chǎng)研究人員/數(shù)據(jù)分析師/數(shù)據(jù)科學(xué)家消除和評(píng)估用于構(gòu)建預(yù)測(cè)模型的最佳變量集。
我們有多少種回歸技術(shù)?
我們有各種各樣的回歸技術(shù)可用用于預(yù)測(cè)。這些技術(shù)主要由三個(gè)指標(biāo)(自變量的數(shù)量,因變量的類型和回歸線的形狀)驅(qū)動(dòng)。我們將在以下部分詳細(xì)討論它們。
對(duì)于創(chuàng)造性的,如果您覺(jué)得需要使用上述參數(shù)的組合,您甚至可以制作新的回歸,以前人們沒(méi)有使用過(guò)。但在開(kāi)始之前,讓我們了解最常用的回歸:
1.線性回歸
它是最廣為人知的建模技術(shù)之一。線性回歸通常是人們?cè)趯W(xué)習(xí)預(yù)測(cè)建模時(shí)最先選擇的幾個(gè)方法之一。在該方法中,因變量是連續(xù)的,自變量可以是連續(xù)的或離散的,并且回歸線的性質(zhì)是線性的。
線性回歸使用最佳擬合直線(也稱為回歸線)在因變量(Y)和一個(gè)或多個(gè)自變量(X)之間建立關(guān)系。
它由方程Y = a + b * X + e表示,其中a是截距,b是直線的斜率,e是誤差項(xiàng)。該等式可以根據(jù)給定的預(yù)測(cè)變量預(yù)測(cè)目標(biāo)變量的值。
簡(jiǎn)單線性回歸和多元線性回歸之間的區(qū)別在于,多元線性回歸具有(> 1)個(gè)獨(dú)立變量,而簡(jiǎn)單線性回歸只有1個(gè)獨(dú)立變量?,F(xiàn)在的問(wèn)題是“我們?nèi)绾潍@得最佳擬合線?”。
如何獲得最佳擬合線(a和b的值)?
這項(xiàng)任務(wù)可以通過(guò)最小二乘法輕松完成。它是用于擬合回歸線的最常用方法。它通過(guò)最小化每個(gè)數(shù)據(jù)點(diǎn)到直線的垂直偏差的平方和來(lái)計(jì)算觀測(cè)數(shù)據(jù)的最佳擬合線。因?yàn)槠钍紫纫椒?,所以?dāng)相加時(shí),正值和負(fù)值之間不會(huì)抵消。
我們可以使用度量的R平方來(lái)評(píng)估模型性能 。
重點(diǎn): 自變量和因變量之間必須存在線性關(guān)系 多元回歸存在多重共線性,自相關(guān),異方差等問(wèn)題。 線性回歸對(duì)異常值非常敏感。它可以極大地影響回歸線并最終影響預(yù)測(cè)值。 多重共線性可以增加系數(shù)估計(jì)的方差,并使估計(jì)對(duì)模型中的微小變化非常敏感。結(jié)果是系數(shù)估計(jì)不穩(wěn)定 在多個(gè)獨(dú)立變量的情況下,我們可以選擇正向選擇,逆向淘汰和逐步方法來(lái)選擇最重要的自變量。 2. 邏輯回歸
邏輯回歸方法用于查找事件成功的概率和失敗的概率。當(dāng)因變量本質(zhì)上是二進(jìn)制(0/1,真/假,是/否)時(shí),我們應(yīng)該使用邏輯回歸。這里Y值的范圍從0到1,它可以用下面的等式表示。
odds = p /(1-p)=事件發(fā)生概率/非事件發(fā)生概率 ln(賠率)= ln(p /(1-p)) logit(p)= ln(p /(1-p))= b0 + b1X1 + b2X2 + b3X3 .... + bkXk
以上,p是存在感興趣特征的概率。這時(shí)候你應(yīng)該要問(wèn)一個(gè)問(wèn)題就是“為什么我們要在等式中使用對(duì)數(shù)log?”。
由于我們?cè)谶@里使用的是二項(xiàng)分布(因變量),我們需要選擇最適合此分布的鏈接函數(shù)。而且,它是logit函數(shù)。在上面的等式中,選擇此參數(shù)是為了以最大化觀察樣本值的可能性,而不是最小化平方誤差的總和(如在普通回歸中一樣)。
重點(diǎn): 它被廣泛用于分類問(wèn)題 邏輯回歸不需要依賴因變量和自變量之間的線性關(guān)系。它可以處理各種類型的關(guān)系,因?yàn)樗鼘⒎蔷€性對(duì)數(shù)變換應(yīng)用于預(yù)測(cè)的優(yōu)勢(shì)比 為避免過(guò)度擬合和欠擬合,我們應(yīng)該包括所有重要的變量。確保這種做法的一個(gè)好方法是使用逐步方法來(lái)估計(jì)邏輯回歸 它需要較大樣本量,因?yàn)樵跇颖玖枯^小時(shí),最大似然估計(jì)的效率低于普通的最小二乘法 自變量不應(yīng)相互關(guān)聯(lián),即不具有多重共線性。但是,我們可以選擇在分析和模型中包含分類變量的交互作用。 如果因變量的值是序數(shù),那么它被稱為序數(shù)邏輯回歸 如果因變量是多類的,那么它被稱為多元邏輯回歸。 3.多項(xiàng)式回歸
如果自變量的冪大于1,則回歸方程是多項(xiàng)式回歸方程。下面的等式表示多項(xiàng)式方程:
Y = A + B * X ^ 2
在這種回歸技術(shù)中,最佳擬合線不是直線。它是一條與數(shù)據(jù)點(diǎn)吻合的曲線。
重點(diǎn): 雖然可能存在擬合更高次多項(xiàng)式以獲得更低誤差的誘惑,但這可能會(huì)導(dǎo)致過(guò)度擬合。始終繪制關(guān)系圖以查看是否匹配,并專注于確保曲線符合問(wèn)題的本質(zhì)。以下是繪圖如何幫助的示例: 特別注意的是末端的曲線,看看這些形狀和趨勢(shì)是否有意義。較高的多項(xiàng)式最終會(huì)產(chǎn)生奇怪的結(jié)果。 4.逐步回歸
當(dāng)我們處理多個(gè)自變量時(shí),會(huì)使用這種形式的回歸。在這種技術(shù)中,自變量的選擇是在自動(dòng)過(guò)程的幫助下完成的,這個(gè)過(guò)程是不需要人為的去進(jìn)行干預(yù)的。
通過(guò)觀察R方、t檢驗(yàn)和AIC指標(biāo)等統(tǒng)計(jì)值來(lái)識(shí)別重要變量,可以實(shí)現(xiàn)這一壯舉。逐步回歸基本上適合回歸模型,通過(guò)基于指定的標(biāo)準(zhǔn)一次一個(gè)地添加/刪除協(xié)變量。下面列出了一些最常用的逐步回歸方法:
標(biāo)準(zhǔn)逐步回歸做兩件事。它根據(jù)每個(gè)步驟的需要添加和刪除預(yù)測(cè)變量。 正向選擇從模型中最重要的預(yù)測(cè)變量開(kāi)始,并為每個(gè)步驟添加變量。 向后消除從模型中的所有預(yù)測(cè)變量開(kāi)始,并刪除每個(gè)步驟的最不重要的變量。
該建模技術(shù)的目的是以最少的預(yù)測(cè)變量來(lái)最大化預(yù)測(cè)能力。它是處理數(shù)據(jù)集更高維度的方法之一。
5.嶺回歸
嶺回歸是一種在數(shù)據(jù)存在多重共線性(自變量高度相關(guān))時(shí)使用的技術(shù)。在多重共線性中,即使最小二乘估計(jì)(OLS)是無(wú)偏的,但它們的方差也很大,這使得觀測(cè)值偏離真實(shí)值。通過(guò)在回歸估計(jì)中增加一定程度的偏差,嶺回歸可以減少標(biāo)準(zhǔn)誤差。
上面,我們看到了線性回歸的方程。還記得嘛?它可以表示為:
y = a + b * x
這個(gè)方程也有一個(gè)誤差項(xiàng)。完整的等式變?yōu)椋?
y = a + b * x + e(誤差項(xiàng)),[誤差項(xiàng)是校正觀測(cè)值和預(yù)測(cè)值之間預(yù)測(cè)誤差所需的值] 表示多個(gè)自變量,=> y = a + y = a + b1x1 + b2x2 + .... + e。
在線性方程中,預(yù)測(cè)誤差可以分解為兩個(gè)子分量。首先是由于偏差,第二是由于方差。由于這兩個(gè)或兩個(gè)組件中的任何一個(gè),都可能發(fā)生預(yù)測(cè)錯(cuò)誤。在這里,我們將討論由于方差引起的錯(cuò)誤。
嶺回歸通過(guò)收縮參數(shù) λ(lambda)解決了多重共線性問(wèn)題 。看下面的方程。
在這個(gè)方程中,我們有兩個(gè)組成部分。第一個(gè)是最小二乘項(xiàng),另一個(gè)是β2 (β平方)總和的λ,其中β是系數(shù)。這被添加到最小二乘項(xiàng),以便縮小參數(shù)以具有非常低的方差。
重點(diǎn): 該回歸的假設(shè)與最小二乘回歸相同,但不假設(shè)正態(tài)性 它會(huì)縮小系數(shù)的值,但不會(huì)達(dá)到零,這表明沒(méi)有特征選擇功能 這是一種正則化方法,并使用l2正則化。 6.Lasso回歸
類似于嶺回歸,Lasso(最小絕對(duì)收縮和選擇算子)也會(huì)對(duì)回歸系數(shù)的絕對(duì)大小進(jìn)行限制。此外,它還能夠降低線性回歸模型的可變性并提高其準(zhǔn)確性。請(qǐng)看下面的方程:
Lasso回歸與嶺回歸的不同之處在于,它在懲罰函數(shù)中使用絕對(duì)值而不是平方。這導(dǎo)致懲罰(或等效地約束估計(jì)值的絕對(duì)值的總和)值,從而導(dǎo)致一些參數(shù)估計(jì)值恰好為零。應(yīng)用的懲罰越大,估計(jì)值就會(huì)縮小到絕對(duì)零值。這導(dǎo)致從給定的n個(gè)變量中進(jìn)行變量選擇。
重點(diǎn): 該回歸的假設(shè)與最小二乘回歸相同,但不假設(shè)正態(tài)性 它將系數(shù)縮小到零(恰好為零),這肯定有助于特征選擇 這是一種正則化方法并使用l1正則化 如果預(yù)測(cè)變量高度相關(guān),則Lasso僅選取其中一個(gè)并將其他預(yù)測(cè)縮減為零 7.彈性網(wǎng)絡(luò)回歸
彈性網(wǎng)絡(luò)回歸是Lasso回歸和嶺回歸技術(shù)的混合體。它使用L1和L2先驗(yàn)作為正則化器進(jìn)行訓(xùn)練。當(dāng)存在多個(gè)相關(guān)的特征時(shí),彈性網(wǎng)絡(luò)是很有用的。Lasso可能隨機(jī)選擇其中一種,而彈性網(wǎng)很可能同時(shí)選擇兩個(gè)。
在Lasso回歸和嶺回歸之間進(jìn)行權(quán)衡的一個(gè)實(shí)際優(yōu)勢(shì)是,它允許彈性網(wǎng)絡(luò)在旋轉(zhuǎn)下繼承嶺回歸的一些穩(wěn)定性。
重點(diǎn): 在變量高度相關(guān)的情況下,它鼓勵(lì)群體效應(yīng) 所選變量的數(shù)量沒(méi)有限制 它會(huì)受到雙重收縮的影響 如何選擇正確的回歸模型?
當(dāng)你只知道一兩種技術(shù)時(shí),生活通常是很簡(jiǎn)單的。我所知道的其中一個(gè)培訓(xùn)機(jī)構(gòu)告訴他們的學(xué)生 - 如果結(jié)果是連續(xù)的 - 那就用線性回歸。如果是二進(jìn)制的 - 那就用邏輯回歸!但是,我們可以使用的選項(xiàng)數(shù)量越多,選擇正確的選項(xiàng)就越困難?;貧w模型也會(huì)發(fā)生類似的情況。
在多種類型的回歸模型中,基于自變量和因變量的類型,數(shù)據(jù)中的維度以及數(shù)據(jù)的其他基本特征來(lái)選擇最適合的回歸方法是很重要的。以下是應(yīng)該選擇正確的回歸模型的關(guān)鍵因素:
數(shù)據(jù)挖掘是構(gòu)建預(yù)測(cè)模型的必然部分。在選擇正確的模型之前,應(yīng)該首先確定變量之間的相關(guān)系數(shù)和影響 為了比較不同模型的擬合優(yōu)度,我們可以分析不同的指標(biāo),如參數(shù)的統(tǒng)計(jì)顯著性,R方,調(diào)整后的R方,AIC指標(biāo),BIC指標(biāo)和誤差項(xiàng)。另一個(gè)是Mallow的Cp標(biāo)準(zhǔn)。這基本上通過(guò)將模型與所有可能的子模型(仔細(xì)選擇它們)進(jìn)行比較,來(lái)檢查模型中可能存在的偏差。 交叉驗(yàn)證是評(píng)估用于預(yù)測(cè)的模型的最佳方式。在這里,可以將數(shù)據(jù)集分為兩組(訓(xùn)練和驗(yàn)證)。觀測(cè)值和預(yù)測(cè)值之間的簡(jiǎn)單均方差可以衡量預(yù)測(cè)的準(zhǔn)確性。 如果你的數(shù)據(jù)集有多個(gè)混淆變量,則不應(yīng)選擇自動(dòng)模型選擇方法,因?yàn)槟悴粫?huì)希望同時(shí)將它們放在模型中。 這也取決于你的目標(biāo)。與具有高度統(tǒng)計(jì)意義的模型相比,功能較弱的模型更容易實(shí)現(xiàn)。 回歸正則化方法(Lasso回歸,嶺回歸和彈性網(wǎng)絡(luò)回歸)在數(shù)據(jù)集中各變量之間具有高維度和多重共線性的情況下運(yùn)行良好。 結(jié)束語(yǔ)
到現(xiàn)在為止,我希望你已經(jīng)對(duì)回歸有所了解??紤]數(shù)據(jù)條件來(lái)應(yīng)用這些回歸技術(shù)。找出使用哪種技術(shù)的最佳技巧之一就是檢查變量族,即離散變量還是連續(xù)變量。
在本文中,我討論了7種類型的回歸以及與每種技術(shù)相關(guān)的一些關(guān)鍵事實(shí)。作為這個(gè)行業(yè)的新人,我建議你學(xué)習(xí)這些技術(shù),然后在你的模型中實(shí)現(xiàn)它們。
-以上就是作者推薦的七種數(shù)據(jù)科學(xué)人必知必會(huì)的七種回歸模型,如果大家對(duì)這七種模型感興趣,那就自己動(dòng)手去實(shí)驗(yàn)一下吧,只知道理論是不夠的,要多動(dòng)手實(shí)驗(yàn),才能真正的掌握這些模型。
7 Types of Regression Techniques you should know!
二、有監(jiān)督和無(wú)監(jiān)督的算法分別有哪些
有監(jiān)督學(xué)習(xí)算法:
線性回歸(Linear Regression)
邏輯回歸(Logistic Regression)
決策樹(shù)(Decision Tree)
支持向量機(jī)(Support Vector Machine,SVM)
K近鄰(K-Nearest Neighbors,KNN)
神經(jīng)網(wǎng)絡(luò)(Neural Networks)
隨機(jī)森林(Random Forest)
梯度提升樹(shù)(Gradient Boosting Tree)
貝葉斯分類器(Naive Bayes)
集成學(xué)習(xí)(Ensemble Learning)
無(wú)監(jiān)督學(xué)習(xí)算法:
聚類分析(Cluster Analysis)
關(guān)聯(lián)規(guī)則挖掘(Association Rule Mining)
主成分分析(Principal Component Analysis,PCA)
獨(dú)立成分分析(Independent Component Analysis,ICA)
降維(Dimensionality Reduction)
奇異值分解(Singular Value Decomposition,SVD)
非負(fù)矩陣分解(Non-negative Matrix Factorization,NMF)
概率圖模型(Probabilistic Graphical Models)
三、邏輯回歸和線性回歸的區(qū)別是什么?
一、性質(zhì)不同
1、邏輯回歸:是一種廣義的線性回歸分析模型。
2、線性回歸:利用數(shù)理統(tǒng)計(jì)中回歸分析,來(lái)確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法。
二、應(yīng)用不同
1、邏輯回歸:常用于數(shù)據(jù)挖掘,疾病自動(dòng)診斷,經(jīng)濟(jì)預(yù)測(cè)等領(lǐng)域。
2、線性回歸:常運(yùn)用于數(shù)學(xué)、金融、趨勢(shì)線、經(jīng)濟(jì)學(xué)等領(lǐng)域。
擴(kuò)展資料:
線性回歸的特征:
回歸分析中有多個(gè)自變量:這里有一個(gè)原則問(wèn)題,這些自變量的重要性,究竟誰(shuí)是最重要,誰(shuí)是比較重要,誰(shuí)是不重要。所以,spss線性回歸有一個(gè)和逐步判別分析的等價(jià)的設(shè)置。
原理:是F檢驗(yàn)。spss中的操作是“分析”~“回歸”~“線性”主對(duì)話框方法框中需先選定“逐步”方法~“選項(xiàng)”子對(duì)話框
如果是選擇“用F檢驗(yàn)的概率值”,越小代表這個(gè)變量越容易進(jìn)入方程。原因是這個(gè)變量的F檢驗(yàn)的概率小,說(shuō)明它顯著,也就是這個(gè)變量對(duì)回歸方程的貢獻(xiàn)越大,進(jìn)一步說(shuō)就是該變量被引入回歸方程的資格越大。
參考資料來(lái)源:百度百科-線性回歸
參考資料來(lái)源:百度百科-邏輯回歸
四、機(jī)器學(xué)習(xí)故事匯-邏輯回歸算法
機(jī)器學(xué)習(xí)故事匯-邏輯回歸算法
今天我們要來(lái)討論的一個(gè)分類算法-邏輯回歸(你有沒(méi)有搞錯(cuò),這不還是回歸嗎,雖然名字帶上了回歸其實(shí)它是一個(gè)非常實(shí)用的分類算法)。,適合對(duì)數(shù)學(xué)很頭疼的同學(xué)們,小板凳走起!
先來(lái)吹一吹邏輯回歸的應(yīng)用,基本上所有的機(jī)器學(xué)習(xí)分類問(wèn)題都可以使用邏輯回歸來(lái)求解,當(dāng)前拿到一份數(shù)據(jù)想做一個(gè)分類任務(wù)的時(shí)候第一手準(zhǔn)備一定要拿邏輯回歸來(lái)嘗試(雖然有很多復(fù)雜的模型比如神經(jīng)網(wǎng)絡(luò),支持向量機(jī)的名氣更大,但是邏輯回歸卻更接地氣,用的最多的還是它)!在機(jī)器學(xué)習(xí)中無(wú)論是算法的推導(dǎo)還是實(shí)際的應(yīng)用一直有這樣的一種思想,如果一個(gè)問(wèn)題能用簡(jiǎn)單的算法去解決那么絕對(duì)沒(méi)必要去套用復(fù)雜的模型。
在邏輯回歸中最核心的概念就是Sigmoid函數(shù)了,首先我們先來(lái)觀察一下它的自變量取值范圍以及值域,自變量可以是任何實(shí)數(shù)(這沒(méi)啥特別的!)但是我們觀察值域的范圍是[0,1]也就是任意的一個(gè)輸入都會(huì)映射到[0,1]的區(qū)間上,我們來(lái)想一想這個(gè)區(qū)間有什么特別的含義嗎?在我們做分類任務(wù)的時(shí)候一般我都都會(huì)認(rèn)為一個(gè)數(shù)據(jù)來(lái)了它要么是0要么是1(只考慮二分類問(wèn)題),我們其實(shí)可以更細(xì)致一點(diǎn)得出來(lái)它是0或者1的可能性有多大,由此我們就得出了一個(gè)輸入屬于某一個(gè)類別的概率值,這個(gè)[0,1]不就恰好是這個(gè)概率嗎!
在這里我們的預(yù)測(cè)函數(shù)還是跟線性回歸沒(méi)有多大差別,只不過(guò)我們將結(jié)果又輸入到Sigmoid函數(shù)中,這樣得到了數(shù)據(jù)屬于類別的概率值。在推導(dǎo)過(guò)程中,我們假定分類是兩個(gè)類別的(邏輯回歸是經(jīng)典的而分類器)。設(shè)定y(標(biāo)簽)要么取0要么取1,這樣就可以把兩個(gè)類別進(jìn)行整合,得到一個(gè)更直觀的表達(dá)。
對(duì)于邏輯回歸的求解,已然沿用我們上次跟大家討論的梯度下降算法。給出似然函數(shù),轉(zhuǎn)換對(duì)數(shù)似然(跟線性回歸一致),但是我們現(xiàn)在的優(yōu)化目標(biāo)卻跟之前不太一樣了,線性回歸的時(shí)候我們要求解的是最小值(最小二乘法),但是現(xiàn)在我們想得到的卻是使得該事件發(fā)生得最大值,為了沿用梯度下降來(lái)求解,可以做一個(gè)簡(jiǎn)單的轉(zhuǎn)換添加一個(gè)負(fù)號(hào)以及一個(gè)常數(shù)很簡(jiǎn)單的兩步就可以把原始問(wèn)題依然轉(zhuǎn)換成梯度下降可以求解的問(wèn)題。
此處求導(dǎo)過(guò)程看起來(lái)有些長(zhǎng),但也都是非常非常基本的運(yùn)算了,感興趣拿起一支筆來(lái)實(shí)際算算吧!
最終就是參數(shù)更新了,迭代更新是機(jī)器學(xué)習(xí)的常規(guī)套路了。但是我們來(lái)簡(jiǎn)單想一想另外的一個(gè)問(wèn)題,現(xiàn)在我們說(shuō)的邏輯回歸是一個(gè)二分類算法,那如果我的實(shí)際問(wèn)題是一個(gè)多分類該怎么辦呢?這個(gè)時(shí)候就需要Softmax啦,引入了歸一化機(jī)制,來(lái)將得分值映射成概率值。
最后一句話總結(jié)一下吧,任何時(shí)候(沒(méi)錯(cuò)就是這么狠)當(dāng)我們一個(gè)實(shí)際任務(wù)來(lái)了,第一個(gè)算法就是邏輯回歸啦,可以把它當(dāng)成我們的基礎(chǔ)模型,然后不斷改進(jìn)對(duì)比!
以上就是關(guān)于邏輯回歸是屬于什么算法相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
朋友圈廣告的收費(fèi)邏輯是什么(朋友圈廣告的收費(fèi)標(biāo)準(zhǔn))
vi設(shè)計(jì)思維導(dǎo)圖(vi設(shè)計(jì)思維導(dǎo)圖邏輯書籍)
抖音代運(yùn)營(yíng)公司北京(抖音代運(yùn)營(yíng)公司北京地址)
公園里的風(fēng)景畫一幅畫(公園里的風(fēng)景畫一幅畫句子)
猜你喜歡
2022年手機(jī)百度所有舊版本(手機(jī)百度2020年舊版本-)
成人學(xué)歷提升大專大概要多少錢(初中生怎么升大專學(xué)歷)
中國(guó)最繁華的城市(中國(guó)最繁華的城市是哪個(gè)城市)
抖音關(guān)鍵詞SEO優(yōu)化公司(抖音關(guān)鍵詞排名優(yōu)化軟件)
歷年自然指數(shù)排名(2020年自然指數(shù)排行榜)
百度免費(fèi)注冊(cè)怎么注冊(cè)的(怎么免費(fèi)注冊(cè)百度賬號(hào))
ps導(dǎo)出沒(méi)有web格式選項(xiàng)(ps導(dǎo)出沒(méi)有web格式選項(xiàng)怎么回事)