HOME 首頁
SERVICE 服務產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務案例
NEWS 熱點資訊
ABOUT 關于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    灰狼算法特征選擇(灰狼算法特征選擇題及答案)

    發(fā)布時間:2023-04-18 22:45:07     稿源: 創(chuàng)意嶺    閱讀: 133        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于灰狼算法特征選擇的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    灰狼算法特征選擇(灰狼算法特征選擇題及答案)

    一、THC是什么意思?CFS費用是什么意思?

    THC即Terminal Handling Charges (碼頭處理費)的縮寫,是指由船公司向交貨人或收貨人收取的費用,用以抵償船公司在裝貨港或目的港需要支付給碼頭或者中間作業(yè)經(jīng)營者的貨柜碼頭裝卸費用及其他有關處理貨物的費用。THC可分成裝貨港的THC和目的港的THC。

    CFS是集裝箱貨運站(CONTAINER FREIGHT STATION)是處理拼箱貨的場所,集裝箱貨運站的使用費用,它辦理拼箱貨的交接,配載積載后,將箱子送往CY(Container Yard, 集裝箱(貨柜)堆場),并接受CY交來的進口貨箱,進行拆箱,理貨,保管,最后撥給各收貨人。同時也可以按承運人的委托進行鉛封和簽發(fā)場站收據(jù)等業(yè)務。CFS的費用,通常是以一個立方多少來計算的。

    灰狼算法特征選擇(灰狼算法特征選擇題及答案)

    擴展資料:

    THC按起運港和目的港不同可劃分為OTHC(Origin Terminal Handling Charge,起運港碼頭操作費)和DTHC(Destination Terminal Handling Charge,目的港碼頭操作費)兩種。出口到美國的貨物沒有DTHC。

    2010 1月1號開始,船公司會進一步增加THC 的收費,部分船公司收費已經(jīng)發(fā)出通知,例如COSCO。

    THC費用、ORC費用法律提示:

    1. 無論FOB還是CFR情況下,裝貨港的THC/ORC費用均由賣方承擔,中國供應商在報價時必須考慮該價格因素。

    2. 認為FOB情況下,買方承擔運費就必然承擔THC或者ORC的觀點是失當?shù)?。該觀點是對THC費用性質(zhì)及FOB條款涵義的誤解所造成的,中國供應商應予注意。

    3. 認為CFR情況下,賣方必然承擔卸貨港的駁運費、碼頭費用的觀點也是失當?shù)摹Yu方可以通過在運輸合同中排除承擔,以及在買賣合同中約定由買方承擔,而實現(xiàn)自身的免責。所以,CFR條件下,賣家需要注意的問題是,運輸合同由賣方簽訂,船公司往往在格式條款中要求賣家承擔目的港的碼頭費用,若賣方不擬承擔該費用,應在運輸合同中排除;若船公司的格式合同不容更改,則應在買賣合同中約定由買方補償該費用。

    4. 上述關于THC和ORC費用的承擔適用于買賣雙方僅約定FOB或CFR條件,且沒有對THC和ORC作出特別約定的情形,事實上,對于THC和ORC的承擔,買賣雙方是可以通過買賣合同另行約定,且該另行之約定較FOB或CFR條件有優(yōu)先效力。

    參考資料:百度百科-THC (集裝箱碼頭裝卸作業(yè)費的縮寫)

    參考資料:百度百科-CFS (集裝箱貨運站)

    二、決策樹算法-原理篇

    關于決策樹算法,我打算分兩篇來講,一篇講思想原理,另一篇直接擼碼來分析算法。本篇為原理篇。

    通過閱讀這篇文章,你可以學到:

    1、決策樹的本質(zhì)

    2、決策樹的構(gòu)造過程

    3、決策樹的優(yōu)化方向

    決策樹根據(jù)使用目的分為:分類樹和回歸樹,其本質(zhì)上是一樣的。本文只講分類樹。

    決策樹,根據(jù)名字來解釋就是,使用樹型結(jié)構(gòu)來模擬決策。

    用圖形表示就是下面這樣。

    其中橢圓形代表:特征或?qū)傩浴iL方形代表:類別結(jié)果。

    面對一堆數(shù)據(jù)(含有特征和類別),決策樹就是根據(jù)這些特征(橢圓形)來給數(shù)據(jù)歸類(長方形)

    例如,信用貸款問題,我根據(jù)《神奇動物在哪里》的劇情給銀行造了個決策樹模型,如下圖:

    然而,決定是否貸款可以根據(jù)很多特征,然麻雞銀行選擇了:(1)是否房產(chǎn)價值>100w;(2)是否有其他值錢的抵押物;(3)月收入>10k;(4)是否結(jié)婚;這四個特征,來決定是否給予貸款。

    先不管是否合理,但可以肯定的是,決策樹做了特征選擇工作,即選擇出類別區(qū)分度高的特征。

    由此可見, 決策樹其實是一種特征選擇方法。 (特征選擇有多種,決策樹屬于嵌入型特征選擇,以后或許會講到,先給個圖)即選擇區(qū)分度高的特征子集。

    那么, 從特征選擇角度來看決策樹,決策樹就是嵌入型特征選擇技術

    同時,決策樹也是機器學習中經(jīng)典分類器算法,通過決策路徑,最終能確定實例屬于哪一類別。

    那么, 從分類器角度來看決策樹,決策樹就是樹型結(jié)構(gòu)的分類模型

    從人工智能知識表示法角度來看,決策樹類似于if-then的產(chǎn)生式表示法。

    那么, 從知識表示角度來看決策樹,決策樹就是if-then規(guī)則的集合

    由上面的例子可知,麻雞銀行通過決策樹模型來決定給哪些人貸款,這樣決定貸款的流程就是固定的,而不由人的主觀情感來決定。

    那么, 從使用者角度來看決策樹,決策樹就是規(guī)范流程的方法

    最后我們再來看看決策樹的本質(zhì)是什么已經(jīng)不重要了。

    決策樹好像是一種思想,而通過應用在分類任務中從而成就了“決策樹算法”。

    下面內(nèi)容還是繼續(xù)講解用于分類的“決策樹算法”。

    前面講了決策樹是一種 特征選擇技術 。

    既然決策樹就是一種特征選擇的方法,那么經(jīng)典決策樹算法其實就是使用了不同的特征選擇方案。

    如:

    (1)ID3:使用信息增益作為特征選擇

    (2)C4.5:使用信息增益率作為特征選擇

    (3)CART:使用GINI系數(shù)作為特征選擇

    具體選擇的方法網(wǎng)上一大把,在這里我提供幾個鏈接,不細講。

    但,不僅僅如此。

    決策樹作為嵌入型特征選擇技術結(jié)合了特征選擇和分類算法,根據(jù)特征選擇如何生成分類模型也是決策樹的一部分。

    其生成過程基本如下:

    根據(jù)這三個步驟,可以確定決策樹由:(1)特征選擇;(2)生成方法;(3)剪枝,組成。

    決策樹中學習算法與特征選擇的關系如下圖所示:

    原始特征集合T:就是包含收集到的原始數(shù)據(jù)所有的特征,例如:麻瓜銀行收集到與是否具有償還能力的所有特征,如:是否結(jié)婚、是否擁有100w的房產(chǎn)、是否擁有汽車、是否有小孩、月收入是否>10k等等。

    中間的虛線框就是特征選擇過程,例如:ID3使用信息增益、C4.5使用信息增益率、CART使用GINI系數(shù)。

    其中評價指標(如:信息增益)就是對特征的要求,特征需要滿足這種條件(一般是某個閾值),才能被選擇,而這一選擇過程嵌入在學習算法中,最終被選擇的特征子集也歸到學習算法中去。

    這就是抽象的決策樹生成過程,不論哪種算法都是將這一抽象過程的具體化。

    其具體算法我將留在下一篇文章來講解。

    而決策樹的剪枝,其實用得不是很多,因為很多情況下隨機森林能解決決策樹帶來的過擬合問題,因此在這里也不講了。

    決策樹的優(yōu)化主要也是圍繞決策樹生成過程的三個步驟來進行優(yōu)化的。

    樹型結(jié)構(gòu),可想而知,算法效率決定于樹的深度,優(yōu)化這方面主要從特征選擇方向上優(yōu)化。

    提高分類性能是最重要的優(yōu)化目標,其主要也是特征選擇。

    面對過擬合問題,一般使用剪枝來優(yōu)化,如:李國和基于決策樹生成及剪枝的數(shù)據(jù)集優(yōu)化及其應用。

    同時,決策樹有很多不足,如:多值偏向、計算效率低下、對數(shù)據(jù)空缺較為敏感等,這方面的優(yōu)化也有很多,大部分也是特征選擇方向,如:陳沛玲使用粗糙集進行特征降維。

    由此,決策樹的優(yōu)化方向大多都是特征選擇方向,像ID3、C4.5、CART都是基于特征選擇進行優(yōu)化。

    參考文獻

    統(tǒng)計學習方法-李航

    特征選擇方法綜述-李郅琴

    決策樹分類算法優(yōu)化研究_陳沛玲

    基于決策樹生成及剪枝的數(shù)據(jù)集優(yōu)化及其應用-李國和

    三、比較特征選擇和因子分析算法的異同

    因子分析 1輸入數(shù)據(jù)。 2點Analyze 下拉菜單,選Data Reduction 下的Factor 。 3打開Factor Analysis后,將數(shù)據(jù)變量逐個選中進入Variables 對話框中。 4單擊主對話框中的Descriptive按扭,打開Factor Analysis: Descriptives子對話框,在Statistics欄中選擇Univariate Descriptives項要求輸出個變量的均值與標準差,在Correlation Matrix 欄內(nèi)選擇Coefficients項,要求計算相關系數(shù)矩陣,單擊Continue按鈕返回Factor Analysis主對話框。 5單擊主對話框中的Extraction 按鈕,打開如下圖所示的Factor Analysis: Extraction 子對話框。在Method列表中選擇默認因子抽取方法——Principal Components,在Analyze 欄中選擇默認的Correlation Matrix 項要求從相關系數(shù)矩陣出發(fā)求解主成分,在Exact 欄中選擇Number of Factors;6, 要求顯示所有主成分的得分和所能解釋的方差。單擊Continue按鈕返回Factor Analysis主對話框。 6單擊主對話框中的OK 按鈕,輸出結(jié)果。

    四、特征元素篩選的目的

    特征提取的目的是把樣本集從高維特征空間映射到低維特征空間,并使映射后的樣本集仍具有良好的可分性。特征提取算法的好壞會影響系統(tǒng)的最終識別效果,同時經(jīng)過特征提取后的數(shù)據(jù)集由于維數(shù)的減少,會明顯減少系統(tǒng)的計算時間。然而在很多問題中往往不容易提取出合適的特征,需要根據(jù)具體的分類問題選擇特征選擇算法。

    以上就是關于灰狼算法特征選擇相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    灰狼優(yōu)化算法應用(灰狼優(yōu)化算法應用)

    灰狼算法和遺傳算法哪個好(灰狼算法和遺傳算法哪個好用)

    多目標灰狼算法(多目標灰狼算法流程圖)

    杭州市武林壹號(杭州武林壹號房價)

    手機k歌軟件排行榜(手機k歌軟件排行榜前十名)