HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實現(xiàn))

    發(fā)布時間:2023-04-08 15:02:28     稿源: 創(chuàng)意嶺    閱讀: 134        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于優(yōu)化算法的應(yīng)用的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實現(xiàn))

    一、優(yōu)化算法

    動量法、AdaGrad、RMSProp、AdaDelta、Adam

    在7.2節(jié)(梯度下降和隨機梯度下降)中我們提到,目標函數(shù)有關(guān)自變量的梯度代表了目標函數(shù)在自變量當前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根據(jù)自變量當前位置,沿著當前位置的梯度更新自變量。然而,如果自變量的迭代方向 僅僅取決于自變量當前位置,這可能會帶來一些問題

    可以看到,同一位置上,目標函數(shù)在豎直方向( 軸方向)比在水平方向( 軸方向)的斜率的絕對值更大。因此,給定學習率,梯度下降迭代自變量時會使自變量在豎直方向比在水平方向移動幅度更大。那么,我們 需要一個較小的學習率 從而避免自變量在豎直方向上越過目標函數(shù)最優(yōu)解。然而,這會造成自變量在水平方向上 朝最優(yōu)解移動變慢 。

    試著將學習率調(diào)大一點,此時自變量在豎直方向不斷越過最優(yōu)解并逐漸發(fā)散。

    動量法的提出是為了解決梯度下降的上述問題。

    其中,動量超參數(shù) 滿足 。當 時,動量法等價于小批量隨機梯度下降。

    因此,在實際中,我們常常將 看作是最近 個時間步的 的值的加權(quán)平均。

    現(xiàn)在,我們對動量法的速度變量做變形:

    優(yōu)化算法中,⽬標函數(shù)⾃變量的每⼀個元素在相同時間步都使⽤同⼀個學習率來⾃我迭代。在“動量法”⾥我們看到當x1和x2的梯度值有較⼤差別時,需要選擇⾜夠小的學習率使得⾃變量在梯度值較⼤的維度上不發(fā)散。但這樣會導致⾃變量在梯度值較小的維度上迭代過慢。動量法依賴指數(shù)加權(quán)移動平均使得⾃變量的更新⽅向更加⼀致,從而降低發(fā)散的可能。 本節(jié)我們介紹AdaGrad算法,它根據(jù)⾃變量在每個維度的梯度值的⼤小來調(diào)整各個維度上的學習率,從而避免統(tǒng)⼀的學習率難以適應(yīng)所有維度的問題。

    AdaGrad算法會使⽤⼀個小批量隨機梯度gt按元素平⽅的累加變量st。在時間步0,AdaGrad將s0中每個元素初始化為0。在時間步t,⾸先將小批量隨機梯度gt按元素平⽅后累加到變量st:

    其中⊙是按元素相乘。接著,我們將⽬標函數(shù)⾃變量中每個元素的學習率通過按元素運算重新調(diào)整⼀下:

    其中η是學習率,ϵ是為了維持數(shù)值穩(wěn)定性而添加的常數(shù),如10的-6次方。這⾥開⽅、除法和乘法的運算都是按元素運算的。這些按元素運算使得⽬標函數(shù)⾃變量中 每個元素都分別擁有⾃⼰的學習率

    需要強調(diào)的是,小批量隨機梯度按元素平⽅的累加變量st出現(xiàn)在學習率的分⺟項中。因此,

    然而,由于st⼀直在累加按元素平⽅的梯度,⾃變量中每個元素的學習率在迭代過程中⼀直在降低(或不變)。 所以,當學習率在迭代早期降得較快且當前解依然不佳時,AdaGrad算法在迭代后期由于學習率過小,可能較難找到⼀個有⽤的解 。

    當學習率在迭代早期降得較快且當前解依然不佳時,AdaGrad算法在迭代后期由于 學習率過小 ,可能較難找到⼀個有⽤的解。為了解決這⼀問題,RMSProp算法對AdaGrad算法做了⼀點小小的修改。

    不同于AdaGrad算法⾥狀態(tài)變量st是 截⾄時間步t所有小批量隨機梯度gt按元素平⽅和 ,RMSProp算法將這些梯度 按元素平⽅做指數(shù)加權(quán)移動平均 。具體來說,給定超參數(shù)0 ≤ γ < 1,RMSProp算法在時間步t > 0計算:

    和AdaGrad算法⼀樣,RMSProp算法將⽬標函數(shù)⾃變量中每個元素的學習率通過按元素運算重新調(diào)整,然后更新⾃變量:

    其中η是學習率,ϵ是為了維持數(shù)值穩(wěn)定性而添加的常數(shù),如10的-6次方。因為RMSProp算法的狀態(tài)變量st是對平⽅項gt ⊙ gt的指數(shù)加權(quán)移動平均, 所以可以看作是最近1/(1 − γ)個時間步的小批量隨機梯度平⽅項的加權(quán)平均。如此⼀來,⾃變量每個元素的學習率在迭代過程中就不再⼀直降低(或不變)。

    除了RMSProp算法以外,另⼀個常⽤優(yōu)化算法AdaDelta算法也針對AdaGrad算法在迭代后期可能較難找到有⽤解的問題做了改進。有意思的是,AdaDelta算法沒有學習率這⼀超參數(shù)。

    AdaDelta算法也像RMSProp算法⼀樣,使⽤了小批量隨機梯度gt按元素平⽅的指數(shù)加權(quán)移動平均變量st。在時間步0,它的所有元素被初始化為0。給定超參數(shù)0 ≤ ρ < 1(對應(yīng)RMSProp算法中的γ),在時間步t > 0,同RMSProp算法⼀樣計算:

    與RMSProp算法不同的是,AdaDelta算法還維護⼀個 額外的狀態(tài)變量∆xt ,其元素同樣在時間步0時被初始化為0。我們使⽤∆xt−1來計算⾃變量的變化量:

    最后,我們使⽤∆xt來記錄⾃變量變化量 按元素平⽅的指數(shù)加權(quán)移動平均:

    Adam算法在RMSProp算法基礎(chǔ)上對小批量隨機梯度也做了指數(shù)加權(quán)移動平均。

    Adam算法使⽤了 動量變量vt 和RMSProp算法中 小批量隨機梯度按元素平⽅的指數(shù)加權(quán)移動平均變量st ,并在時間步0將它們中每個元素初始化為0。給定超參數(shù)0 ≤ β1 < 1(算法作者建議設(shè)為0.9),時間步t的動量變量vt即小批量隨機梯度gt的指數(shù)加權(quán)移動平均:

    接下來,Adam算法使⽤以上 偏差修正 后的變量 v ˆ t s ˆ t ,將模型參數(shù)中每個元素的學習率通過按元素運算重新調(diào)整:

    其中 η 是學習率, ϵ 是為了維持數(shù)值穩(wěn)定性而添加的常數(shù),如10的-8次方。和AdaGrad算法、RMSProp算法以及AdaDelta算法⼀樣,⽬標函數(shù)⾃變量中每個元素都分別擁有⾃⼰的學習率。最后,使⽤ 迭代⾃變量:

    二、什么是梯度下降優(yōu)化算法?

    "梯度下降算法" 是一種常用的最優(yōu)化算法,它的基本思想是通過不斷調(diào)整模型參數(shù)來最小化損失函數(shù),以達到在訓練集上預測效果盡可能優(yōu)秀的目的。

    具體而言,梯度下降算法的工作過程如下:

    首先,選擇一組初始的參數(shù)。

    然后,計算當前參數(shù)下的損失函數(shù)值。

    接著,計算損失函數(shù)關(guān)于參數(shù)的導數(shù)(即梯度),并沿著梯度的反方向調(diào)整參數(shù)。

    重復上述過程,直到損失函數(shù)達到最小值或達到停止條件(比如迭代次數(shù)達到預定值)。

    梯度下降算法的優(yōu)點在于簡單易實現(xiàn),可以用于解決各種類型的最優(yōu)化問題。但是,梯度下降算法的缺點在于收斂速度較慢,容易陷入局部最小值,且對于高維問題容易陷入局部最小值。因此,為了提高算法的收斂速度和穩(wěn)定性,常常采用不同的變種來改進基本的梯度下降算法,常見的變種有批量梯度下降算法、隨機梯度下降算法和小批量梯度下降算法。

    優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實現(xiàn))

    三、多目標智能優(yōu)化算法及其應(yīng)用的目錄

    《智能科學技術(shù)著作叢書》序

    前言

    第1章 緒論

    1.1 進化算法

    1.1.1 進化算法的基本框架

    1.1.2 遺傳算法

    1.1.3 進化策略

    1.1.4 進化規(guī)劃

    1.2 粒子群算法

    1.2.1 標準粒子群算法

    1.2.2 算法解析

    1.3 蟻群算法

    1.3.1 蟻群算法的基本思想

    1.3.2 蟻群算法的實現(xiàn)過程

    1.3.3 蟻群算法描述

    1.3.4 蟻群優(yōu)化的特點

    1.4 模擬退火算法122

    1.4.1 模擬退火算法的基本原理

    1.4.2 模擬退火算法描述

    1.5 人工免疫系統(tǒng)

    1.5.1 生物免疫系統(tǒng)

    1.5.2 人工免疫系統(tǒng)

    1.6 禁忌搜索

    1.7 分散搜索

    1.8 多目標優(yōu)化基本概念

    參考文獻

    第2章 多目標進化算法

    2.1 基本原理

    2.1.1 MOEA模型

    2.1.2 性能指標與測試函數(shù)

    2.2 典型多目標進化算法

    2.2.1 VEGA、MOGA、NPGA和NSGA

    2.2.2 SPEA和SPEA2

    2.2.3 NSGA2

    2.2.4 PAES

    2.2.5 其他典型MOEA

    2.3 多目標混合進化算法

    2.3.1 多目標遺傳局部搜索

    2.3.2 J—MOGLS

    2.3.3 M PAES

    2.3.4 多目標混沌進化算法

    2.4 協(xié)同多目標進化算法

    2.5 動態(tài)多目標進化算法

    2.5.1 IMOEA

    2.5.2 動態(tài)MOEA(DMOEA)

    2.6 并行多目標進化算法

    2.6.1 并行多目標進化算法的基本原理

    2.6.2 多分辨率多目標遺傳算法

    2.6.3 并行單前端遺傳算法

    2.7 其他多目標進化算法

    2.7.1 高維多目標優(yōu)化的NSGA2改進算法

    2.7.2 動態(tài)多目標優(yōu)化的進化算法

    2.8 結(jié)論與展望

    參考文獻

    第3章 多目標粒子群算法

    3.1 基本原理

    3.2 典型多目標粒子群算法

    3.2.1 CMOPSO

    3.2.2 多目標全面學習粒子群算法

    3.2.3 Pareto檔案多目標粒子群優(yōu)化

    3.3 多目標混合粒子群算法

    3.3.1 模糊多目標粒子群算法

    3.3.2 基于分散搜索的多目標混合粒子群算法

    3.4 交互粒子群算法

    3.5 結(jié)論

    參考文獻

    第4章 其他多目標智能優(yōu)化算法

    4.1 多目標模擬退火算法

    4.2 多目標蟻群算法

    4.2.1 連續(xù)優(yōu)化問題的多目標蟻群算法

    4.2.2 組合優(yōu)化問題的多目標蟻群算法

    4.3 多目標免疫算法

    4.4 多目標差分進化算法

    4.5 多目標分散搜索

    4.6 結(jié)論

    參考文獻

    第5章 人工神經(jīng)網(wǎng)絡(luò)優(yōu)化

    5.1 Pareto進化神經(jīng)網(wǎng)絡(luò)

    5.2 徑向基神經(jīng)網(wǎng)絡(luò)優(yōu)化與設(shè)計

    5.3 遞歸神經(jīng)網(wǎng)絡(luò)優(yōu)化與設(shè)計

    5.4 模糊神經(jīng)網(wǎng)絡(luò)多目標優(yōu)化

    5.5 結(jié)論

    參考文獻

    第6章 交通與物流系統(tǒng)優(yōu)化

    6.1 物流配送路徑優(yōu)化

    6.1.1 多目標車輛路徑優(yōu)化

    6.1.2 多目標隨機車輛路徑優(yōu)化

    6.2 城市公交路線網(wǎng)絡(luò)優(yōu)化

    6.3 公共交通調(diào)度

    6.3.1 概述

    6.3.2 多目標駕駛員調(diào)度

    6.4 結(jié)論

    參考文獻

    第7章 多目標生產(chǎn)調(diào)度

    7.1 生產(chǎn)調(diào)度描述_

    7.1.1 車間調(diào)度問題

    7.1.2 間隙生產(chǎn)調(diào)度

    7.1.3 動態(tài)生產(chǎn)調(diào)度

    7.1.4 批處理機調(diào)度和E/T調(diào)度

    7.2 生產(chǎn)調(diào)度的表示方法

    7.3 基于進化算法的多目標車間調(diào)度

    7.3.1 多目標流水車間調(diào)度

    7.3.2 多目標作業(yè)車間調(diào)度

    7.4 基于進化算法的多目標模糊調(diào)度

    7.4.1 模糊調(diào)度:Sakawa方法

    7.4.2 模糊作業(yè)車間調(diào)度:cMEA方法

    7.5 基于進化算法的多目標柔性調(diào)度

    7.5.1 混合遺傳調(diào)度方法

    7.5.2 混合遺傳算法

    7.6 基于粒子群優(yōu)化的多目標調(diào)度

    7.6.1 基于粒子群優(yōu)化的多目標作業(yè)車間調(diào)度

    7.6.2 多目標柔性調(diào)度的混合粒子群方法

    7.7 多目標隨機調(diào)度

    7.8 結(jié)論與展望

    參考文獻

    第8章 電力系統(tǒng)優(yōu)化及其他

    8.1 電力系統(tǒng)優(yōu)化

    8.1.1 基于免疫算法的多目標無功優(yōu)化

    8.1.2 基于分層優(yōu)化的多目標電網(wǎng)規(guī)劃

    8.1.3 基于NSGA2及協(xié)同進化的多目標電網(wǎng)規(guī)劃

    8.2 多播Qos路由優(yōu)化

    8.3 單元制造系統(tǒng)設(shè)計

    8.3.1 概述

    8.3.2 基于禁忌搜索的多目標單元構(gòu)造

    8.3.3 基于并行禁忌搜索的多目標單元構(gòu)造

    8.4 自動控制系統(tǒng)設(shè)計

    8.4.1 概述

    8.4.2 混合動力學系統(tǒng)控制

    8.4.3 魯棒PID控制器設(shè)計

    8.5 結(jié)論

    參考文獻

    附錄 部分測試函數(shù)

    ……

    優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實現(xiàn))

    四、多目標智能優(yōu)化算法及其應(yīng)用的簡介

    《多目標智能優(yōu)化算法及其應(yīng)用》可作為計算機、自動控制、人工智能、管理科學和工業(yè)工程等專業(yè)的研究生及高年級本科生教材,也可作為從事計算智能、生產(chǎn)調(diào)度等研究人員和工程技術(shù)人員的參考書。

    優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實現(xiàn))

    以上就是關(guān)于優(yōu)化算法的應(yīng)用相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    搜索優(yōu)化(網(wǎng)站搜索優(yōu)化)

    seo關(guān)鍵詞優(yōu)化軟件官網(wǎng)(seo關(guān)鍵詞優(yōu)化軟件app)

    優(yōu)化教學內(nèi)容是指什么(優(yōu)化教學內(nèi)容是指什么內(nèi)容)

    巴盟生態(tài)園林景觀設(shè)計(巴盟生態(tài)園林景觀設(shè)計方案)

    下列屬于企業(yè)角度的網(wǎng)絡(luò)營銷功能(下列屬于企業(yè)角度的網(wǎng)絡(luò)營銷功能的有)