HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    計(jì)算機(jī)視覺常用算法(計(jì)算機(jī)視覺常用算法是什么)

    發(fā)布時(shí)間:2023-04-18 22:27:40     稿源: 創(chuàng)意嶺    閱讀: 70        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于計(jì)算機(jī)視覺常用算法的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    計(jì)算機(jī)視覺常用算法(計(jì)算機(jī)視覺常用算法是什么)

    一、在哪可以買到模式識(shí)別實(shí)驗(yàn)報(bào)告

    模式識(shí)別實(shí)驗(yàn)報(bào)告聯(lián)系客服

    發(fā)布時(shí)間 : 2023/1/20 20:50:49 星期五 文章模式識(shí)別實(shí)驗(yàn)報(bào)告更新完畢開始閱讀

    實(shí)驗(yàn)1 圖像的貝葉斯分類

    1.1 實(shí)驗(yàn)?zāi)康?/p>

    將模式識(shí)別方法與圖像處理技術(shù)相結(jié)合,掌握利用最小錯(cuò)分概率貝葉斯分類器進(jìn)行圖像分類的基本方法,通過實(shí)驗(yàn)加深對(duì)基本概念的理解。

    1.2 實(shí)驗(yàn)儀器設(shè)備及軟件

    HP D538、MATLAB

    1.3 實(shí)驗(yàn)原理 1.3.1 基本原理

    閾值化分割算法是計(jì)算機(jī)視覺中的常用算法,對(duì)灰度圖象的閾值分割就是先確定一個(gè)處于圖像灰度取值范圍內(nèi)的灰度閾值,然后將圖像中每個(gè)像素的灰度值與這個(gè)閾值相比較。并根據(jù)比較的結(jié)果將對(duì)應(yīng)的像素劃分為兩類,灰度值大于閾值的像素劃分為一類,小于閾值的劃分為另一類,等于閾值的可任意劃分到兩類中的任何一類。此過程中,確定閾值是分割的關(guān)鍵。

    對(duì)一般的圖像進(jìn)行分割處理通常對(duì)圖像的灰度分布有一定的假設(shè),或者說是基于一定的圖像模型。最常用的模型可描述如下:假設(shè)圖像由具有單峰灰度分布的目標(biāo)和背景組成,處于目標(biāo)和背景內(nèi)部相鄰像素間的灰度值是高度相關(guān)的,但處于目標(biāo)和背景交界處兩邊的像素灰度值有較大差別,此時(shí),圖像的灰度直方圖基本上可看作是由分別對(duì)應(yīng)于目標(biāo)和背景的兩個(gè)單峰直方圖混合構(gòu)成。而且這兩個(gè)分布應(yīng)大小接近,且均值足夠遠(yuǎn),方差足夠小,這種情況下直方圖呈現(xiàn)較明顯的雙峰。類似地,如果圖像中包含多個(gè)單峰灰度目標(biāo),則直方圖可能呈現(xiàn)較明顯的多峰。

    上述圖像模型只是理想情況,有時(shí)圖像中目標(biāo)和背景的灰度值有部分交錯(cuò)。這時(shí)如用全局閾值進(jìn)行分割必然會(huì)產(chǎn)生一定的誤差。分割誤差包括將目標(biāo)分為背

    景和將背景分為目標(biāo)兩大類。實(shí)際應(yīng)用中應(yīng)盡量減小錯(cuò)誤分割的概率,常用的一種方法為選取最優(yōu)閾值。這里所謂的最優(yōu)閾值,就是指能使誤分割概率最小的分割閾值。圖像的直方圖可以看成是對(duì)灰度值概率分布密度函數(shù)的一種近似。如一幅圖像中只包含目標(biāo)和背景兩類灰度區(qū)域,那么直方圖所代表的灰度值概率密度函數(shù)可以表示為目標(biāo)和背景兩類灰度值概率密度函數(shù)的加權(quán)和。如果概率密度函數(shù)形式已知,就有可能計(jì)算出使目標(biāo)和背景兩類誤分割概率最小的最優(yōu)閾值。 假設(shè)目標(biāo)與背景兩類像素值均服從正態(tài)分布且混有加性高斯噪聲,上述分類問題可以使用模式識(shí)別中的最小錯(cuò)分概率貝葉斯分類器來解決。以p1與p2分別表示目標(biāo)與背景的灰度分布概率密度函數(shù),P1與P2分別表示兩類的先驗(yàn)概率,則圖像的混合概率密度函數(shù)可用下式表示

    p(x)?P1p1(x)?P2p2(x)

    式中p1和p2分別為

    p1(x)?1e2??1?(x??1)22?12

    p2(x)?1e2??2?(x??2)22?22

    P1?P2?1

    ?1、?2是針對(duì)背景和目標(biāo)兩類區(qū)域灰度均值?1與?2的標(biāo)準(zhǔn)差。若假定目標(biāo)的灰

    度較亮,其灰度均值為?2,背景的灰度較暗,其灰度均值為?1,因此有

    ?1??2

    現(xiàn)若規(guī)定一門限值T對(duì)圖像進(jìn)行分割,勢(shì)必會(huì)產(chǎn)生將目標(biāo)劃分為背景和將背景劃分為目標(biāo)這兩類錯(cuò)誤。通過適當(dāng)選擇閾值T,可令這兩類錯(cuò)誤概率為最小,則該閾值T即為最佳閾值。

    把目標(biāo)錯(cuò)分為背景的概率可表示為

    E1(T)??p2(x)dx

    ??T把背景錯(cuò)分為目標(biāo)的概率可表示為

    E2(T)??總的誤差概率為

    ??Tp1(x)dx

    E(T)?P2E1(T)?PE12(T)

    為求得使誤差概率最小的閾值T,可將E(T)對(duì)T求導(dǎo)并令導(dǎo)數(shù)為零,可得

    P1p1(T)?P2p2(T)

    代換后,可得

    P(T??1)2(T??2)21?2 ln???P2?12?122?12此時(shí),若設(shè)?1??2??,則有

    T?若還有P1?P2的條件,則

    T??1??22?P??2?ln?2? ?1??2?P1??1??22

    這時(shí)的最優(yōu)閾值就是兩類區(qū)域灰度均值?1與?2的平均值。

    上面的推導(dǎo)是針對(duì)圖像灰度值服從正態(tài)分布時(shí)的情況,如果灰度值服從其它分布,依理也可求出最優(yōu)閾值來。一般情況下,在不清楚灰度值分布時(shí),通??杉俣ɑ叶戎捣恼龖B(tài)分布。因此,本課題中亦可使用此方法來求得最優(yōu)閾值,來對(duì)實(shí)驗(yàn)圖像進(jìn)行分割。

    1.3.2 最優(yōu)閾值的迭代算法

    在實(shí)際使用最優(yōu)閾值進(jìn)行分割的過程中,需要利用迭代算法來求得最優(yōu)閾值。設(shè)有一幅數(shù)字圖像f(x,y),混有加性高斯噪聲,可表示為

    g(x,y)?f(x,y)?n(x,y)

    此處假設(shè)圖像上各點(diǎn)的噪聲相互獨(dú)立,且具有零均值,如果通過閾值分割將圖像分為目標(biāo)與背景兩部分,則每一部分仍然有噪聲點(diǎn)隨機(jī)作用于其上,于是,

    目標(biāo)g1(x,y)和g2(x,y)可表示為

    g1(x,y)?f1(x,y)?n(x,y) g2(x,y)?f2(x,y)?n(x,y)

    迭代過程中,會(huì)多次地對(duì)g1(x,y)和g2(x,y)求均值,則

    E{g1(x,y)}?E{f1(x,y)?n(x,y)}?E{f1(x,y)} E{g2(x,y)}?E{f2(x,y)?n(x,y)}?E{f2(x,y)}

    可見,隨著迭代次數(shù)的增加,目標(biāo)和背景的平均灰度都趨向于真實(shí)值。因此,用迭代算法求得的最佳閾值不受噪聲干擾的影響。 利用最優(yōu)閾值對(duì)實(shí)驗(yàn)圖像進(jìn)行分割的迭代步驟為: (1)確定一個(gè)初始閾值T0,T0可取為

    T0?Smin?S2max

    式中,Smin和Smax為圖像灰度的最小值和最大值。

    (2)利用第k次迭代得到的閾值將圖像分為目標(biāo)R1和背景R2兩大區(qū)域,其中

    R1?{f(x,y)|f(x, } ?y)k T R2?{f(x,y)|0?f(x,y)?Tk}

    (3)計(jì)算區(qū)域R1和R2的灰度均值S1和S2。 (4)計(jì)算新的閾值Tk?1,其中

    Tk?1?S1?S2 2 (5)如果|Tk?1?Tk|小于允許的誤差,則結(jié)束,否則k?k?1,轉(zhuǎn)步驟(2)。 利用迭代法求得最優(yōu)閾值后,仍需進(jìn)行一些人工調(diào)整才能將此閾值用于實(shí)驗(yàn)圖像的分割,這是因?yàn)?,這種最優(yōu)閾值仍然屬于全局閾值,它利用了圖像中所有像素點(diǎn)的信息,但當(dāng)光照不均勻時(shí),圖像中部分區(qū)域的灰度值可能差距較大,造成計(jì)算出的最優(yōu)閾值分割效果不理想,此時(shí),可設(shè)一人工經(jīng)驗(yàn)因子進(jìn)行校正

    二、計(jì)算機(jī)視覺中哪些具體的數(shù)學(xué)知識(shí)比較重要

    一是線性代數(shù)或者矩陣?yán)碚摚驗(yàn)橛?jì)算機(jī)視覺的主要研究對(duì)象是圖像,而數(shù)字圖像又是用矩陣來表示的。

    二是概率與統(tǒng)計(jì),因?yàn)橛?jì)算機(jī)視覺研究的主要目標(biāo)是讓計(jì)算機(jī)通過攝像頭具有理解自然場(chǎng)景的能力。處理實(shí)際生活當(dāng)中的推斷問題那就要用到概率與統(tǒng)計(jì)知識(shí)了。

    計(jì)算機(jī)視覺研究中用到的其他方面的數(shù)學(xué)還有很多,比如:離散數(shù)學(xué)、圖論、微分幾何、黎曼幾何、李群和李代數(shù)、流形學(xué)習(xí)、張量分析、主成分分析、非線性優(yōu)化等等。

    在做計(jì)算機(jī)視覺研究中,你沒有必要先把這些基礎(chǔ)知識(shí)都學(xué)習(xí)了再來搞研究。即使你把這些數(shù)學(xué)知識(shí)都掌握了,針對(duì)研究中要解決的問題說不定用的也不是這些數(shù)學(xué)知識(shí)。

    個(gè)人之見:帶著研究的問題去尋找數(shù)學(xué)上的工具,比掌握了數(shù)學(xué)知識(shí)再來尋找問題要符合實(shí)際。除非你開始學(xué)的是數(shù)學(xué)專業(yè),不然的話,研究中最好以問題為導(dǎo)向,用到什么就學(xué)習(xí)什么,否則學(xué)習(xí)很多數(shù)學(xué)基礎(chǔ)知識(shí),到了最后大多數(shù)學(xué)過的知識(shí)卻沒用上。

    總之,研究中用到什么數(shù)學(xué)知識(shí)就學(xué)習(xí)什么知識(shí)就好,沒必要把所有涉及到的都學(xué)一遍,搞科研畢竟不是在應(yīng)付數(shù)學(xué)專業(yè)考試。

    如果你做計(jì)算機(jī)視覺研究同時(shí)又對(duì)數(shù)學(xué)有興趣,可以關(guān)注數(shù)學(xué)方面的最新科研進(jìn)展,看看有哪些新理論、新算法出現(xiàn),能不能用到你的研究方向上,這樣做就足夠了。用新方法去解決老問題,也是一種有效的創(chuàng)新手段。

    最后,還是要強(qiáng)調(diào):做計(jì)算機(jī)視覺方面的研究,完全沒有必要一開始就把自己埋到數(shù)學(xué)書堆里。

    三、數(shù)據(jù)挖掘的常用算法有哪幾類

    有十大經(jīng)典算法

    下面是網(wǎng)站給出的答案:

    1. C4.5

    C4.5算法是機(jī)器學(xué)習(xí)算法中的一種分類決策樹算法,其核心算法是ID3算法. C4.5算法繼承了ID3算法的優(yōu)點(diǎn),并在以下幾方面對(duì)ID3算法進(jìn)行了改進(jìn):

    1) 用信息增益率來選擇屬性,克服了用信息增益選擇屬性時(shí)偏向選擇取值多的屬性的不足;

    2) 在樹構(gòu)造過程中進(jìn)行剪枝;

    3) 能夠完成對(duì)連續(xù)屬性的離散化處理;

    4) 能夠?qū)Σ煌暾麛?shù)據(jù)進(jìn)行處理。

    C4.5算法有如下優(yōu)點(diǎn):產(chǎn)生的分類規(guī)則易于理解,準(zhǔn)確率較高。其缺點(diǎn)是:在構(gòu)造樹的過程中,需要對(duì)數(shù)據(jù)集進(jìn)行多次的順序掃描和排序,因而導(dǎo)致算法的低效。

    2. The k-means algorithm 即K-Means算法

    k-means algorithm算法是一個(gè)聚類算法,把n的對(duì)象根據(jù)他們的屬性分為k個(gè)分割,k < n。它與處理混合正態(tài)分布的最大期望算法很相似,因?yàn)樗麄兌荚噲D找到數(shù)據(jù)中自然聚類的中心。它假設(shè)對(duì)象屬性來自于空間向量,并且目標(biāo)是使各個(gè)群組內(nèi)部的均 方誤差總和最小。

    3. Support vector machines

    支持向量機(jī),英文為Support Vector Machine,簡(jiǎn)稱SV機(jī)(論文中一般簡(jiǎn)稱SVM)。它是一種監(jiān)督式學(xué)習(xí)的方法,它廣泛的應(yīng)用于統(tǒng)計(jì)分類以及回歸分析中。支持向量機(jī)將向量映射到一個(gè)更 高維的空間里,在這個(gè)空間里建立有一個(gè)最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個(gè)互相平行的超平面。分隔超平面使兩個(gè)平行超平面的距離最大化。假 定平行超平面間的距離或差距越大,分類器的總誤差越小。一個(gè)極好的指南是C.J.C Burges的《模式識(shí)別支持向量機(jī)指南》。van der Walt 和 Barnard 將支持向量機(jī)和其他分類器進(jìn)行了比較。

    4. The Apriori algorithm

    Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于單維、單層、布爾關(guān)聯(lián)規(guī)則。在這里,所有支持度大于最小支持度的項(xiàng)集稱為頻繁項(xiàng)集,簡(jiǎn)稱頻集。

    5. 最大期望(EM)算法

    在統(tǒng)計(jì)計(jì)算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中尋找參數(shù)最大似然 估計(jì)的算法,其中概率模型依賴于無法觀測(cè)的隱藏變量(Latent Variabl)。最大期望經(jīng)常用在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺的數(shù)據(jù)集聚(Data Clustering)領(lǐng)域。

    6. PageRank

    PageRank是Google算法的重要內(nèi)容。2001年9月被授予美國(guó)專利,專利人是Google創(chuàng)始人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指網(wǎng)頁,而是指佩奇,即這個(gè)等級(jí)方法是以佩奇來命名的。

    PageRank根據(jù)網(wǎng)站的外部鏈接和內(nèi)部鏈接的數(shù)量和質(zhì)量倆衡量網(wǎng)站的價(jià)值。PageRank背后的概念是,每個(gè)到頁面的鏈接都是對(duì)該頁面的一次投票, 被鏈接的越多,就意味著被其他網(wǎng)站投票越多。這個(gè)就是所謂的“鏈接流行度”——衡量多少人愿意將他們的網(wǎng)站和你的網(wǎng)站掛鉤。PageRank這個(gè)概念引自 學(xué)術(shù)中一篇論文的被引述的頻度——即被別人引述的次數(shù)越多,一般判斷這篇論文的權(quán)威性就越高。

    7. AdaBoost

    Adaboost是一種迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個(gè)更強(qiáng)的最終分類器 (強(qiáng)分類器)。其算法本身是通過改變數(shù)據(jù)分布來實(shí)現(xiàn)的,它根據(jù)每次訓(xùn)練集之中每個(gè)樣本的分類是否正確,以及上次的總體分類的準(zhǔn)確率,來確定每個(gè)樣本的權(quán) 值。將修改過權(quán)值的新數(shù)據(jù)集送給下層分類器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類器最后融合起來,作為最后的決策分類器。

    8. kNN: k-nearest neighbor classification

    K最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個(gè)理論上比較成熟的方法,也是最簡(jiǎn)單的機(jī)器學(xué)習(xí)算法之一。該方法的思路是:如果一個(gè)樣本在特征空間中的k個(gè)最相似(即特征空間中最鄰近)的樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別。

    9. Naive Bayes

    在眾多的分類模型中,應(yīng)用最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBC)。 樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以 及穩(wěn)定的分類效率。同時(shí),NBC模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。 但是實(shí)際上并非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。在屬 性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時(shí),NBC模型的性能最為良好。

    10. CART: 分類與回歸樹

    CART, Classification and Regression Trees。 在分類樹下面有兩個(gè)關(guān)鍵的思想。第一個(gè)是關(guān)于遞歸地劃分自變量空間的想法;第二個(gè)想法是用驗(yàn)證數(shù)據(jù)進(jìn)行剪枝。

    四、計(jì)算機(jī)視覺算法是做什么的

    通過C/C++或Java任一種編程語言,Python/ perl/shell中任一種腳本語言,實(shí)現(xiàn)數(shù)據(jù)分析和挖掘工具,最終通過算法實(shí)現(xiàn)使用計(jì)算機(jī)及相關(guān)設(shè)備對(duì)生物視覺的一種模擬。

    以上就是關(guān)于計(jì)算機(jī)視覺常用算法相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    云計(jì)算的模式有哪些(云計(jì)算的部署模式有哪些)

    維護(hù)費(fèi)是怎么規(guī)定的(維護(hù)費(fèi)怎么計(jì)算)

    多功能計(jì)算機(jī)(多功能計(jì)算機(jī)在線使用)

    2017年廣東富豪排行榜(2017年廣東富豪排行榜最新)

    杭州htv6直播(杭州6頻道直播回放)