統(tǒng)計學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)研究
時間:2022-11-08 08:47:59
導(dǎo)語:統(tǒng)計學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)研究一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。
摘要:統(tǒng)計學(xué)習(xí)方法和人工神經(jīng)網(wǎng)絡(luò)都是在數(shù)據(jù)分類任務(wù)中的使用的模型。本文從技術(shù)的角度上總結(jié)分析這些模型的相同點與不同點,提供對這些模型分類性能的客觀分析。最后本文對如何更好地提升統(tǒng)計學(xué)習(xí)和人工神經(jīng)網(wǎng)絡(luò)的分類性能進行分析總結(jié)。
關(guān)鍵詞:機器學(xué)習(xí);神經(jīng)網(wǎng)絡(luò);人工智能
1引言
預(yù)測模型在各種領(lǐng)域被用于分析和預(yù)測。預(yù)測模型都是從真實的數(shù)據(jù)樣本中建立的,這些樣本數(shù)據(jù)可以根據(jù)一系列規(guī)則進行預(yù)處理和轉(zhuǎn)格式,普遍用于基于知識的專家系統(tǒng),或者作為統(tǒng)計和機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)集。目前在機器學(xué)習(xí)中較受歡迎的是統(tǒng)計學(xué)習(xí)方法[1-3]和人工神經(jīng)網(wǎng)路[4,5]。雖然這兩種模型分別來自于統(tǒng)計學(xué)和計算機學(xué),但同時也具有一定的相似性。在本文我們給出了統(tǒng)計學(xué)習(xí)方法和人工神經(jīng)網(wǎng)絡(luò)的在模式統(tǒng)計識別中共同點,并且說明為何神經(jīng)網(wǎng)絡(luò)可以看做是統(tǒng)計學(xué)習(xí)的總結(jié)。目前預(yù)測模型算法已經(jīng)有不少現(xiàn)成的實現(xiàn),既有免費的也有商業(yè)的軟件可用于測試。通過測試發(fā)現(xiàn)所獲取的結(jié)果主要依賴于三個因素:模型構(gòu)建的數(shù)據(jù)集的質(zhì)量、所調(diào)整的模型參數(shù)和用于計算模型處理結(jié)果的評價標準。在總結(jié)中,我們指出判斷這些預(yù)測模型測試結(jié)果的好壞所影響的因素。
2統(tǒng)計學(xué)習(xí)中的典型算法
支持向量機和k近鄰都是統(tǒng)計學(xué)習(xí)中的典型算法。支持向量機是從統(tǒng)計學(xué)習(xí)理論思想的一種實現(xiàn),其工作是從數(shù)據(jù)集中建立具有一致性的評價器。支持向量機關(guān)系的問題是:一個模型如何根據(jù)僅僅給出的特征集和訓(xùn)練數(shù)據(jù)集在未知的數(shù)據(jù)集中進行預(yù)測?在算法上,支持向量機通過解決約束二次優(yōu)化問題在數(shù)據(jù)集中建立最佳的分界線。通過使用不同的核心函數(shù),可以使模型包含不同程度的非線性和靈活性。因為他們可以從不同的高級統(tǒng)計思想中衍生出來,并且在模型計算時不會出現(xiàn)統(tǒng)計錯誤,因此支持向量機在過去的幾年都引起了大量的研究者的興趣。支持向量機的劣勢在于分類的是純粹的二分法,不會給出潛在的其他類別。K近鄰算法與其他方法不同的是k近鄰算法把數(shù)據(jù)直接用于分類,而且并不需要預(yù)先構(gòu)建模型。這樣便不需要考慮模型構(gòu)建的細節(jié),并且在算法中需要考慮調(diào)整的參數(shù)只有k,其中k是在評估類別時候需要包含的近鄰的數(shù)量:p(y|x)的計算值是在x的k近鄰中屬于y類別的成員數(shù)量的比值。通過改變k,模型的靈活性可以相對提高和降低。k近鄰與其他算法相比的優(yōu)勢在于近鄰可以提供分類結(jié)果的解釋,在黑盒模型不足的時,這種基于實例的解釋更具有優(yōu)勢。而k近鄰的主要缺點在于近鄰的計算中:為了計算近鄰需要定義一個量度計算不同原子數(shù)據(jù)之間的距離。在大部分應(yīng)用領(lǐng)域中,如何這種方式定義的量度并不清晰,只能通過嘗試和失敗,根據(jù)相對重要的并不確定是否能反應(yīng)量度的數(shù)據(jù)來定義量度。
3人工神經(jīng)網(wǎng)絡(luò)與統(tǒng)計學(xué)習(xí)的對比總結(jié)
神經(jīng)網(wǎng)絡(luò)與統(tǒng)計學(xué)習(xí)方法不同的是神經(jīng)網(wǎng)絡(luò)需要進行模型的計算。神經(jīng)網(wǎng)絡(luò)的主要識別過程包括兩個:訓(xùn)練模型和根據(jù)模型進行預(yù)測。與其他機器學(xué)習(xí)方法不同的是,神經(jīng)網(wǎng)絡(luò)具有非常特別的結(jié)構(gòu),在這個結(jié)構(gòu)中,有輸入層、輸出層和至少一個隱藏層。但與其他機器學(xué)習(xí)方法一樣的是:構(gòu)建模型的目的都是找出其參數(shù)的最佳值。絕大部分機器學(xué)習(xí)的算法都是使用梯度下降法把損失函數(shù)的結(jié)果最小化并且在每次迭代的過程都能找到更合適的參數(shù)值。神經(jīng)網(wǎng)絡(luò)最重要的組成部分是“神經(jīng)元”,每個神經(jīng)元可以看做是一個函數(shù),可以向神經(jīng)元輸入數(shù)據(jù),神經(jīng)元會輸出相應(yīng)結(jié)果,神經(jīng)網(wǎng)絡(luò)往往具有眾多神經(jīng)元。一種特殊情況是,當人工神經(jīng)網(wǎng)絡(luò)只有一個“神經(jīng)元”,在這種情況下,神經(jīng)網(wǎng)絡(luò)與邏輯回歸算法是一樣的。
在應(yīng)用上,神經(jīng)網(wǎng)絡(luò)往往用于多類別分類問題,例如給圖片根據(jù)數(shù)字、字母、人物、汽車等等進行分類。而上述的支持向量機和k近鄰算法都只能進行二值分類。
參考文獻:
[1]HearstMA,DumaisST,OsunaE,etal.Supportvectormachines[J].IEEEIntelligentSystemsandtheirapplications,1998,13(4):18-28.
[2]TaravatA,DelFrateF,CornaroC,etal.Neuralnetworksandsupportvectormachinealgorithmsforautomaticcloudclassificationofwhole-skyground-basedimages[J].IEEEGeoscienceandremotesensingletters,2015,12(3):666-670.
[3]WeinbergerKQ,BlitzerJ,SaulLK.Distancemetriclearningforlargemarginnearestneighborclassification[C]//Advancesinneuralinformationprocessingsystems.2006:1473-1480.
[4]WanEA.Neuralnetworkclassification:ABayesianinterpretation[J].IEEETransactionsonNeuralNetworks,1990,1(4):303-305.
[5]ZengD,LiuK,LaiS,etal.Relationclassificationviaconvolutionaldeepneuralnetwork[C]//ProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers.2014:2335-2344.
作者:李杰駿 單位:江門職業(yè)技術(shù)學(xué)院