<rt id="m4md3"></rt>
  • <bdo id="m4md3"><meter id="m4md3"></meter></bdo>
  • <label id="m4md3"></label>
      <center id="m4md3"><optgroup id="m4md3"></optgroup></center>
      產品分類

      當前位置: 首頁 > 工業控制產品 > 自動化控制 > 人工智能

      類型分類:
      科普知識
      數據分類:
      人工智能

      人工智能之卷積神經網絡(CNN)

      發布日期:2022-10-09 點擊率:48


      前言:人工智能機器學習有關算法內容,請參見公眾號“科技優化生活”之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下卷積神經網絡(CNN)算法。

      20世紀60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經元時發現其獨特的網絡結構可以有效地降低反饋神經網絡的復雜性,繼而提出了卷積神經網絡CNN(Convolutional Neural Networks)。

      1980年,K.Fukushima提出的新識別機是卷積神經網絡的第一個實現網絡。隨后,更多的科研工作者對該網絡進行了改進。其中,具有代表性的研究成果是Alexander和Taylor提出的“改進認知機”,該方法綜合了各種改進方法的優點并避免了耗時的誤差反向傳播。

      現在,CNN已經成為眾多科學領域的研究熱點之一,特別是在模式分類領域,由于該網絡避免了對圖像的復雜前期預處理,可以直接輸入原始圖像,因而得到了更為廣泛的應用。

      blob.png

      CNN概念:

      在機器學習中,卷積神經網絡CNN(Convolutional Neural Network)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋范圍內的周圍單元,可以應用于語音識別、圖像處理和圖像識別等領域。

      CNN引入意義:

      全連接神經網絡中(下面左圖),每相鄰兩層之間的每個神經元之間都是有邊相連的。當輸入層的特征維度變得很高時,這時全連接網絡需要訓練的參數就會增大很多,計算速度就會變得很慢。

      而在卷積神經網絡CNN中(下面右圖),卷積層的神經元只與前一層的部分神經元節點相連,即它的神經元間的連接是非全連接的,且同一層中某些神經元之間的連接的權重w和偏移b是共享的,這樣大量地減少了需要訓練參數的數量

      blob.png

      CNN核心思想:

      CNN模型限制參數了個數并挖掘了局部結構。主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。局部感受視野,權值共享以及時間或空間亞采樣這三種思想結合起來,獲得了某種程度的位移、尺度、形變不變性。通過“卷積核”作為中介。同一個卷積核在所有圖像內是共享的,圖像通過卷積操作后仍然保留原先的位置關系。

      blob.png

      CNN實質:

      CNN在本質上是一種輸入到輸出的映射,它能夠學習大量的輸入與輸出之間的映射關系,而不需要任何輸入和輸出之間的精確的數學表達式,只要用已知的模式對卷積網絡加以訓練,網絡就具有輸入輸出對之間的映射能力。卷積網絡執行的是有導師訓練,所以其樣本集是由形如:(輸入向量,理想輸出向量)的向量對構成的。所有這些向量對,都應該是來源于網絡即將模擬的系統的實際“運行”結果。它們可以是從實際運行系統中采集來的。在開始訓練前,所有的權都應該用一些不同的小隨機數進行初始化。“小隨機數”用來保證網絡不會因權值過大而進入飽和狀態而導致訓練失敗;“不同”用來保證網絡可以正常地學習。

      CNN基本結構:

      卷積神經網絡CNN的結構一般包含下面幾層:

      blob.png

      1)  輸入層:用于數據的輸入。

      2)  卷積層:卷積層是卷積核在上一級輸入層上通過逐一滑動窗口計算而得,卷積核中的每一個參數都相當于傳統神經網絡中的權值參數,與對應的局部像素相連接,將卷積核的各個參數與對應的局部像素值相乘之和,得到卷積層上的結果。一般地,使用卷積核進行特征提取和特征映射。

      blob.png

      l   特征提取:每個神經元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關系也隨之確定下來;

      l   特征映射:網絡的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經元的權值相等。特征映射結構采用影響函數核小的sigmoid函數作為卷積網絡的激活函數,使得特征映射具有位移不變性。此外,由于一個映射面上的神經元共享權值,因而減少了網絡自由參數的個數。

      卷積神經網絡中的每一個卷積層都緊跟著一個用來求局部平均與二次提取的計算層,這種特有的兩次特征提取結構減小了特征分辨率。

      3)  激勵層:由于卷積也是一種線性運算,因此需要增加非線性映射。使用的激勵函數一般為ReLu函數:f(x)=max(x,0)。

      blob.png

      4)  池化層:進行下采樣,對特征圖稀疏處理,減少數據運算量。通過卷積層獲得了圖像的特征之后,理論上可以直接使用這些特征訓練分類器(如softmax),但這樣做將面臨巨大的計算量挑戰,且容易產生過擬合現象。為了進一步降低網絡訓練參數及模型的過擬合程度,需要對卷積層進行池化/采樣(Pooling)處理。池化/采樣的方式通常有以下兩種:a)Max-Pooling: 選擇Pooling窗口中的最大值作為采樣值;b)Mean-Pooling: 將Pooling窗口中的所有值相加取平均,以平均值作為采樣值。

      blob.png

      5)  全連接層:CNN尾部進行重新擬合,減少特征信息的損失。

      blob.png

      6)  輸出層:用于最后輸出結果。

      下一篇: PLC、DCS、FCS三大控

      上一篇: 索爾維全系列Solef?PV

      推薦產品

      更多
      主站蜘蛛池模板: 亚洲欧洲国产成人综合在线观看| 亚洲综合精品一二三区在线 | 国产成人+综合亚洲+天堂| 亚洲AV综合色区无码二区爱AV| 97久久久精品综合88久久| 一本色道久久综合网| 亚洲另类激情综合偷自拍| 狠狠色丁香婷婷综合潮喷| 狠狠色伊人亚洲综合成人| 国产成人亚综合91精品首页| 久久国产精品亚洲综合| 一本大道无香蕉综合在线| 亚洲妓女综合网99| 色久悠悠婷婷综合在线亚洲| 国产成人综合野草| 国产色丁香久久综合| 91精品国产综合久久久久| 国产激情电影综合在线看 | 亚洲日韩在线中文字幕综合 | 一本一道久久综合狠狠老 | 麻豆精品久久精品色综合| 国产综合激情在线亚洲第一页| 亚洲欧洲日韩综合| 一本久久a久久精品vr综合| 亚洲国产精品综合久久一线| 国产亚洲精品第一综合| 国产综合在线观看视频| 久久婷婷成人综合色综合| 亚洲av日韩综合一区久热| 色综合综合色综合色综合 | 综合人妻久久一区二区精品| 五月天婷亚洲天综合网精品偷| 精品久久久久久亚洲综合网| 色综合天天综合网看在线影院| 久久婷婷是五月综合色狠狠| 97久久天天综合色天天综合色hd| 亚洲heyzo专区无码综合| 色爱区综合激情五月综合色 | 国产成人综合一区精品| 亚洲私人无码综合久久网| 国产精品亚洲综合|