九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
卷積神經(jīng)網(wǎng)絡(luò)(CNN)
卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)由輸入層、卷積神經(jīng)層(Convolutional Layer)、下采樣層(Pooling Layer)、全連接層(Fully Connected Network)及輸出層構(gòu)成[20]。其中卷積神經(jīng)網(wǎng)絡(luò)層、下采樣層、全連接被合稱為隱含層。
在卷積神經(jīng)網(wǎng)絡(luò)中,卷積神經(jīng)層與下采樣層的連接方式是局部連接的形式,即每層的神經(jīng)元只連接輸入層中的跟它相近的幾個節(jié)點。而全連接層中采用的是全連接的方式,即每一個神經(jīng)元與輸入層中的所有節(jié)點連接。
 
1 卷積神經(jīng)層(Convolutional Layer)
卷積神經(jīng)層(Convolutional Layer)由多個特征面(Feature Map)構(gòu)成,每一個特征面則是由很多個神經(jīng)元構(gòu)成的[22]。神經(jīng)元包含兩個計量單位,一個是輸入x,一個是權(quán)值w。輸入數(shù)據(jù)x與權(quán)值w相乘得到其加權(quán)和e,然后在通過激活函數(shù)f(e)獲得該神經(jīng)元的輸出,也就是特征。如下圖。
圖1-1神經(jīng)元
常見的激活函數(shù)有Rectified Linear Unit(ReLU)函數(shù)、Sigmoid函數(shù)以及Softmax函數(shù)。其中ReLU函數(shù)是一種常見的激活函數(shù)[22]。與傳統(tǒng)的激活函數(shù)相比,ReLU函數(shù)能夠在大量的數(shù)據(jù)的情況下,依然能夠保持良好的效果。它的運算速度也比傳統(tǒng)函數(shù)要快。它利用簡單地閾值化就可以達到參數(shù)稀疏化的目的。但是,ReLU函數(shù)的一個缺點是它的神經(jīng)元在訓(xùn)練的時候,可能會死亡,導(dǎo)致該單元無法激活數(shù)據(jù)點。ReLU函數(shù)的計算公式如下:ReLU:f(x)=max(0,x) 該公式表示,如果輸入的數(shù)據(jù)大于0,那么就把輸入的數(shù)據(jù)作為輸出的數(shù)據(jù)輸出,否則就輸出0。通過使用ReLU函數(shù),我們可以保證輸出的數(shù)據(jù)不會因為輸入數(shù)據(jù)的增加而接近飽和。另外一些常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、以及以ReLU為基礎(chǔ)改進而來的LRelu函數(shù)和Prelu函數(shù)。
在卷積神經(jīng)網(wǎng)絡(luò)層中,神經(jīng)網(wǎng)絡(luò)通過卷積核來獲取提取特征。在每一層中可以使用多個卷積核進行特征提取,每一個卷積核提取一種特征。一般而言,卷積層的層次越高,提取的特征也越接近事物本身的特征。卷積核是一個n×n×r的權(quán)值矩陣。其中n為卷積核的大小,而r為卷積核的深度。如圖1-2是一個深度為1,大小為2的卷積核,以及深度為2大小為2的卷積核。卷積核的深度與輸入數(shù)據(jù)的深度保持一致。在第一層卷積層中,卷積核的深度應(yīng)該與輸入的圖片的深度保持一致,圖片如果為黑白的圖片,那么他的深度為1,如果圖片為彩色圖片,深度則為3(RGB三個維度)。而網(wǎng)絡(luò)中的其他卷積層(既不在輸入層之后的卷積層)中卷積核的深度則與上一層卷積核的個數(shù)保持一致。
圖1-2 卷積核
如圖3-4,深度為1的卷積核卷積了輸入矩陣中的紅色得到了a0這一個神經(jīng)元。而深度為2的卷積核的卷積過程是:由卷積核的灰色矩陣卷積輸入層的灰色部分,同時由白色的卷積核卷積的輸入層中的白色部分,這兩部分的值相加進過激勵函數(shù)得到輸出。
卷積核,根據(jù)網(wǎng)絡(luò)設(shè)置的步長數(shù),對輸入的特征圖進行卷積操作,圖1-3中,卷積核的步長為1,紅色部分為一次卷積。圖1-3中右邊為步長為1的一個卷積過程,而右邊是步長為2的一個卷積過程。步長為1的卷積在輸入矩陣中每完成一次卷積之后,向右或向下移動一步,卷積下一個局部感受野。卷積核的步長為2時,則移動兩步。
圖1-3卷積核的移動過程
我們注意到,當步長設(shè)置為1的時候,輸出的特征矩陣為3*3,而當步長設(shè)置為2的時候,輸出的特征矩陣為2*2。這表明圖像大小、步幅和卷積后的特征圖的大小是有關(guān)系的。他們之間的關(guān)系為:
其中w2為卷積后的特征圖的寬度,w1為卷積前的特征圖的寬度,F(xiàn)為卷積核的寬度,P為全零填充的數(shù)量,全零填充是指在原始圖像周圍補幾圈0,如果P的值是1,那么就在圖片四周補1圈0。S為步長。H2是卷積后的特征圖的高度。H1是卷積前圖像的寬度。
在神經(jīng)網(wǎng)絡(luò)中,上一層網(wǎng)絡(luò)的輸出就是下一層網(wǎng)絡(luò)的輸入。在卷積層中,上下兩層的神經(jīng)元通過卷積核進行連接。在卷積神經(jīng)網(wǎng)絡(luò)中,上下兩層的神經(jīng)元的連接方式為局部連接,其連接方式如圖1-4所示。在圖中,輸入的是一個2×2的圖片,深度為1,而卷積核的大小為2×2,深度也為1。通過卷積核進行卷積操作,得到的特征圖為a0到a8的一個輸出矩陣。在圖中的右邊是根據(jù)卷積操作得出的網(wǎng)絡(luò)的連接方式,藍色的線表示的是w1,紅色的線表示的是w2,綠色的線表示的是w3,而黃色的線表示的是w4??梢钥闯鲈诰矸e層中,下一層的神經(jīng)元并沒有與上一層的節(jié)點全部連接,而是與上一層中的部分神經(jīng)元連接。在網(wǎng)絡(luò)中一個卷積核連接到的部分被稱為局部感受野,局部感受野的大小和卷積核的大小一致,圖1-4的局部感受野大小為4。局部感受野的優(yōu)點是它減少了訓(xùn)練時所需要的參數(shù)個數(shù),降低了訓(xùn)練的復(fù)雜度。
圖1-4卷積層的連接方式
神經(jīng)網(wǎng)絡(luò)的一個重要的概念就是權(quán)值共享,而實現(xiàn)權(quán)值共享這一特性,主要是由于卷積核的連接方式。如圖1-4,顏色相同的連接線的權(quán)值是相同的。共享權(quán)值的優(yōu)點是在圖像進行特征提取的過程中,可以忽略局部特征所在的位置。相對于全連接方式,權(quán)值共享降低了網(wǎng)絡(luò)模型參數(shù)的數(shù)量,減少了算法的復(fù)雜度。卷積層中參數(shù)的個數(shù)=卷積核的個數(shù)*卷積核的大小*卷積核的深度 卷積核的個數(shù)(偏置量的個數(shù))。
 
2、下采樣層(Pooling Layer)
下采樣層,也可以叫做池化層。下采樣層連接在卷積層之后,也是由多個特征面構(gòu)成。采樣層中的神經(jīng)元連接了卷積神經(jīng)層的局部感受野。下采樣層把卷積神經(jīng)層的輸出數(shù)據(jù)作為輸入的數(shù)據(jù),通過去除輸入數(shù)據(jù)中的無用信息,減少需要處理的數(shù)據(jù)量,從而提高訓(xùn)練的網(wǎng)絡(luò)速度。這一層的主要功能是通過降低特征圖的維度,來減少特征圖的個數(shù),達到減少計算的復(fù)雜度的目的。
采樣層中,主要操作是池化。池化是一種非線性降采樣方法。最大池化(max-pooling)、均值池化(mean pooling)、隨機池化(stochastic pooling)等都是常用的池化方法。
一般我們把卷積神經(jīng)層和下采樣層合稱為卷積層。卷積神經(jīng)網(wǎng)絡(luò)中的一個卷積過程包括了這兩層的運算。在卷積神經(jīng)網(wǎng)絡(luò)中包含了多個卷積層。卷積層與采樣層的連接,如圖1-5所示,輸入數(shù)據(jù)經(jīng)過卷積層的卷積之后,得到卷積層的輸出a0到a8的輸出矩陣,然后傳入下采樣層,下采樣層通過池化操作的到v、x、z、d這四個節(jié)點。
圖1-5卷積層與下采樣層的連接方式
3 全連接層
在卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)中,至少是有一個全連接層。全連接層位于所有的卷積層之后,層與層之間的神經(jīng)元采用全連接的方式進行連接。全連接層是正規(guī)的神經(jīng)網(wǎng)絡(luò)。全連接層的主要作用是對卷積層提取出來的特征進一步提取出高層次的特征。它通過將卷積層的特征進行合并或者取樣,提取出其中的具有區(qū)分性的特征,從而達到分類的目的。
全連接層與卷積層的區(qū)別第一個是連接方式的不同。卷積層中采用的是局部連接方式,即一個節(jié)點和上一層中的部分節(jié)點相連,而全連接層中,該層的每一個神經(jīng)元與上一層的所有神經(jīng)進行連接,如圖1-6。全連接層中權(quán)值是不共享的,每一條線都代表了一個權(quán)值。而在左邊卷積層的連接方式圖中,顏色相同的連接,參數(shù)相同。我們可以看出相對于卷積層,全連接層的參數(shù)更多,所以其網(wǎng)絡(luò)的復(fù)雜度也更大。
圖1-6 卷積層與全連接層的連接方式
在全連接層中,常用softmax 邏輯回歸來進行分類識別圖像。softmax 邏輯回歸分類方法主要用于多分類問題。在構(gòu)建分類器的過程中,一般還采用正則化方法來防止訓(xùn)練過擬合,提高分類的性能。
 
 
 
 
 
 
 
 
 
 
 
 
 
 
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
從卷積層、激活層、池化層到全連接層深度解析卷積神經(jīng)網(wǎng)絡(luò)的原理
計算機視覺的基礎(chǔ):一文讓你徹底了解卷積神經(jīng)網(wǎng)絡(luò)
機器學(xué)習(xí)、深度學(xué)習(xí) 知識點總結(jié)及面試題
斯坦福大學(xué)深度學(xué)習(xí)公開課cs231n學(xué)習(xí)筆記(10)卷積神經(jīng)網(wǎng)絡(luò)
圖像處理——卷積神經(jīng)網(wǎng)絡(luò)運算過程詳解
機器學(xué)習(xí)算法篇—卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服