人工智能技術(shù)有一種名為機(jī)器學(xué)習(xí)的方法,而機(jī)器學(xué)習(xí)當(dāng)中又有一類名為神經(jīng)網(wǎng)絡(luò)的算法。
神經(jīng)網(wǎng)絡(luò)如圖所示(這是一個簡單的全連接神經(jīng)網(wǎng)絡(luò)):每個圓圈代表一個神經(jīng)元;每條直線表示兩個神經(jīng)元之間相連接,并且是層與層之間的神經(jīng)元才有連接,層內(nèi)的神經(jīng)元之間沒有連接;從左到右依次為輸入層(Input layer)、隱藏層(Hidder layer)和輸出層(Output layer)。輸入層負(fù)責(zé)接收并輸入數(shù)據(jù),人們可從輸出層獲取神經(jīng)網(wǎng)絡(luò)輸出的數(shù)據(jù),而隱藏層(對外部是不可見的)很明顯處在輸入層與輸出層之間。當(dāng)隱藏層比較多(大于2)的神經(jīng)網(wǎng)絡(luò)就是深度神經(jīng)網(wǎng)絡(luò)。所謂的深度學(xué)習(xí),就是運(yùn)用深層架構(gòu)如深度神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法。
需要特別指出的是,一個僅有單個隱藏層的神經(jīng)網(wǎng)絡(luò)就已能夠擬合任何一個函數(shù),但這樣的淺層網(wǎng)絡(luò)通常需要很多很多的神經(jīng)元;深層網(wǎng)絡(luò)與淺層網(wǎng)絡(luò)相比,在擁有少得多的神經(jīng)元便可擬合同樣且任意一個函數(shù)。一個淺而寬的網(wǎng)絡(luò)(淺層網(wǎng)絡(luò)),或者一個深而窄的網(wǎng)絡(luò)(深層網(wǎng)絡(luò)),均可擬合同一個函數(shù),后者往往更節(jié)約資源。當(dāng)然,深層網(wǎng)絡(luò)同樣有一個很顯著的劣勢。簡言之,人們需要大量的數(shù)據(jù),運(yùn)用很多的技巧才可能訓(xùn)練好一個深層網(wǎng)絡(luò)。
于是可得,神經(jīng)網(wǎng)絡(luò),其實(shí)就是按照一定的規(guī)則而連接起來的多個神經(jīng)元。而神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)就有多種了,其中就包括了卷積神經(jīng)網(wǎng)絡(luò)。
卷積神經(jīng)網(wǎng)絡(luò)是一種更適合處理圖像、語音識別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。卷積神經(jīng)網(wǎng)絡(luò)的英文全稱為Convolutional Neural Network,與之對應(yīng)的英文簡稱那就是CNN。不可否認(rèn)的是,卷積神經(jīng)網(wǎng)絡(luò)在人工智能的研究與應(yīng)用當(dāng)中,已然成為了一種相當(dāng)重要的神經(jīng)網(wǎng)絡(luò)。特別是在最近這幾年,卷積神經(jīng)網(wǎng)絡(luò)可謂大放異彩,幾乎所有的圖像、語音識別等重要的突破均由卷積神經(jīng)網(wǎng)絡(luò)取得。比如,谷歌的GoogleNet、微軟的ResNet;谷歌的AlphaGo曾經(jīng)擊敗了圍棋高手李世石,實(shí)際上也運(yùn)用了卷積神經(jīng)網(wǎng)絡(luò)。
卷積神經(jīng)網(wǎng)絡(luò)如圖所示:一個卷積神經(jīng)網(wǎng)絡(luò)由若干的卷積層、Pooling層、全連接層組成。并且,人們可以構(gòu)建各種不同的卷積神經(jīng)網(wǎng)絡(luò),常用的架構(gòu)模式INPUT -> [[CONV]*N -> POOL?]*M -> [FC]*K。亦即是N個卷積層疊加,然后(可選)疊加一個Pooling層,重復(fù)這個結(jié)構(gòu)M次,最后疊加K個全連接層。
好了,卷積神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)之間到底有什么區(qū)別?現(xiàn)在答案再明晰不過了。當(dāng)然,如果站在更專業(yè)化的角度來看,其實(shí)還是該代入大量的數(shù)學(xué)(公式)計(jì)算并作更詳細(xì)的闡述。再有,人工智能是門非常有趣的學(xué)科。
聯(lián)系客服