九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
BP神經(jīng)網(wǎng)絡(luò)推導(dǎo)過程詳解

      BP算法是一種最有效的多層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方法,其主要特點是信號前向傳遞,而誤差后向傳播,通過不斷調(diào)節(jié)網(wǎng)絡(luò)權(quán)重值,使得網(wǎng)絡(luò)的最終輸出與期望輸出盡可能接近,以達到訓(xùn)練的目的。

一、多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及其描述

    下圖為一典型的多層神經(jīng)網(wǎng)絡(luò)。

  通常一個多層神經(jīng)網(wǎng)絡(luò)由L層神經(jīng)元組成,其中:第1層稱為輸入層,最后一層(第L層)被稱為輸出層,其它各層均被稱為隱含層(第2~L-1層)。

  令輸入向量為:

x=[x1x2xixm],i=1,2,,m

   輸出向量為:

y=[y1y2ykyn],k=1,2,,n

   第l隱含層各神經(jīng)元的輸出為:

h(l)=[h1(l)h2(l)hj(l)hsl(l)],j=1,2,,sl

   其中,sl為第l層神經(jīng)元的個數(shù)。

   設(shè)Wij(l)為從l-1層第j個神經(jīng)元與l層第i個神經(jīng)元之間的連接權(quán)重;bi(l)為第l層第i個神經(jīng)元的偏置,那么:

hi(l)=f(neti(l))

neti(l)=j=1sl1Wij(l)hj(l1)+bi(l)

      其中,neti(l)l層第i個神經(jīng)元的輸入,f()為神經(jīng)元的激活函數(shù)。通常在多層神經(jīng)網(wǎng)絡(luò)中采用非線性激活函數(shù),而不是用線性激活函數(shù),因為采用基于線性激活函數(shù)的多層神經(jīng)網(wǎng)絡(luò)本質(zhì)上還是多個線性函數(shù)的疊加,其結(jié)果仍然為一個線性函數(shù)。

二、激活函數(shù)

       BP神經(jīng)網(wǎng)絡(luò)通常使用下面兩種非線性激活函數(shù):

f(x)=11+ex

f(x)=1ex1+ex

   第一種稱為sigmod函數(shù)或者logistics函數(shù),第二種為雙曲正切函數(shù)。

       Sigmod函數(shù)的圖像如下圖所示,它的變化范圍為(0, 1),其導(dǎo)數(shù)為f=f(1f)

    雙曲正切函數(shù)的圖像如下圖所示,它的變化范圍為(-1, 1),其導(dǎo)數(shù)為f=1f2

三、BP算法推導(dǎo)過程

   假定我們有m個訓(xùn)練樣本{(x(1),y(1)),(x(2),y(2)),,(x(m),y(m))},其中d(i)為對應(yīng)輸入x(i)的期望輸出。BP算法通過最優(yōu)化各層神經(jīng)元的輸入權(quán)值以及偏置,使得神經(jīng)網(wǎng)絡(luò)的輸出盡可能地接近期望輸出,以達到訓(xùn)練(或者學(xué)習(xí))的目的。

   采用批量更新方法,對于給定的m個訓(xùn)練樣本,定義誤差函數(shù)為:

E=1mi=1mE(i)

        其中,E(i)為單個樣本的訓(xùn)練誤差:

E(i)=12k=1n(dk(i)yk(i))2

        因此,

E=12mi=1mk=1n(dk(i)yk(i))2

       BP算法每一次迭代按照以下方式對權(quán)值以及偏置進行更新:

Wij(l)=Wij(l)αEWij(l)

bi(l)=bi(l)αEbi(l)
       

   其中,α為學(xué)習(xí)速率,它的取值范圍為(0, 1)。BP算法的關(guān)鍵在于如何求解Wij(l)bi(l)的偏導(dǎo)數(shù)。

   對于單個訓(xùn)練樣本,輸出層的權(quán)值偏導(dǎo)數(shù)計算過程:

E(i)Wkj(L)=Wkj(L)(12k=1n(dk(i)yk(i))2)=Wkj(L)(12(dk(i)yk(i))2)=(dk(i)yk(i))yk(i)Wkj(L)=(dk(i)yk(i))yk(i)netk(L)netk(L)Wkj(L)=(dk(i)yk(i))f(x)|x=netk(L)netk(L)Wkj(L)=(dk(i)yk(i))f(x)|x=netk(L)hj(L1)

     即:

E(i)Wkj(L)=(dk(i)yk(i))f(x)|x=netk(L)hj(L1)

     同理可得,

 

E(i)bk(L)=(dk(i)yk(i))f(x)|x=netk(L)
    

    令:

δk(L)=(dk(i)yk(i))f(x)|x=netk(L)
    

    則:

E(i)Wkj(L)=δk(L)hj(L)

E(i)bk(L)=δk(L)
        

  對隱含層L-1層:

E(i)Wji(L1)=Wji(L1)(12k=1n(dk(i)yk(i))2)=Wji(L1)(12k=1n(dk(i)f(j=1sL1Wkj(L)hj(L1)+bk(L)))2)=Wji(L1)(12k=1n(dk(i)f(j=1sL1Wkj(L)f(i=1sL2Wji(L2)hi(L2)+bj(L1))+bk(L)))2)=k=1n(dk(i)yk(i))f(x)|x=netk(L)netk(L)Wji(L1)

  因為,

netk(L)=j=1sL1Wkj(L)hj(L1)+bk(L)=j=1sL1Wkj(L)f(i=1sL2Wji(L2)hi(L2)+bj(L1))+bk(L)=j=1sL1Wkj(L)f(netj(L1))

  所以,

E(i)Wji(L1)=k=1n(dk(i)yk(i))f(x)|x=netk(L)netk(L)Wji(L1)=k=1n(dk(i)yk(i))f(x)|x=netk(L)netk(L)f(netj(L1))f(netj(L1))netj(L1)netj(L1)Wji(L1)=k=1n(dk(i)yk(i))f(x)|x=netk(L)Wkj(L)f(x)|x=netj(L1)hi(L2)

  同理,

E(i)bj(L1)=k=1n(dk(i)yk(i))f(x)|x=netk(L)Wkj(L)f(x)|x=netj(L1)

  

  令:

δj(L1)=k=1n(dk(i)yk(i))f(x)|x=netk(L)Wkj(L)f(x)|x=netj(L1)=k=1nWkj(L)δk(L)f(x)|x=netj(L1)

E(i)Wji(L1)=δj(L1)hi(L2)

 

E(i)bj(L1)=δj(L1)

  

  由上可推,第l層(2lL1)的權(quán)值和偏置的偏導(dǎo)可以表示為:

E(i)Wji(l)=δj(l)hi(l1)

E(i)bj(l)=δj(l)

    其中,

δj(l)=k=1sl+1Wkj(l+1)δk(l+1)f(x)|x=netj(l)

四、BP算法過程描述

  采用批量更新方法對神經(jīng)網(wǎng)絡(luò)的權(quán)值和偏置進行更新:

  1. 對所有的層2lL,設(shè)ΔW(l)=0,Δb(l)=0,這里ΔW(l)Δb(l)分別為全零矩陣和全零向量;
  2. For i = 1:m,
    1. 使用反向傳播算法,計算各層神經(jīng)元權(quán)值和偏置的梯度矩陣W(l)(i)和向量和b(l)(i);
    2. 計算ΔW(l)=W(l)(i)
    3. 計算Δb(l)=b(l)(i)。
  3. 更新權(quán)值和偏置:
    1. 計算W(l)=W(l)+1mΔW(l);
    2. 計算b(l)=b(l)+1mΔb(l)。

    

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
BP神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)入門(7)
深度學(xué)習(xí)-LeCun、Bengio和Hinton的聯(lián)合綜述(上) <BR>
[轉(zhuǎn)]Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理系列 | 我愛機器學(xué)習(xí)
神經(jīng)網(wǎng)絡(luò)算法是什么意思,神經(jīng)網(wǎng)絡(luò)計算工作原理
零基礎(chǔ)入門深度學(xué)習(xí):感應(yīng)器、線性單元和梯度下降
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服