??!文末附每日小知識點哦??!
在實踐中,深度學習由神經網絡中的多個隱藏層組成。我們在《從神經元到網絡》一文中解釋了神經網絡的基礎知識,然后我們已經將深度學習介紹為一種特殊的超級網絡:
層數的增加和網絡的復雜性被稱為深度學習,類似于類固醇(steroids)上的常規(guī)網絡。
知識在各個層間流動。就像人類學習,一個逐步學習的過程。第一層專注于學習更具體的概念,而更深的層將使用已經學習的信息來吸收得出更多抽象的概念。這種構造數據表示的過程稱為特征提取。
它們的復雜體系結構為深度神經網絡提供了自動執(zhí)行特征提取的能力。相反,在常規(guī)的機器學習或淺層學習中,此任務是在算法階段之外執(zhí)行的。由人員,數據科學家團隊(而非機器)負責分析原始數據并將其更改為有價值的功能。
深度學習的根本優(yōu)勢在于,可以在無結構化數據上訓練這些算法,而無限制地訪問信息。這種強大的條件為他們提供了獲得更多有價值的學習的機會。
從多少層開始,它被視為深度學習?關于淺層學習何時結束和深度學習何時開始尚無統(tǒng)一定義。但是,最一致的共識是,多個隱藏層意味著深度學習。換句話說,我們考慮從至少3個非線性轉換進行深度學習,即大于2個隱藏層+ 1個輸出層。
我也無法對此達成完全共識。然而,似乎有關深度學習的一切至少或間接地與神經網絡有關。因此,我同意那些斷言沒有神經網絡就不會存在深度學習的人的觀點。
通用逼近定理( Universal Approximation Theorem, UAT)聲明,只有一個有限層神經元的隱藏層足以逼近任何尋找的函數。這是一個令人印象深刻的陳述,其原因有兩個:一方面,該定理證明了神經網絡的巨大能力。但是,另一方面,這是否意味著我們永遠不需要深度學習?不,深吸一口氣,并不意味著……
UAT并未指定必須包含多少個神經元。盡管單個隱藏層足以為特定函數建模,但通過多個隱藏層網絡學習它可能會更加有效。此外,在訓練網絡時,我們正在尋找一種函數,可以最好地概括數據中的關系。即使單個隱藏網絡能夠表示最適合訓練示例的函數,這也不意味著它可以更好地概括訓練集中數據的行為。
Ia Goodfellow,Yahua Bengio,Aaron Courville的《深度學習》一書對此進行了很好的解釋:
總而言之,具有單層的前饋網絡足以表示任何函數,但是該層可能過大而無法正確學習和概括。在許多情況下,使用更深入的模型可以減少表示函數所需的單元數,并可以減少泛化誤差。
深度學習基本上是機器學習的子類,它是使用多個隱藏層的神經網絡。它們的復雜性允許這種類型的算法自行執(zhí)行特征提取。由于它們能夠處理原始數據,因此可以訪問所有信息,因此有可能找到更好的解決方案。
原文鏈接:https://quantdare.com/what-is-the-difference-between-deep-learning-and-machine-learning/
每天進步一丟丟
!重磅!【深度學習沖鴨技術交流二群】微信交流群已成立
聯系客服