跳至主要內容
Fredrick's Lab

【懶人包系列】深度學習隱藏層:深度 v.s 廣度

medium

【懶人包系列】深度學習隱藏層:深度 v.s 廣度

來自李宏毅老師熱騰騰的影片 — 【機器學習 2022】魚與熊掌可以兼得的深度學習,主要在解釋當deep learning model的 hidden layers,當架構得很多層跟只架構一層但放很多neuron,這兩者的比較。

  • 論文證明

透過2011年的論文,裡面的語音辨識任務,已經證明運用相近的參數量的model,深度越深的model的error rate比只有一層但有很多參數的model要來得低。

  • 原理視覺化證明

直接用三層的layers,一層layer有兩個relu的neuron,實際推導最終function的樣貌,並證明一個有k層layers的model (一層2個neuron),這個model所得到的function,會等同於只有一層layers但有2的k次方個neuron的model所得到的function。

  • 結論

最終說明了deep hidden layers的優勢,因為不需要過多的參數,因此模型較不複雜,更不容易overfitting,也提醒我們deep learning不一定就要用大數據和複雜模型的迷思。