【李宏毅老師2021系列】自注意力機制 (Self-attention)
* * * > 這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。 > 這次要介紹的是 Self-attention,影片有拆成上下兩集,但因為中間分開的地方有點…
* * * > 這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。 > 這次要介紹的是 Self-attention,影片有拆成上下兩集,但因為中間分開的地方有點…
* * * > _這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。_ > _此篇如題所示,是針對深度學習中很常聽到的 Batch Normalization 做…
* * * > 去年剛踏入機器學習的領域時,就有想分享實務相關的文章,然而原本的計畫是想先把李老師2021的影片看完,再來提升 coding 方面的經驗。但依照目前的進度來看,李老師的影片看完今年…
* * * > 這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。 > 此篇主要會延續類神經網路訓練不起來怎麼辦( 一)、(二)的課程內容,介紹過去到現在常見的…
* * * > _這個系列是在觀看李宏毅老師 2021系列的筆記,希望能用更濃縮的方式將內容整理下來。_ > _此篇講解的概念是在訓練深度學習網路中,可以調整的一種參數 (hyperparame…
* * * > 這個系列是在觀看李宏毅老師 2021系列的筆記,希望能用更濃縮的方式將內容整理下來。 > 延續上篇【李宏毅老師2021系列】類神經網路訓練不起來怎麼辦(一):Local Mini…
* * * > _這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。_ > _這篇如標題所示,主要先講解概念定義,再透過公式推導和實際例子來解釋 Local Mi…
* * * > _最近工作上有碰到「簡易版 feature用 gradient boosting」的成效 train的比「詳細版 feature用深度學習」的成效還好的情況,於是就把李宏毅老師20…
* * * > 最近工作上有碰到「簡易版 feature用 gradient boosting」的成效 train的比「詳細版 feature用深度學習」的成效還好的情況,於是就把李宏毅老師201…
* * * > 最近工作上有碰到「簡易版 feature用 gradient boosting」的成效 train的比「詳細版 feature用深度學習」的成效還好的情況,於是就把李宏毅老師201…
* * * > _這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。_ 此篇筆記來自此課程:[https://www.youtube.com/watch?v=bH…
* * * > 這個系列是在觀看李宏毅老師2021系列的筆記,希望能用更濃縮的方式將內容整理下來。 此篇筆記來自此課程:[https://www.youtube.com/watch?v=Ye01…
* * * > 來自李宏毅老師熱騰騰的影片 — 【機器學習 2022】魚與熊掌可以兼得的深度學習,主要在解釋當deep learning model的 hidden layers,當架構得很多層跟…
* * * **_前言_** 嗨大家好,我目前是資料科學領域的新生,必須累積作品集以釐清課堂上所學習到的概念,也期待作品集在找工作時能派上用場。計畫是想要將經典機器學習的方法都產出一個相對應的…