Batch Normalization 本篇為台大電機系李宏毅老師 Machine Learning and having it Deep and Structured (2017) 課程筆記 上課影片: https://www.youtube.com/watch?v=BZh1ltr5Rkg 先從 Feature scaling 或是稱作 Feature Normalization 說起 假設 x1 跟 x2 的數值差距很大 x1 值的範圍 1,2,3,4, ... x2 值的範圍 100, 200, 300, … x1 的 weight 是 w1,x2 的 weight 是 w2 w1 前面乘的值比較小,所以他對於結果的影響比較小 w2 前面乘的值比較大,所以他對於結果的影響比較大
留言
張貼留言