ニューラルネットワークで任意の関数
なんでうまくいくのか、よくわかってなかったけど、 ここ読んだらすっきりした。
知りたかったほどよいレベルの説明。 最後のノード?に活性化関数がない理由も、これ読んでわかった。
ReLUだと、なんでうまくいくかはここには書かれてない。 そのうち調べてみよかな。
CHAPTER 4ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークと深層学習
なんでうまくいくのか、よくわかってなかったけど、 ここ読んだらすっきりした。
知りたかったほどよいレベルの説明。 最後のノード?に活性化関数がない理由も、これ読んでわかった。
ReLUだと、なんでうまくいくかはここには書かれてない。 そのうち調べてみよかな。
CHAPTER 4ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークと深層学習