Asking Myself

技術と英語と日常のこと ※古い記事は音声入力で書いたので日本語カオスです

ニューラルネットワークで任意の関数

なんでうまくいくのか、よくわかってなかったけど、 ここ読んだらすっきりした。

知りたかったほどよいレベルの説明。 最後のノード?に活性化関数がない理由も、これ読んでわかった。

ReLUだと、なんでうまくいくかはここには書かれてない。 そのうち調べてみよかな。

CHAPTER 4ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークと深層学習