6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。
畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。
また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。
次回は第5章の後半です。
投稿者|邱
6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。
畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。
また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。
次回は第5章の後半です。
投稿者|邱