6/15(水)に学生ゼミ第6回を行い、深層学習第6章「系列データのためのネットワーク」についてB4の村上が発表しました。 系列データを扱うリカレントニューラルネットワーク (RNN) やそれを発展させたLSTMやGRU、自己回帰モデルやSeq2Seqについて学習しました。 発表は順を追った丁寧な説明でわかりやすく、LSTMの構造や知識蒸留を中心に議論も活発に行われました。 来週はM1片山が説明と可視化について発表します。 投稿者|片山
第5回学生ゼミが行われました
6/8(水)に学生ゼミ第5回を行い、深層学習第5章「畳み込みニューラルネットワーク」の後半についてD2の邱が発表しました。 先週の畳み込みニューラルネットワーク(CNN)の基本的な演算や構造の内容に引き続き、畳み込み層の一般化や画像サイズのアップサンプリングの方法などを学習しました。 スライドがとても分かりやすく、議論も活発に行われました。 来週はB4村上が系列データのためのネットワーク(RNN)の前半を発表します。 投稿者|村上
第4回学生ゼミが行われました
6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。 畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。 また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。 次回は第5章の後半です。 投稿者|邱
第3回学生ゼミが開催されました
5/24(水)に学生ゼミ第3回・深層学習第4章「誤差逆伝播法」の輪読会が行われ、M2河内が発表しました。 誤差逆伝播法の基本的な考え方から、正規化や残差接続による計算の安定化方法に至るまで多くの概念を学びました。 本の文章がわかりやすく、質問はあまり出ませんでした…。 投稿者❘小林
第2回学生ゼミが行われました
5/17(水)に学生ゼミ第2回・深層学習第3章「確率的勾配降下法」の輪読会が行われ、M1木村が発表しました。 確率的勾配降下法による、効率的な最適化は微分可能なモデルの中核をなす部分です。局所最適解を避けながらミニバッチに最適化していく仕組みを、数式やイメージをもとに議論しました。 投稿者|河内