第7回学生ゼミが行われました

6/22(水)に学生ゼミ第7回を行い、深層学習第9章「説明と可視化」についてM1の片山が発表しました。 ブラックボックスのような深層学習モデルへの入力は出力にどの程度影響を与えるかを可視化する手法をいくつか学びました。 特にSHAP(SHapley Additive exPlanations)については、ゲーム理論の報酬計算から、仮定や画像例の特徴まで議論をしました。 影響関数(influence function)の式の導出をまだよく理解できていない部分もありますが、議論を通して多くの式の意味をより理解できるようになると思います。 次回は実装の回です。実装結果をお楽しみに! 投稿者|邱

第5回学生ゼミが行われました

6/8(水)に学生ゼミ第5回を行い、深層学習第5章「畳み込みニューラルネットワーク」の後半についてD2の邱が発表しました。 先週の畳み込みニューラルネットワーク(CNN)の基本的な演算や構造の内容に引き続き、畳み込み層の一般化や画像サイズのアップサンプリングの方法などを学習しました。 スライドがとても分かりやすく、議論も活発に行われました。 来週はB4村上が系列データのためのネットワーク(RNN)の前半を発表します。 投稿者|村上

第4回学生ゼミが行われました

6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。 畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。 また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。 次回は第5章の後半です。 投稿者|邱

第3回学生ゼミが開催されました

5/24(水)に学生ゼミ第3回・深層学習第4章「誤差逆伝播法」の輪読会が行われ、M2河内が発表しました。 誤差逆伝播法の基本的な考え方から、正規化や残差接続による計算の安定化方法に至るまで多くの概念を学びました。 本の文章がわかりやすく、質問はあまり出ませんでした…。 投稿者❘小林

第2回学生ゼミが行われました

5/17(水)に学生ゼミ第2回・深層学習第3章「確率的勾配降下法」の輪読会が行われ、M1木村が発表しました。 確率的勾配降下法による、効率的な最適化は微分可能なモデルの中核をなす部分です。局所最適解を避けながらミニバッチに最適化していく仕組みを、数式やイメージをもとに議論しました。 投稿者|河内