6/29(水)に第8回学生ゼミを行いました。今回は事前課題として今までの本ゼミで学習したことを踏まえ全員がCNNあるいはRNN(LSTM及びGRU)を実装し、発表しました。 CNNグループではCIFAR-10を対象に各々が素朴なモデルからデータ増強や正則化、転移学習(Fine-tuning等)といった様々な手法を試し、精度がどう向上するのかを実験しました。 RNNグループでは株価予測課題に対し、1つのモデルを基準として各ハイパーパラメータを調整した際に学習はどう変化するのかを検証しました。 それぞれのチームが課題を解く中で学んできた事の整理や実際に実装上どのような効果があるのかについての理解が深められたかと思います。 次回は邱さんが注意機構とトランスフォーマーについて、木村がグラフニューラルネットワークについて発表を行う予定です。 投稿者|木村
第7回学生ゼミが行われました
6/22(水)に学生ゼミ第7回を行い、深層学習第9章「説明と可視化」についてM1の片山が発表しました。 ブラックボックスのような深層学習モデルへの入力は出力にどの程度影響を与えるかを可視化する手法をいくつか学びました。 特にSHAP(SHapley Additive exPlanations)については、ゲーム理論の報酬計算から、仮定や画像例の特徴まで議論をしました。 影響関数(influence function)の式の導出をまだよく理解できていない部分もありますが、議論を通して多くの式の意味をより理解できるようになると思います。 次回は実装の回です。実装結果をお楽しみに! 投稿者|邱
第6回学生ゼミが行われました。
6/15(水)に学生ゼミ第6回を行い、深層学習第6章「系列データのためのネットワーク」についてB4の村上が発表しました。 系列データを扱うリカレントニューラルネットワーク (RNN) やそれを発展させたLSTMやGRU、自己回帰モデルやSeq2Seqについて学習しました。 発表は順を追った丁寧な説明でわかりやすく、LSTMの構造や知識蒸留を中心に議論も活発に行われました。 来週はM1片山が説明と可視化について発表します。 投稿者|片山
第5回学生ゼミが行われました
6/8(水)に学生ゼミ第5回を行い、深層学習第5章「畳み込みニューラルネットワーク」の後半についてD2の邱が発表しました。 先週の畳み込みニューラルネットワーク(CNN)の基本的な演算や構造の内容に引き続き、畳み込み層の一般化や画像サイズのアップサンプリングの方法などを学習しました。 スライドがとても分かりやすく、議論も活発に行われました。 来週はB4村上が系列データのためのネットワーク(RNN)の前半を発表します。 投稿者|村上
第4回学生ゼミが行われました
6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。 畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。 また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。 次回は第5章の後半です。 投稿者|邱