6/8(水)に学生ゼミ第5回を行い、深層学習第5章「畳み込みニューラルネットワーク」の後半についてD2の邱が発表しました。
先週の畳み込みニューラルネットワーク(CNN)の基本的な演算や構造の内容に引き続き、畳み込み層の一般化や画像サイズのアップサンプリングの方法などを学習しました。
スライドがとても分かりやすく、議論も活発に行われました。
来週はB4村上が系列データのためのネットワーク(RNN)の前半を発表します。
投稿者|村上
6/8(水)に学生ゼミ第5回を行い、深層学習第5章「畳み込みニューラルネットワーク」の後半についてD2の邱が発表しました。
先週の畳み込みニューラルネットワーク(CNN)の基本的な演算や構造の内容に引き続き、畳み込み層の一般化や画像サイズのアップサンプリングの方法などを学習しました。
スライドがとても分かりやすく、議論も活発に行われました。
来週はB4村上が系列データのためのネットワーク(RNN)の前半を発表します。
投稿者|村上
6/1(水)に学生ゼミ第4回を行い、深層学習第5章「畳み込みニューラルネットワーク」の前半についてB4の小林が発表しました。
畳み込みニューラルネットワーク(CNN)の演算と構造を、計算例でわかりやすく紹介しました。
また、エイリアシングを防ぐことやカーネル(フィルタ)のサイズが奇数の由来を議論しました。
次回は第5章の後半です。
投稿者|邱
5/24(水)に学生ゼミ第3回・深層学習第4章「誤差逆伝播法」の輪読会が行われ、M2河内が発表しました。
誤差逆伝播法の基本的な考え方から、正規化や残差接続による計算の安定化方法に至るまで多くの概念を学びました。
本の文章がわかりやすく、質問はあまり出ませんでした…。
投稿者❘小林
5/17(水)に学生ゼミ第2回・深層学習第3章「確率的勾配降下法」の輪読会が行われ、M1木村が発表しました。
確率的勾配降下法による、効率的な最適化は微分可能なモデルの中核をなす部分です。局所最適解を避けながらミニバッチに最適化していく仕組みを、数式やイメージをもとに議論しました。
投稿者|河内
我々の所属する東京大学大学院社会基盤学専攻の大学院入試説明会が6月4日に開かれます。
本研究室にご興味のある方は、ぜひご参加ください。
入試情報につきましては、以下のリンクから参照ください。
(説明会についてもこちらで受付中:http://www.civil.t.u-tokyo.ac.jp/graduate_school/)
投稿者名|村上