第1回学生ゼミが開かれました

5/24(水)に第1回学生ゼミが開かれました。

『深層学習 第二版』の輪読を進めていく予定ですが、今回は第2章「ネットワークの基本構造」についてM1の小林さんから発表がありました。
活性化関数に関する議論では、特にGELU(Gaussian error linear unit)や正弦関数を活用したSIREN(sinusoidal representation network)について時間をかけて話し合いました。

自分は今まで触れたことがない分野であるだけに新鮮な時間でした。
来週は第3章「確率的勾配降下法」について扱います。

 

The first student seminar was held on Wednesday, May 24.

In this time, M1 student Mr. Kobayashi gave a presentation on Chapter 2, “Basic Structure of Networks.”
In the discussion on activation functions, we spent a lot of time on GELU (Gaussian error linear unit), and SIREN (sinusoidal representation network) which utilizes sine functions, in particular.

It was a refreshing time for me because I have never touched this field before.
Next week, we will discuss Chapter 3, “stochastic gradient descent.”

投稿者|嶋野