【ゼロから作るDeap Learning】4.1~4.2

>100 Views

May 19, 25

スライド概要

profile-image

AI・機械学習を勉強したい学生たちが集まる、京都大学の自主ゼミサークルです。私たちのサークルに興味のある方はX(Twitter)をご覧ください!

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

2025年度前期輪読会 ゼロからつくるDeep Learning #4 (2025/5/19) 第4章 ニューラルネットワークの学習(4.1~4.2) 会社員 栗林 雷旗 0

2.

アジェンダ ◼ 特徴量 ◼ 訓練データとテストデータ ◼ 損失関数 • 二乗和誤差 • 交差エントロピー誤差 2

3.

特徴量 複数のデータからパターンを見つけるためには着目すべき特性を見極める必要がある 特性 人 ライオン フグ 手(足)の本数 4 4 ? 呼吸方法 肺 肺 エラ 胎生 or 卵生 胎生 胎生 卵生 3

4.

訓練データとテストデータ 訓練データによって学習されたノウハウを他の問題にも応用できるかテストする必要がある ( 関連ワード: 過学習・汎化能力 ) 訓練データ 𝑥+1=2 𝑥 −3=5 テスト用データセット① 𝑥+1=2 𝑥 −3=5 テスト用データセット② 𝑥 + 9 = 13 𝑥 − 2 = 10 4

5.

損失関数 ニューラルネットワークが最適なパラメータを探索するための指標 二乗和誤差 別途グラフ投影 交差エントロピー誤差 別途グラフ投影 5

6.

わざわざ損失関数を介在させる必要性 直接的にニューラルネットワークの認識精度を指標にすると不都合が生じる • 認識精度:ステップ関数的に増減→微分して勾配を頼りに最適点を探索するのに不向き • 損失関数:勾配を頼りに極値を探すのが得意 認識精度(勾配利用上不便) 別途グラフ投影 損失関数(勾配利用可能) 別途グラフ投影 6