E資格の勉強内容まとめDay8「学習」(合格者執筆)

   

こんにちは、ぽめた (@pometa0507) です。 社会人エンジニアとして働く傍ら、AI資格の「E資格」取得に向けてディープラーニングの勉強をしてきました。そして、先日(2020/02/22)開催されたE資格 2020#1に無事合格することができました!

この連載は、E資格の勉強中に学んだ内容を記事としてまとめたものです。E資格に興味のある方の参考となれば幸いです。

重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。



前回の記事(Day7)は、コスト関数について紹介しました。コスト関数を導入することで、学習の評価指標となる損失を算出することができました。今回のDay8で紹介するのは、損失を小さくする学習方法についてです。

これまでの記事
Day1の記事:「ディープラーニングの概要」
Day2の記事:「パーセプトロン」
Day3の記事:「活性化関数」
Day4の記事:「ReLUの一般化」
Day5の記事:「出力ユニット」
Day6の記事:「MNIST手書き数字の分類」
Day7の記事:「コスト関数」

ニューラルネットワークのコスト関数

前回のおさらいです。ニューラルネットワークのモデルに訓練データを入力することで予測結果を得ます。コスト関数は、予測結果と教師データから損失を計算します。損失が小さければ小さいほど予測結果が正しくなり、モデルの性能が良いといえます。

コスト関数と損失

コスト関数は、モデルのタスクによって異なるものを定義しました。回帰問題では2乗誤差、分類問題では交差エントロピー誤差をそれぞれ用いて損失を求めることができました。

学習

それでは、学習について深堀していきます。学習とは簡単に言えば、モデルが正しい予測結果を出力できるように何かしらの処理をすることです。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について









■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP