次回の更新記事:LLMを活用した「Text to CAD」 テキスト指示から高品…(公開予定日:2025年02月06日)

E資格の勉強内容まとめDay4「ReLUの一般化」

   

こんにちは、ぽめた (@pometa0507) です。
社会人エンジニアとして働く傍ら、AI資格の「E資格」取得に向けてディープラーニングの勉強をしています。

この連載は、E資格の勉強中に学んだ内容を記事としてまとめるものです。 E資格を受験される方のおさらいや、E資格に興味のある方の参考となれば幸いです。

■AIDBからのお知らせ
AIの知識を仕事で活かしたいですか?マッチング機能が新登場。
人材として登録すると、企業からAI関連の仕事のオファーが届きます。

前回の記事(Day3)では、隠れユニットの活性化関数について取り上げました。今回のDay4では、活性化関数の続きとして「ReLUの一般化」を紹介します。

これまでの記事
Day1の記事「ディープラーニングの概要」
Day2の記事「パーセプトロン」
Day3の記事「活性化関数」

活性化関数

まずは前回のおさらいです。

ニューラルネットワークでは、隠れユニットに非線形な活性化関数を適用することで、表現力の高いネットワークを構築することができます。

下の図はアフィン変換+活性化関数の構成の例を示したものです。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について

■AIDBからのお知らせ
AIの仕事、どうやって探せばいいんだろう?AIDBがそんな皆のためにサービスを運営中。

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


AIDB HRに登録して仕事のオファーを受け取ろう

PAGE TOP