E資格のシラバスが改定され、2024年8月試験(E2024#2)から出題範囲が変わりました。
E資格を受験する方はチェックしておきましょう。
ここでは、E資格のシラバスの改定内容について詳しく解説します。
E資格シラバスが改定される理由
E資格シラバスは、1年〜2年に1回改訂されています。
その理由は、一般社団法人ディープラーニング協会は、ディープラーニングを実装できるエンジニアの育成を目指しており、進化し続けているテクノロジーに対応できる人材を輩出することを目標に掲げているためです。
近年、ディープラーニングは、自然言語処理をはじめ、画像認識や音声認識など、あらゆる場面で使われるようになってきました。
これらを実装できる人材を輩出するために、定期的にシラバスを改定しています。
そのため、E資格の受験を検討している方は、試験問題の範囲を確認するようにしましょう。
E資格シラバス【E2024#1まで】
2024年2月試験(E2024#1)のシラバスは、以下の通りです。
1.応用数学
(1)確率・統計
①一般的な確率分布 | ベルヌーイ分布 |
多項分布 | |
ガウス分布 | |
➁ベイズ則 | ベイズ則 |
(2)情報理論
①情報理論 | 情報量 |
2.機械学習
(1)機械学習の基礎
①学習アルゴリズム | 教師あり学習 |
教師なし学習 | |
半教師あり学習 | |
転移学習 | |
➁機械学習課題 | 能力、過剰適合、過少適合 |
次元の呪い | |
③ハイパーパラメータ | |
④検証集合 | 学習データ、検証データ、テストデータ |
ホールドアウト法 | |
k-分割交差検証法 | |
⑤最尤推定 | 条件付き対数尤度と平均二乗誤差 |
(2)実用的な方法論
①性能指標 | |
➁ハイパーパラメータの選択 | 手動でのハイパーパラメータ調整 |
グリッドサーチ | |
ランダムサーチ | |
モデルに基づくハイパーパラメータの最適化 |
(3)強化学習
①方策勾配法 | |
➁価値反復法 |
3.深層学習
(1)順伝播型ネットワーク
①全結合型ニューラルネットワーク | |
➁損失関数 | 最尤推定による条件付き分布の学習 |
③活性化関数 | シグモイド関数 |
Softmax関数 | |
ReLU, Leaky ReLU | |
tanh | |
④誤差逆伝播法およびその他の微分アルゴリズム | 計算グラフ |
微積分の連鎖率 | |
誤差逆伝播のための連鎖律の再起的な適用 | |
シンボル間の微分 | |
一般的な誤差逆伝播法 |
(2)深層モデルのための正則化
①パラメータノルムペナルティー
|
L2パラメータ正則化 |
L1正則化 | |
➁データ集合の拡張 | Rnadom Flip・Erase・Crop・Contrast・Brightness・Rotate, MixUp |
③ノイズに対する頑健性 | 出力目標へのノイズ注入 |
④マルチタスク学習 | |
⑤早期終了 | |
⑥スパース表現 | |
⑦バギングやその他のアンサンブル手法 | |
⑧ドロップアウト |
(3)深層モデルのための正則化
①学習と純粋な最適化の差異 | バッチアルゴリズムとミニバッチアルゴリズム |
➁基本的なアルゴリズム | 確率的勾配降下法 |
モメンタム | |
③パラメータの初期化戦略 | |
④適応的な学習率を持つアルゴリズム | AdaGrad |
RMSrop | |
Adam | |
⑤最適化戦略とメタアルゴリズム | バッチ正規化 |
Layer正規化 | |
Instance正規化 | |
教師あり事前学習 |
(4)畳み込みネットワーク
①畳み込み処理 | |
➁プーリング |
(5)回帰結合型ニューラルネットワークと再帰的ネットワーク
①回帰結合型のニューラルネットワーク | |
➁双方向 RNN | |
③Encoder-Decoder と Sequence-to-Sequence | |
④長期依存性の課題 | |
⑤ゲート付きRNN
|
LSTM |
GRU | |
⑥長期依存性の最適化 | 勾配のクリッピング |
⑦Attention |
(6)生成モデル
①識別モデルと生成モデル | |
➁オートエンコーダ
|
VAE |
VQ-VAE | |
③GAN
|
DCGAN |
Conditionnal GAN |
(7)深層強化学習
①深層強化学習のモデル | AlphaGo |
A3C |
(8)グラフニューラルネットワーク
①グラフ畳み込み |
(9)深層学習の適用方法
①画像認識
|
GoogLeNet |
ResNet, WideResNet | |
DenseNet | |
EfficientNet | |
➁画像の局在化・検知・セグメンテーション
|
FasterR-CNN |
YOLO | |
SSD | |
MaskRーCNN | |
FCOS | |
③自然言語処理
|
WordEmbedding |
Transformer | |
BERT | |
GPT-n | |
④音声処理
|
WaveNet |
サンプリング、短時間フーリエ変換、メル尺度 | |
CTC | |
⑤スタイル変換 | pix2pix |
(10)距離学習(Metric Learning)
2サンプルによる比較 | SiameseNet |
3サンプルによる比較 | TripletLoss |
(11)メタ学習(Meta Learning)
①初期値の獲得 | MAML |
(12)深層学習の説明性
①判断根拠の可視化 | Grad-CAM |
➁モデルの近似 | LIME |
SHAP |
4.開発・運用環境
(1)ミドルウェア
①深層学習ライブラリ |
(2)エッジコンピューティング
①軽量なモデル | MobileNet |
➁モデルの軽量化
|
プルーニング |
蒸留 | |
量子化 |
(3)分散処理
①モデル並列 | |
➁データ並列 |
(4)アクセラレータ
①デバイスによる高速化 | GPU |
(5)環境構築
①コンテナ型仮想化 | Docker |
E資格シラバス【E2024#2から】
2024年8月試験(E2024#2)のシラバスは、以下の通りです。
1.数学的基礎
(1)確率・統計
ii.確率モデルにおけるパラメータ推定 |
(2)情報理論
i.情報理論 |
2.機械学習
(1)機械学習の基礎
i .パターン認識 | k近傍法・近傍法 |
距離計算 | |
ii .機械学習の分類 | |
ix .機械学習の課題 | 過剰適合・過少適合 |
x .検証集合 | 学習データ・検証データ・テストデータ |
交差検証 | |
xi .性能指標 |
3.深層学習の基礎
(1)順伝播型ネットワーク
i .多層パーセプトロン | |
ii .出力層と損失関数 | 回帰 |
2値分類 | |
多クラス分類 | |
マルチラベル分類 | |
順序回帰 | |
iii .活性化関数 | シグモイド関数 |
ReLU, Leaky ReLU | |
tanh |
(2)深層モデルのための最適化
i .基本的なアルゴリズム | 確率的勾配降下法(SGD) |
モメンタム | |
ii .誤差逆伝播法 | 誤差逆伝播法 |
自動微分 | |
iii .適応的な学習率を持つアルゴリズム | |
iv .パラメータの初期化戦略 |
(3)深層モデルのための正則化
i .パラメータノルムペナルティー | |
ii .確率的削除 | |
iii .陰的正則化 |
(4)畳み込みネットワーク
i .畳み込みニューラルネットワーク | 基本的な畳み込み演算 |
特別な畳み込み | |
プーリング |
(5)リカレントニューラルネットワーク
i .リカレントニューラルネットワーク | |
ii .ゲート機構 | |
iii .系列変換 |
(6)Transformer
i .Transformer |
(7)汎化性能向上のためのテクニック
i .データ集合の拡張 | 画像のデータ拡張 |
自然言語のデータ拡張 | |
ii .正則化 | |
iii .アンサンブル手法 | |
iv .ハイパーパラメータの選択 | 基本的なハイパーパラメータ調整 |
ハイパーパラメータの最適化 |
4.深層学習の応用
(1)画像認識
ⅰ.ResNet, WideResNet | |
ⅱ.Vision Transformer |
(2)物体検出
ⅰ.FasterR-CNN, MaskR-CNN | |
ⅱ.YOLO, SSD | |
ⅲ.FCOS |
(3)セマンティックセグメンテーション
ⅰ.FCN, U-Net |
(4)自然言語処理
ⅰ.WordEmbedding | |
ⅱ.BERT | |
ⅲ.GPT-n |
(5)生成モデル
ⅰ.識別モデルと生成モデル | |
ⅱ.オートエンコーダ | オートエンコーダ |
VAE | |
ⅲ.GAN | 基本的なGAN |
条件付きGAN |
(6)深層強化学習
i .深層強化学習のモデル | DQN |
A3C |
(7)様々な学習方法
i .転移学習 | |
ⅱ.半教師あり学習と自己教師あり学習 | |
ⅳ.距離学習(Metric Learning) | 2サンプルによる比較 |
3サンプルによる比較 |
(8)深層学習の説明性
ⅰ.判断根拠の可視化 | |
ⅱ.モデルの近似 |
4.開発・運用環境
(1)エッジコンピューティング
ⅰ.モデルの軽量化 |
(2)分散処理
ⅰ.並列分散処理 |
(3)アクセラレータ
ⅰ.デバイスによる高速化 |
(4)環境構築
ⅰ.コンテナ型仮想化 |
E資格シラバスの改定内容
2024年8月試験(E2024#2)より、E資格シラバスが改定されました。
ここでは、主な変更点について解説していきます。
数学的基礎(応用数学)
2024年8月試験(E2024#2)~
「確率・統計」の分野において『確率モデルにおけるパラメータ推定』が出題範囲となっています。今まではベイズ則のみの出題でしたが、その他にナイーブベイズやMAP推定などの手法が加わりました。
数学的基礎の分野を理解しておくことは、機械学習を理解する上で重要となります。線形代数については、試験対象外ではあるものの、機械学習を扱うと必ず登場する概念なので、しっかりと学んでおくことが大切です。
機械学習
機械学習の枠組みを理解していないと、どのようなディープラーニングを実装すべきか判断できなくなります。E資格に合格するためにも機械学習の基礎を身に付けておくことが大切です。
また、機械学習ライブラリPyTochやTensorFlowを活用した実装問題も出てきます。
2024年8月試験(E2024#2)~
大きく、「パターン認識」「機械学習の分類」「機械学習の課題」「検証集合」「性能指標」に分割されました。
「教師あり学習/教師なし学習」においては出題範囲外となっていますが、実務上よく使う手法も多いので、一度学習しておくと良いでしょう。
深層学習
深層学習の分野は、基礎と応用の大きく2つに分割されました。
①深層学習の基礎
2024年8月試験(E2024#2)~
※(7)「画像データの拡張」においては「自然言語データの拡張」が追加され、「音声のデータ拡張」が削除されました。
➁深層学習の応用(2024年8月試験(E2024#2)~)
深層学習の応用は、「画像認識」「物体検出」「セマンティックセグメンテーション」「自然言語処理」「生成モデル」「深層強化学習」「様々な学習方法」「深層学習の説明性」が、出題範囲となっています。
※(5)「音声処理」は削除されました。
※(8)「能動学習」「メタ学習」は削除されました。
開発・運用環境
2024年8月試験(E2024#2)~
※分散処理の分野で、連合学習(Federated learning)は削除されました。
E資格の最新シラバスに対応した「E資格対策講座」
2024年8月試験(E2024#2)からの新シラバスに対応したJDLA認定のE資格対ディープラーニング短期集中講座を受講してみてください。ここでは、AI研究所のE資格対策講座の魅力をご紹介します。
好みの受講形式を選択できる
AI研究所のE資格対策講座であれば、3つの受講形式からお好みのものを選べます。
会場受講 | 講師と受講生と同じ会場で試験勉強ができる |
ライブウェビナー | オンライン形式で場所を問わずに講座を受講できる |
eラーニング | 自分のペースで試験勉強ができる |
多くのE資格対策講座では「会場受講」「ライブウェビナー」が用意されていません。
そのため、講師や仲間と一緒に試験勉強を頑張りたいという方におすすめです。
最短4日でJDLA認定プログラム修了証が取得できる
E資格対策講座は、最短4日でJDLA認定プログラム修了証が受講できます。
JDLA認定プログラム終了証とは、E資格の受験資格となるものです。
他の講座では、100時間のオンライン学習講座を修了しなければいけないものやレポート課題、修了試験など、JDLA認定プログラム修了証を取得するまで時間がかかります。その一方で、AI研究所のE資格対策講座であれば最短4日で取得が可能です。
そのため、次のE資格の試験日までにJDLA認定プログラム修了証を取得しておきたいという方におすすめです。
リーズナブルな料金体系
AI研究所は、リーズナブルな料金体系を実現しました。
キャンペーン期間中に申し込んでいただければ、低価格で受講することも可能です。
通常価格(税込) | キャンペーン価格(税込) | |
会場受講 | 206,800円 | 138,000円 |
ライブウェビナー | 206,800円 | 138,000円 |
eラーニング | 184,800円 | 49,500円 |
E資格のシラバスまとめ
E資格のシラバスは2024年8月の試験から出題範囲が変わりました。
基礎問題を身に付けておき、応用問題に取り組めるようになっておかなければいけません。
この記事を読んで、E資格の試験勉強に不安を感じた方は、E資格対策講座など最新シラバスに対応した講座を受験するようにしましょう。
AI研究所のE資格対策講座は、受講者のお好みの受講形式で試験勉強が始められます。料金体系もリーズナブルなため、ぜひ、ご検討してみてください。