E資格のシラバスが改定されました。2022年8月試験(E2022#2)から出題範囲が大きく変わり、ライブラリを活用した実装問題も取り上げられるようになりました。
大きな変更となるため、E資格を受験する方はチェックしておきましょう。
ここでは、E資格のシラバスの改定内容について詳しく解説します。
E資格シラバスが改定される理由
E資格シラバスは、1年〜2年に1回改訂されています。
その理由は、一般社団法人ディープラーニング協会は、ディープラーニングを実装できるエンジニアの育成を目指しており、進化し続けているテクノロジーに対応できる人材を輩出することを目標に掲げているためです。
近年、ディープラーニングは、自然言語処理をはじめ、画像認識や音声認識など、あらゆる場面で使われるようになってきました。
これらを実装できる人材を輩出するために、定期的にシラバスを改定しています。そのため、E資格の受験を検討している方は、試験問題の範囲を確認するようにしましょう。
E資格シラバス
E2024#1まで
2024年2月試験(E2024#1)のシラバスは、以下の通りです。
1.数学
(1)確率・統計
①一般的な確率分布 | ベルヌーイ分布 |
多項分布 | |
ガウス分布 | |
➁ベイズ則 | ベイズ則 |
(2)情報理論
①情報理論 | 情報量 |
2.機械学習
(1) 機械学習の基礎
①学習アルゴリズム | 教師あり学習 |
教師なし学習 | |
半教師あり学習 | |
転移学習 | |
➁機械学習課題 | 能力、過剰適合、過少適合 |
次元の呪い | |
③ハイパーパラメータ | |
④検証集合 | 学習データ、検証データ、テストデータ |
ホールドアウト法 | |
k-分割交差検証法 | |
⑤最尤推定 | 条件付き対数尤度と平均二乗誤差 |
(2) 実用的な方法論
①性能指標 | |
➁ハイパーパラメータの選択 | 手動でのハイパーパラメータ調整 |
グリッドサーチ | |
ランダムサーチ | |
モデルに基づくハイパーパラメータの最適化 |
(3) 強化学習
①方策勾配法 | |
➁価値反復法 |
3.機械学習
(1) 順伝播型ネットワーク
①全結合型ニューラルネットワーク | |
➁損失関数 | 最尤推定による条件付き分布の学習 |
③活性化関数 | シグモイド関数 |
Softmax関数 | |
ReLU, Leaky ReLU | |
tanh | |
④誤差逆伝播法およびその他の微分アルゴリズム | 計算グラフ |
微積分の連鎖率 | |
誤差逆伝播のための連鎖律の再起的な適用 | |
シンボル間の微分 | |
一般的な誤差逆伝播法 |
(2) 深層モデルのための正則化
①パラメータノルムペナルティー
|
L2パラメータ正則化 |
L1正則化 | |
➁データ集合の拡張 | Rnadom Flip・Erase・Crop・Contrast・Brightness・Rotate, MixUp |
③ノイズに対する頑健性 | 出力目標へのノイズ注入 |
④マルチタスク学習 | |
⑤早期終了 | |
⑥スパース表現 | |
⑦バギングやその他のアンサンブル手法 | |
⑧ドロップアウト |
(3)深層モデルのための正則化
①学習と純粋な最適化の差異 | バッチアルゴリズムとミニバッチアルゴリズム |
➁基本的なアルゴリズム | 確率的勾配降下法 |
モメンタム | |
③パラメータの初期化戦略 | |
④適応的な学習率を持つアルゴリズム | AdaGrad |
RMSrop | |
Adam | |
⑤最適化戦略とメタアルゴリズム | バッチ正規化 |
Layer正規化 | |
Instance正規化 | |
教師あり事前学習 |
(4)畳み込みネットワーク
①畳み込み処理 | |
➁プーリング |
(5) 回帰結合型ニューラルネットワークと再帰的ネットワーク
①回帰結合型のニューラルネットワーク | |
➁双方向 RNN | |
③Encoder-Decoder と Sequence-to-Sequence | |
④長期依存性の課題 | |
⑤ゲート付きRNN
|
LSTM |
GRU | |
⑥長期依存性の最適化 | 勾配のクリッピング |
⑦Attention |
(6) 生成モデル
①識別モデルと生成モデル | |
➁オートエンコーダ
|
VAE |
VQ-VAE | |
③GAN
|
DCGAN |
Conditionnal GAN |
(7) 深層強化学習
①深層強化学習のモデル | AlphaGo |
A3C |
(8)グラフニューラルネットワーク
①グラフ畳み込み |
(9) 深層学習の適用方法
①画像認識
|
GoogLeNet |
ResNet, WideResNet | |
DenseNet | |
EfficientNet | |
➁画像の局在化・検知・セグメンテーション
|
FasterR-CNN |
YOLO | |
SSD | |
MaskRーCNN | |
FCOS | |
③自然言語処理
|
WordEmbedding |
Transformer | |
BERT | |
GPT-n | |
④音声処理
|
WaveNet |
サンプリング、短時間フーリエ変換、メル尺度 | |
CTC | |
⑤スタイル変換 | pix2pix |
(10) 距離学習(Metric Learning)
2サンプルによる比較 | SiameseNet |
3サンプルによる比較 | TripletLoss |
(11) メタ学習(Meta Learning)
①初期値の獲得 | MAML |
(12) 深層学習の説明性
①判断根拠の可視化 | Grad-CAM |
➁モデルの近似 |
LIME |
SHAP |
4.機械学習
(1) ミドルウェア
①深層学習ライブラリ |
(2)エッジコンピューティング
①軽量なモデル | MobileNet |
➁モデルの軽量化
|
プルーニング |
蒸留 | |
量子化 |
(3) 分散処理
①モデル並列 | |
➁データ並列 |
(4) アクセラレータ
①デバイスによる高速化 | GPU |
(5) 環境構築
①コンテナ型仮想化 | Docker |
E2024#2から
2024年8月試験(E2024#2)のシラバスは、以下の通りです。
1.数学的基礎
(1)線形代数
i.行列演習 | 行列・テンソルの積、勾配 |
ii.固有値分解・特異値分解 |
(2)確率・統計
i.一般的な確率分布 | 確率の基礎 |
ベルヌーイ分布・多項分布 | |
ガウス分布・t分布 | |
ii.確率モデルにおけるパラメータ推定 |
(3)情報理論
i.情報理論 |
2.機械学習
(1) 機械学習の基礎
i .パターン認識 | k近傍法・近傍法 |
距離計算 | |
ii .機械学習の分類 | |
iii .教師あり学習① 線形回帰 | Lasso回帰・Ridge回帰 |
iv .教師あり学習② ロジスティック回帰 | |
v .教師あり学習③ サポートベクターマシン | |
vi .教師あり学習④ 決定木 | Random Forest、勾配ブースティング |
vii .教師なし学習① 次元圧縮 | |
viii .教師なし学習② クラスタリング | |
ix .機械学習の課題 | 過剰適合・過少適合 |
x .検証集合 | 学習データ・検証データ・テストデータ |
交差検証 | |
xi .性能指標 |
3.深層学習の基礎
(1) 順伝播型ネットワーク
i .多層パーセプトロン | |
ii .出力層と損失関数 | 回帰 |
2値分類 | |
多クラス分類 | |
マルチラベル分類 | |
順序回帰 | |
③活性化関数 | シグモイド関数 |
ReLU, Leaky ReLU | |
tanh |
(2) 深層モデルのための最適化
i .基本的なアルゴリズム | 確率的勾配降下法(SGD) |
モメンタム | |
ii .誤差逆伝播法 |
誤差逆伝播法 |
自動微分 | |
iii .適応的な学習率を持つアルゴリズム | |
iv .パラメータの初期化戦略 |
(3)深層モデルのための正則化
i .パラメータノルムペナルティー | バッチアルゴリズムとミニバッチアルゴリズム |
ii .確率的削除 | |
iii .陰的正則化 |
(4)畳み込みネットワーク
i .畳み込みニューラルネットワーク | 基本的な畳み込み演算 |
特別な畳み込み | |
プーリング |
(5) リカレントニューラルネットワーク
i .リカレントニューラルネットワーク | |
ii .ゲート機構 | |
iii .系列変換 |
(6) Transformer
i .Transformer |
(7) 汎化性能向上のためのテクニック
i .データ集合の拡張 | 画像のデータ拡張 |
自然言語のデータ拡張 | |
音声のデータ拡張 | |
ii .正則化 |
|
iii .アンサンブル手法 |
|
iv .ハイパーパラメータの選択 | 基本的なハイパーパラメータ調整 |
ハイパーパラメータの最適化 |
4.深層学習の応用
(1) 画像認識
ⅰ.ResNet, WideResNet | |
ⅱ.Vision Transformer |
(2)物体検出
ⅰ.FasterR-CNN, MaskR-CNN | |
ⅱ.YOLO, SSD | |
ⅲ.FCOS |
(3) セマンティックセグメンテーション
ⅰ.FCN, U-Net |
(4) 自然言語処理
ⅰ.WordEmbedding | |
ⅱ.BERT | |
ⅲ.GPT-n |
(5) 音声処理
ⅰ.サンプリング、短時間フーリエ変換、メル尺度 | |
ⅱ.WaveNet | |
ⅲ.CTC |
(5)生成モデル
ⅰ.識別モデルと生成モデル | |
ⅱ.オートエンコーダ | オートエンコーダ |
VAE | |
ⅲ.GAN | 基本的なGAN |
条件付きGAN |
(7) 深層強化学習
i .深層強化学習のモデル | DQN |
A3C |
(8) 様々な学習方法
i .転移学習 | |
ⅱ.半教師あり学習と自己教師あり学習 | |
ⅲ.能動学習(Active Learning) | |
ⅳ.距離学習(Metric Learning) | 2サンプルによる比較 |
3サンプルによる比較 | |
ⅴ.メタ学習(Meta Learning) | 初期値の獲得 |
(9) 深層学習の説明性
ⅰ.判断根拠の可視化 | |
ⅱ.モデルの近似 |
4.開発・運用環境
(1) エッジコンピューティング
ⅰ.モデルの軽量化 |
(2)分散処理
ⅰ.並列分散処理 | |
ⅱ.連合学習(Federated learning) |
(3)アクセレレータ
ⅰ.デバイスによる高速化 |
(4)環境構築
ⅰ.コンテナ型仮想化 |
E資格シラバスの改定内容
2024年8月試験(E2024#2)より、E資格シラバスが改定されました。
ここでは、主な変更点について解説していきます。
応用数学
2024年8月試験(E2024#2)~
応用数学では、再び「線形代数」が出題形式に追加されました。
線形代数とは、線形空間と線形変換を中心とした理論を研究する代数学の一分野です。線形代数は数字の行列を扱う学問で、画像処理技術や統計学に役立てられています。数多くの技術が線形代数の恩恵を受けており、ディープラーニング技術もその1つです。
また、「確率・統計」の分野において『確率モデルにおけるパラメータ推定』が追加されています。いままではベイズ則のみの出題でしたが、その他にナイーブベイズやMAP推定などの手法加わりました。
これら「線形代数」、「確率・統計」、「情報理論」を覚えておかなければ、ディープラーニングの実装は難しくなります。最低知識として必要になるため、線形代数についても学んでおくことが大切です。
機械学習
機械学習の枠組みを理解していないと、どのようなディープラーニングを実装すべきか判断できなくなります。E資格に合格するためにも機械学習の基礎を身に付けておくことが大切です。
また、機械学習ライブラリPyTochやTensorFlowを活用した実装問題も出てきます。
2024年8月試験(E2024#2)~
大きく、
「パターン認識」「機械学習の分類」「教師あり学習/教師なし学習」「機械学習の課題」「検証集合」「性能指標」に分割されました。
特徴は、
・教師あり学習(①線形回帰➁ロジスティック回帰③サポートベクターマシーン④決定木)と
・教師なし学習の学習アルゴリズム(①次元圧縮➁クラスタリング)
の基礎アルゴリズムの理解が出題項目として細分化された点です。
深層学習
深層学習の分野は、基礎と応用の大きく2つに分割されました。
①深層学習の基礎
深層学習では、深層モデルに関する基礎知識(深層モデルのための最適化や畳み込みネットワーク)が出題形式から削除されました。
その一方で、深層モデルをどのように活用していくかの応用知識が問われるようになりました。「画像認識」「画像の局在化・検知・セグメンテーション」「自然言語処理」「音声処理」などです。
また、「距離学習」や「メタ学習」も試験範囲となるなど、より実践的な問題が問われるようになりました。
2024年8月試験(E2024#2)~
※(6)自然言語処理モデルのひとつである「Transformer」が独立して分割されました。
※(7)これまでは、「画像データの拡張」のみでしたが、「自然言語データの拡張」「音声のデータ拡張」が新たに追加されました。
➁深層学習の応用(2024年8月試験(E2024#2)~)
※「画像認識」「物体検出」「セマンティックセグメンテーション」「自然言語処理」「音声処理」「生成モデル」「深層強化学習」「様々な学習方法」「深層学習の説明性」が、応用として加わりました。
※(8)モデルの学習分野に、「能動学習」が加わりました。
開発・運用環境
環境構築では、仮想化技術の1つであるコンテナ型仮想化が出題範囲となりました。
コンテナ型とは、アプリケーション環境をコンテナという独立空間で構築する技術のことをいいます。
最大の特徴はゲストOSを必要としないことです。
コンテナ管理ソフトウェアDockerなどについて出題されます。
2024年8月試験(E2024#2)~
※分散処理の分野で、連合学習(Federated learning) が新たに加わりました。
E資格の最新シラバスに対応した「AI研究所 E資格対策講座」
2022年8月試験(E2022#2)から、応用技術や実践力が問われるようになりました。
E資格の試験勉強に不安を抱える方は、「AI研究所 E資格対策講座」を受講してみてください。ここでは、AI研究所 E資格対策講座の魅力をご紹介します。
好みの受講形式を選択できる
「AI研究所 E資格対策講座」であれば、3つの受講形式からお好みのものを選べます。
- 会場受講:講師と受講生と同じ会場で試験勉強ができる
- ライブウェビナー:オンライン形式で場所を問わずに講座を受講できる
- Eラーニング:自分のペースで試験勉強ができる
多くのE資格対策講座では「会場受講」「ライブウェビナー」が用意されていません。そのため、講師や仲間と一緒に試験勉強を頑張りたいという方におすすめです。
最短4日でJDLA認定プログラム修了証が取得できる
「AI研究所 E資格対策講座」は、最短4日でJDLA認定プログラム修了証が受講できます。
JDLA認定プログラム終了証とは、E資格の受験資格となるものです。
他の講座では、100時間のオンライン学習講座を修了しなければいけないなど、JDLA認定プログラム修了証を取得するまで時間がかかります。その一方で、AI研究所のE資格対策講座であれば最短4日で取得が可能です。
そのため、次のE資格の試験日までにJDLA認定プログラム修了証を取得しておきたいという方におすすめです。
リーズナブルな料金体系
AI研究所は、リーズナブルな料金体系を実現しました。
キャンペーン期間中に申し込んでいただければ、低価格で受講することも可能です。
通常価格(税込) | キャンペーン価格(税込) | |
会場受講 | 206,800円 | 138,000円 |
ライブウェビナー | 206,800円 | 138,000円 |
eラーニング | 184,800円 | 78,000円 |
まとめ
E資格のシラバスは2022年8月の試験から出題範囲が変わりました。
基礎問題を身に付けておき、応用問題に取り組めるようになっておかなければいけません。また、ライブラリを活用した実装問題を出題範囲となりました。
この記事を読んで、E資格の試験勉強に不安を感じた方は、E資格対策講座など最新シラバスに対応した講座を受験するようにしましょう。
AI研究所のE資格対策講座は、受講者のお好みの受講形式で試験勉強が始められます。料金体系もリーズナブルなため、ぜひ、ご検討してみてください。