E資格のシラバスの改定内容!2024年8月改定と2026年8月の改定も!

E資格のシラバスの改定内容!2024年8月改定と2026年8月の改定も!

E資格のシラバスが改定され、2024年8月試験(E2024#2)から出題範囲が変わりました。さらに今後開催される2026年8月の試験(E2026#2)での改定も決定しています。
E資格を受験する方はチェックしておきましょう。

ここでは、E資格のシラバスの改定内容について詳しく解説します。

目次

E資格シラバスが改定される理由

E資格シラバスが改定される理由

E資格シラバスは、1年〜2年に1回改訂されています。

その理由は、一般社団法人ディープラーニング協会は、ディープラーニングを実装できるエンジニアの育成を目指しており、進化し続けているテクノロジーに対応できる人材を輩出することを目標に掲げているためです。

近年、ディープラーニングは、自然言語処理をはじめ、画像認識や音声認識など、あらゆる場面で使われるようになってきました

これらを実装できる人材を輩出するために、定期的にシラバスを改定しています。
そのため、E資格の受験を検討している方は、試験問題の範囲を確認するようにしましょう。

E資格シラバス【E2024#1まで】

2024年2月試験(E2024#1)のシラバスは、以下の通りです。

1.応用数学

(1)確率・統計

①一般的な確率分布 ベルヌーイ分布
多項分布
ガウス分布
➁ベイズ則 ベイズ則

(2)情報理論

①情報理論 情報量

2.機械学習

(1)機械学習の基礎

①学習アルゴリズム 教師あり学習
教師なし学習
半教師あり学習
転移学習
➁機械学習課題 能力、過剰適合、過少適合
次元の呪い
③ハイパーパラメータ
④検証集合 学習データ、検証データ、テストデータ
ホールドアウト法
k-分割交差検証法
⑤最尤推定 条件付き対数尤度と平均二乗誤差

(2)実用的な方法論

①性能指標
➁ハイパーパラメータの選択 手動でのハイパーパラメータ調整
グリッドサーチ
ランダムサーチ
モデルに基づくハイパーパラメータの最適化

(3)強化学習

①方策勾配法
➁価値反復法

3.深層学習

(1)順伝播型ネットワーク

①全結合型ニューラルネットワーク
➁損失関数 最尤推定による条件付き分布の学習
③活性化関数 シグモイド関数
Softmax関数
ReLU, Leaky ReLU
tanh
④誤差逆伝播法およびその他の微分アルゴリズム 計算グラフ
微積分の連鎖率
誤差逆伝播のための連鎖律の再起的な適用
シンボル間の微分
一般的な誤差逆伝播法

(2)深層モデルのための正則化

①パラメータノルムペナルティー

 

L2パラメータ正則化
L1正則化
➁データ集合の拡張 Rnadom Flip・Erase・Crop・Contrast・Brightness・Rotate, MixUp
③ノイズに対する頑健性 出力目標へのノイズ注入
④マルチタスク学習
⑤早期終了
⑥スパース表現
⑦バギングやその他のアンサンブル手法
⑧ドロップアウト

(3)深層モデルのための正則化

①学習と純粋な最適化の差異 バッチアルゴリズムとミニバッチアルゴリズム
➁基本的なアルゴリズム 確率的勾配降下法
モメンタム
③パラメータの初期化戦略
④適応的な学習率を持つアルゴリズム AdaGrad
RMSrop
Adam
⑤最適化戦略とメタアルゴリズム バッチ正規化
Layer正規化
Instance正規化
教師あり事前学習

(4)畳み込みネットワーク

①畳み込み処理
➁プーリング

(5)回帰結合型ニューラルネットワークと再帰的ネットワーク

①回帰結合型のニューラルネットワーク
➁双方向 RNN
③Encoder-Decoder と Sequence-to-Sequence
④長期依存性の課題
⑤ゲート付きRNN

 

LSTM
GRU
⑥長期依存性の最適化 勾配のクリッピング
⑦Attention

(6)生成モデル

①識別モデルと生成モデル
➁オートエンコーダ

 

VAE
VQ-VAE
③GAN

 

DCGAN
Conditionnal GAN

(7)深層強化学習

①深層強化学習のモデル AlphaGo
A3C

(8)グラフニューラルネットワーク

①グラフ畳み込み

(9)深層学習の適用方法

①画像認識

 

 

 

GoogLeNet
ResNet, WideResNet
DenseNet
EfficientNet
➁画像の局在化・検知・セグメンテーション

 

 

 

 

FasterR-CNN
YOLO
SSD
MaskRーCNN
FCOS
③自然言語処理

 

 

 

WordEmbedding
Transformer
BERT
GPT-n
④音声処理

 

 

WaveNet
サンプリング、短時間フーリエ変換、メル尺度
CTC
⑤スタイル変換 pix2pix

(10)距離学習(Metric Learning)

2サンプルによる比較 SiameseNet
3サンプルによる比較 TripletLoss

(11)メタ学習(Meta Learning)

①初期値の獲得 MAML

(12)深層学習の説明性

①判断根拠の可視化 Grad-CAM
➁モデルの近似 LIME
SHAP

 4.開発・運用環境

(1)ミドルウェア

①深層学習ライブラリ

(2)エッジコンピューティング

①軽量なモデル MobileNet
➁モデルの軽量化

 

 

プルーニング
蒸留
量子化

(3)分散処理

①モデル並列
➁データ並列

(4)アクセラレータ

①デバイスによる高速化 GPU

(5)環境構築

①コンテナ型仮想化 Docker

E資格シラバス【E2024#2から】

2024年8月試験(E2024#2)のシラバスは、以下の通りです。

1.数学的基礎

(1)確率・統計

ii.確率モデルにおけるパラメータ推定

(2)情報理論

i.情報理論

2.機械学習

(1)機械学習の基礎

i .パターン認識 k近傍法・近傍法
距離計算
ii .機械学習の分類
ix .機械学習の課題 過剰適合・過少適合
x .検証集合 学習データ・検証データ・テストデータ
交差検証
xi .性能指標

3.深層学習の基礎

(1)順伝播型ネットワーク

i .多層パーセプトロン
ii .出力層と損失関数 回帰
2値分類
多クラス分類
マルチラベル分類
順序回帰
iii .活性化関数 シグモイド関数
ReLU, Leaky ReLU
tanh

(2)深層モデルのための最適化

i .基本的なアルゴリズム 確率的勾配降下法(SGD)
モメンタム
ii .誤差逆伝播法 誤差逆伝播法
自動微分
iii .適応的な学習率を持つアルゴリズム
iv .パラメータの初期化戦略

(3)深層モデルのための正則化

i .パラメータノルムペナルティー
ii .確率的削除
iii .陰的正則化

(4)畳み込みネットワーク

i .畳み込みニューラルネットワーク 基本的な畳み込み演算
特別な畳み込み
プーリング

(5)リカレントニューラルネットワーク

i .リカレントニューラルネットワーク
ii .ゲート機構
iii .系列変換

(6)Transformer

i .Transformer

(7)汎化性能向上のためのテクニック

i .データ集合の拡張 画像のデータ拡張
自然言語のデータ拡張
ii .正則化
iii .アンサンブル手法
iv .ハイパーパラメータの選択 基本的なハイパーパラメータ調整
ハイパーパラメータの最適化

4.深層学習の応用

(1)画像認識

ⅰ.ResNet, WideResNet
ⅱ.Vision Transformer

(2)物体検出

ⅰ.FasterR-CNN, MaskR-CNN
ⅱ.YOLO, SSD
ⅲ.FCOS

(3)セマンティックセグメンテーション

ⅰ.FCN, U-Net

(4)自然言語処理

ⅰ.WordEmbedding
ⅱ.BERT
ⅲ.GPT-n

(5)生成モデル

ⅰ.識別モデルと生成モデル
ⅱ.オートエンコーダ オートエンコーダ
VAE
ⅲ.GAN 基本的なGAN
条件付きGAN

(6)深層強化学習

i .深層強化学習のモデル DQN
A3C

(7)様々な学習方法

i .転移学習
ⅱ.半教師あり学習と自己教師あり学習
ⅳ.距離学習(Metric Learning) 2サンプルによる比較
3サンプルによる比較

(8)深層学習の説明性

ⅰ.判断根拠の可視化
ⅱ.モデルの近似

4.開発・運用環境

(1)エッジコンピューティング

ⅰ.モデルの軽量化

(2)分散処理

ⅰ.並列分散処理

(3)アクセラレータ

ⅰ.デバイスによる高速化

(4)環境構築

ⅰ.コンテナ型仮想化

E資格シラバス【E2026#2から】

2026年8月試験(E2026#2)以降のシラバスは、以下の通りです。

1.応用数学

中見出し 小項目・細項目 キーワード
線形代数 行列演習 行列・テンソルの積、勾配、行列のランク、テンソル、アダマール積
固有値分解・特異値分解 固有値、固有ベクトル、対角化、特異値、特異ベクトル
確率・統計 一般的な確率分布 確率変数、同時確率、条件付き確率、周辺確率、確率質量関数、確率密度関数、期待値、分散、共分散
ベルヌーイ分布・多項分布 ベルヌーイ試行、二項分布、カテゴリカル分布
ガウス分布・t分布 混合ガウス分布、中心極限定理
確率モデルにおけるパラメータ推定 ベイズ則、ナイーブベイズ、平均二乗誤差、対数尤度、ダイバージェンス、最尤推定、MAP推定、ベイズ推定
情報理論 情報理論 自己情報量、相互情報量、エントロピー、条件付きエントロピー、結合エントロピー、クロスエントロピー、KLダイバージェンス、JSダイバージェンス

2.機械学習

中見出し 小項目・細項目 キーワード
機械学習の基礎 パターン認識 k近傍法・近傍法、kd-tree、近似最近傍
距離計算 コサイン距離、ユークリッド距離、マンハッタン距離、Lp距離、マハラノビス距離
機械学習の分類 教師あり学習・教師なし学習・半教師あり学習 機械学習
教師あり学習1
線形回帰
Lasso回帰・Ridge回帰 ノルム、過少適合、過剰適合、最小二乗法、相関係数、多重共線性、L1正則化、L2正則化
教師あり学習2
ロジスティック回帰
ロジット、シグモイド関数、ロジスティック関数、ソフトマックス関数、オッズ/オッズ比
教師あり学習3
サポートベクターマシン
サポートベクター、マージン最大化、ハードマージン・ソフトマージン、カーネル法
教師あり学習4
決定木
Random Forest、勾配ブースティング 分類木・回帰木、CART、Gini係数、アンサンブル、バギング、ブースティング
教師なし学習1
次元圧縮
主成分分析、寄与率、SNE、Crowding Problem、t-SNE
教師なし学習2
クラスタリング
k-means、階層的クラスタリング、デンドログラム、ウォード法、群平均法
機械学習の課題 過剰適合・過少適合 汎化誤差、訓練誤差、バイアス、バリアンス、正則化、次元の呪い
検証集合 訓練データ・検証データ・テストデータ 訓練誤差、汎化誤差
交差検証 ホールドアウト法、k-分割交差検証法
性能指標 正解率、適合率、再現率、F値、ROC曲線、AUC、IoU、mAP、micro平均、macro平均、RMSE、MSE、MAE、混同行列、パープレキシティ

3.深層学習の基礎

中見出し 小項目・細項目 キーワード
順伝播型ネットワーク 多層パーセプトロン 全結合層、重み、バイアス
出力層と損失関数 平均二乗誤差(MSE)、平均絶対誤差(MAE)、バイナリクロスエントロピー、クロスエントロピー誤差、ソフトマックス関数、one-hotベクトル
活性化関数 シグモイド関数 温度パラメータ、勾配消失
ReLU, Leaky ReLU GELU
tanh 双曲線関数
深層モデルのための最適化 基本的なアルゴリズム 確率的勾配降下法(SGD)、学習率、最急降下法、ミニバッチ、モメンタム、Pathological Curvature、Nesterov Accelerated Gradient
誤差逆伝播法 連鎖律、偏微分によるデルタ、勾配消失、自動微分、計算グラフ
適応的な学習率を持つアルゴリズム AdaGrad、RMSProp、Adam
パラメータの初期化戦略 Xavier法/Glorot法、Kaiming法/He法
深層モデルのための正則化 パラメータノルムペナルティー L1正則化、スパース表現、L2正則化、weight decay
確率的削除 ドロップアウト、ドロップコネクト
陰的正則化 早期終了、バッチサイズ、学習率の調整
畳み込みニューラルネットワーク 基本的な畳み込み演算 単純型細胞と複雑型細胞、受容野、特徴マップ、フィルタ、カーネル、パディング、ストライド、im2col、チャネル
特別な畳み込み point-wise畳み込み、depth-wise畳み込み、グループ化畳み込み、アップサンプリング、逆畳み込み
プーリング Max pooling、Lp pooling、Global Average Pooling
リカレントニューラルネットワーク リカレントニューラルネットワーク 順伝播の計算、逆伝搬の計算(BPTT)、双方向RNN
ゲート機構 勾配消失、忘却ゲート、入力ゲート、出力ゲート、LSTM、GRU、リセットゲート、メモリーセル
系列変換 エンコーダ・デコーダ、seq2seq、アテンション機構
Transformer Transformer Self-Attention、Scaled Dot-Product Attention、Source Target Attention、Masked Attention、Multi-Head Attention、Positional Encoding
汎化性能向上のためのテクニック 画像のデータ拡張 ノイズ除去(平滑化)、Random Flip、Erase、Crop、Contrast、Brightness、Rotate、RandAugment、MixUp
自然言語のデータ拡張 EDA、MixUp
音声のデータ拡張 ノイズ除去(平滑化)、ボリューム変更、ピッチシフト、MixUp、SpecAugment
正規化 Batch Normalization、Layer Normalization、Instance Normalization、Group Normalization
アンサンブル手法 バギング、ブースティング、ブートストラップ、スタッキング
基本的なハイパーパラメータ調整 学習率、隠れ層の数、ユニット数、ドロップアウトの割合、バッチサイズ
ハイパーパラメータの最適化 グリッドサーチ、ランダムサーチ、ベイズ最適化

4.深層学習の応用

中見出し 小項目・細項目 キーワード
画像認識 ResNet, WideResNet 残差接続(skip-connection)、ボトルネック構造、Residual Block
Vision Transformer Shifted window、CLS token、Position embedding
物体検出 Faster R-CNN, Mask R-CNN Bounding Box、mAP、ROI、end-to-end、2ステージ検出、Selective Search、Fast R-CNN、Region Proposal Network (RPN)、Anchor box、アンカー、ROI Pooling、ROI Align、インスタンスセグメンテーション
YOLO, SSD 1ステージ検出、デフォルトボックス、Non-Maximum Suppression (NMS)、ハードネガティブマイニング
FCOS アンカーフリー (Anchor-Free)、Feature Pyramid Network (FPN)、センターネス(Center-ness)、アンビギュアスサンプル
セマンティックセグメンテーション FCN, U-Net スキップコネクション、アップサンプリング、インスタンスセグメンテーション、パノプティックセグメンテーション(Panoptic Segmentation)
自然言語処理 WordEmbedding 潜在的意味インデキシング(LSI)、Word2vec、n-gram、skip gram、CBOW、ネガティブサンプリング
大規模言語モデル(LLM) – BERT Masked Language Modeling (MLM)、Next Sentence Prediction (NSP)、事前学習、ファインチューニング、positional embeddings、segment embeddings
大規模言語モデル(LLM) – GPT-n 基盤モデル、Next token prediction、Few Shot learning、Zero Shot learning、Prompt Base Learning、RAG
音声処理 サンプリング、短時間フーリエ変換、メル尺度 サンプリング定理、窓関数、ナイキスト周波数、短時間フーリエ変換、高速フーリエ変換、ケプストラム、メルスペクトログラム、MFCC
WaveNet 音声合成(Text-to-Speech)、Dilated Causal Convolution、GTU (Gated tanh unit)、Residual Block、Skip Connection
CTC End-to-Endモデル、ビームサーチ、前向き・後ろ向きアルゴリズム
生成モデル 識別モデルと生成モデル 識別モデル、自己回帰、生成モデル、拡散モデル、フローベース生成モデル
オートエンコーダ Denoising autoencoder
VAE VAE、Reparameterization Trick、変分下限
基本的なGAN 生成器ネットワーク、識別器ネットワーク、モード崩壊(mode collapse)、Wasserstein GAN、DCGAN
条件付きGAN Conditional GAN、CycleGAN
深層強化学習 DQN 行動価値関数、TD学習、Q学習、Experience replay
A3C 方策勾配法(Policy Gradient)、Actor-Critic法
様々な学習方法 転移学習 ファインチューニング、ドメイン適応 (domain adaptation)、ドメインシフト
半教師あり学習と
自己教師あり学習
Self-Training、Co-Training、Contrastive learning
能動学習 (Active Learning) Uncertainty Sampling、Least Confident、Representative Sampling
距離学習 (Metric Learning) – 2サンプルによる比較 表現学習、Siamese network、contrastive loss
距離学習 (Metric Learning) – 3サンプルによる比較 Triplet loss、Triplet network
メタ学習 (Meta Learning) MAML、Model-Agnostic、メタ目的関数 (meta-objective)
深層学習の説明性 判断根拠の可視化 XAI (explainable AI)、Grad-CAM、Integrated Gradients
モデルの近似 局所的な解釈、大域的な解釈、LIME、SHAP、ShapleyValue、協力ゲーム理論

5.開発・運用環境

中見出し 小項目・細項目 キーワード
エッジコンピューティング モデルの軽量化 エッジコンピューティング、プルーニング(枝刈り)、蒸留(Distillation)、量子化(Quantization)
分散処理 並列分散処理 分散深層学習、モデル並列化、データ並列化
連合学習(Federated learning) クロスデバイス学習、クロスサイロ学習、Federated Averaging、Local Model、Global Model
アクセラレータ デバイスによる高速化 SIMD(Single Instruction Multiple Data)、SIMT(Single Instruction Multiple Thread)、MIMD(Multiple Instruction Multiple Data)、GPU、TPU
環境構築 コンテナ型仮想化 仮想化環境、ホスト型、ハイパーバイザー型、コンテナ型、Docker、Dockerfile

E資格シラバスの改定内容

E資格シラバスの改定内容

2024年8月試験(E2024#2)より、E資格シラバスが改定されました。(E2026#1まではこのシラバスで実施されます)

ここでは、主な変更点について解説していきます。

数学的基礎(応用数学)

2024年8月試験(E2024#2)からは「確率・統計」の分野において、『確率モデルにおけるパラメータ推定』が出題範囲となっています。今まではベイズ則のみの出題でしたが、その他にナイーブベイズやMAP推定などの手法が加わりました。

数学的基礎の分野を理解しておくことは、機械学習を理解する上で重要となります。線形代数については、試験対象外ではあるものの、機械学習を扱うと必ず登場する概念なので、しっかりと学んでおくことが大切です。

機械学習

機械学習の枠組みを理解していないと、どのようなディープラーニングを実装すべきか判断できなくなります。E資格に合格するためにも機械学習の基礎を身に付けておくことが大切です。

また、機械学習ライブラリPyTochやTensorFlowを活用した実装問題も出てきます。

2024年8月試験(E2024#2)からは、大きく「パターン認識」「機械学習の分類」「機械学習の課題」「検証集合」「性能指標」に分割されました。

「教師あり学習/教師なし学習」においては出題範囲外となっていますが、実務上よく使う手法も多いので、一度学習しておくと良いでしょう。

深層学習

深層学習の分野は、基礎と応用の大きく2つに分割されました。

①深層学習の基礎

2024年8月試験(E2024#2)以降のシラバスは「画像データの拡張」において「自然言語データの拡張」が追加され、「音声のデータ拡張」が削除されました。

➁深層学習の応用(2024年8月試験(E2024#2)~)

深層学習の応用は、「画像認識」「物体検出」「セマンティックセグメンテーション」「自然言語処理」「生成モデル」「深層強化学習」「様々な学習方法」「深層学習の説明性」が、出題範囲となっています。

※(5)「音声処理」は削除されました。
※(8)「能動学習」「メタ学習」は削除されました。

開発・運用環境

2024年8月試験(E2024#2)以降のシラバスでは、分散処理の分野で連合学習(Federated learning)が削除になっています。

E資格の最新シラバスに対応した「E資格対策講座」

E資格対策ディープラーニング短期集中講座

最新のシラバスにもいち早く対応し、修了率99.2%、合格率83.3%の実績を誇るのが、JDLA認定のE資格対ディープラーニング短期集中講座です。この講座はなんと2025年8月に開催された試験の、合格者730人のうち3.5人に1人が受講した人気の講座です。E資格対策講座を深堀していきましょう。

合格者多数輩出!3.5人に1人が受講したE資格対策講座を見てみる

好みの受講形式を選択できる

こちらのE資格対ディープラーニング短期集中講座であれば、3つの受講形式からお好みのものを選べます。

会場受講 講師と受講生と同じ会場で試験勉強ができる
ライブウェビナー オンライン形式で場所を問わずに講座を受講できる
eラーニング 自分のペースで試験勉強ができる

多くのE資格対策講座では「会場受講」「ライブウェビナー」が用意されていません。
そのため、講師や仲間と一緒に試験勉強を頑張りたいという方におすすめです。

短期間でJDLA認定プログラム修了証が取得できる

E資格対ディープラーニング短期集中講座は、短期間でJDLA認定プログラム修了証が受講できます。

JDLA認定プログラム終了証とは、E資格の受験資格となるものです。

他の講座では、100時間のオンライン学習講座を修了しなければいけないものやレポート課題、修了試験など、JDLA認定プログラム修了証を取得するまで時間がかかります。その一方で、E資格対策講座であれば最短4日で取得が可能です。

そのため、次のE資格の試験日までにJDLA認定プログラム修了証を取得しておきたいという方におすすめです。

リーズナブルな料金体系

E資格対ディープラーニング短期集中講座は、リーズナブルな料金体系であることも人気の理由でしょう。キャンペーン期間中の申し込みで、低価格で受講することも可能です。

セミナー名E資格対策ディープラーニング短期集中講座
運営元GETT Proskill(ゲット プロスキル)
価格(税込)54,780円〜
開催期間4日間
受講形式対面(東京)・ライブウェビナー・eラーニング
JDLA認定プログラム修了報告期限 2026年2月4日(水)23:59まで
詳細・お申し込みは以下のボタンから!

JDLA認定「E資格対策講座」の詳細はこちら

E資格のシラバスまとめ

E資格のシラバスは2024年8月の試験から出題範囲が変わりました。

基礎問題を身に付けておき、応用問題に取り組めるようになっておかなければいけません。

この記事を読んで、E資格の試験勉強に不安を感じた方は、E資格対策講座など最新シラバスに対応した講座を受験するようにしましょう。

E資格対ディープラーニング短期集中講座は、受講者のお好みの受講形式で試験勉強が始められます。料金体系もリーズナブルなため、ぜひ、ご検討してみてください。

JDLA認定E資格対策講座の詳細はこちら