E資格のシラバスが改定され、2024年8月試験(E2024#2)から出題範囲が変わりました。さらに今後開催される2026年8月の試験(E2026#2)での改定も決定しています。
E資格を受験する方はチェックしておきましょう。
ここでは、E資格のシラバスの改定内容について詳しく解説します。
E資格シラバスが改定される理由

E資格シラバスは、1年〜2年に1回改訂されています。
その理由は、一般社団法人ディープラーニング協会は、ディープラーニングを実装できるエンジニアの育成を目指しており、進化し続けているテクノロジーに対応できる人材を輩出することを目標に掲げているためです。
近年、ディープラーニングは、自然言語処理をはじめ、画像認識や音声認識など、あらゆる場面で使われるようになってきました。
これらを実装できる人材を輩出するために、定期的にシラバスを改定しています。
そのため、E資格の受験を検討している方は、試験問題の範囲を確認するようにしましょう。
E資格シラバス【E2024#1まで】
2024年2月試験(E2024#1)のシラバスは、以下の通りです。
1.応用数学
(1)確率・統計
| ①一般的な確率分布 | ベルヌーイ分布 |
| 多項分布 | |
| ガウス分布 | |
| ➁ベイズ則 | ベイズ則 |
(2)情報理論
| ①情報理論 | 情報量 |
2.機械学習
(1)機械学習の基礎
| ①学習アルゴリズム | 教師あり学習 |
| 教師なし学習 | |
| 半教師あり学習 | |
| 転移学習 | |
| ➁機械学習課題 | 能力、過剰適合、過少適合 |
| 次元の呪い | |
| ③ハイパーパラメータ | |
| ④検証集合 | 学習データ、検証データ、テストデータ |
| ホールドアウト法 | |
| k-分割交差検証法 | |
| ⑤最尤推定 | 条件付き対数尤度と平均二乗誤差 |
(2)実用的な方法論
| ①性能指標 | |
| ➁ハイパーパラメータの選択 | 手動でのハイパーパラメータ調整 |
| グリッドサーチ | |
| ランダムサーチ | |
| モデルに基づくハイパーパラメータの最適化 | |
(3)強化学習
| ①方策勾配法 | |
| ➁価値反復法 |
3.深層学習
(1)順伝播型ネットワーク
| ①全結合型ニューラルネットワーク | |
| ➁損失関数 | 最尤推定による条件付き分布の学習 |
| ③活性化関数 | シグモイド関数 |
| Softmax関数 | |
| ReLU, Leaky ReLU | |
| tanh | |
| ④誤差逆伝播法およびその他の微分アルゴリズム | 計算グラフ |
| 微積分の連鎖率 | |
| 誤差逆伝播のための連鎖律の再起的な適用 | |
| シンボル間の微分 | |
| 一般的な誤差逆伝播法 | |
(2)深層モデルのための正則化
| ①パラメータノルムペナルティー
|
L2パラメータ正則化 |
| L1正則化 | |
| ➁データ集合の拡張 | Rnadom Flip・Erase・Crop・Contrast・Brightness・Rotate, MixUp |
| ③ノイズに対する頑健性 | 出力目標へのノイズ注入 |
| ④マルチタスク学習 | |
| ⑤早期終了 | |
| ⑥スパース表現 | |
| ⑦バギングやその他のアンサンブル手法 | |
| ⑧ドロップアウト | |
(3)深層モデルのための正則化
| ①学習と純粋な最適化の差異 | バッチアルゴリズムとミニバッチアルゴリズム |
| ➁基本的なアルゴリズム | 確率的勾配降下法 |
| モメンタム | |
| ③パラメータの初期化戦略 | |
| ④適応的な学習率を持つアルゴリズム | AdaGrad |
| RMSrop | |
| Adam | |
| ⑤最適化戦略とメタアルゴリズム | バッチ正規化 |
| Layer正規化 | |
| Instance正規化 | |
| 教師あり事前学習 | |
(4)畳み込みネットワーク
| ①畳み込み処理 | |
| ➁プーリング |
(5)回帰結合型ニューラルネットワークと再帰的ネットワーク
| ①回帰結合型のニューラルネットワーク | |
| ➁双方向 RNN | |
| ③Encoder-Decoder と Sequence-to-Sequence | |
| ④長期依存性の課題 | |
| ⑤ゲート付きRNN
|
LSTM |
| GRU | |
| ⑥長期依存性の最適化 | 勾配のクリッピング |
| ⑦Attention | |
(6)生成モデル
| ①識別モデルと生成モデル | |
| ➁オートエンコーダ
|
VAE |
| VQ-VAE | |
| ③GAN
|
DCGAN |
| Conditionnal GAN | |
(7)深層強化学習
| ①深層強化学習のモデル | AlphaGo |
| A3C |
(8)グラフニューラルネットワーク
| ①グラフ畳み込み |
(9)深層学習の適用方法
| ①画像認識
|
GoogLeNet |
| ResNet, WideResNet | |
| DenseNet | |
| EfficientNet | |
| ➁画像の局在化・検知・セグメンテーション
|
FasterR-CNN |
| YOLO | |
| SSD | |
| MaskRーCNN | |
| FCOS | |
| ③自然言語処理
|
WordEmbedding |
| Transformer | |
| BERT | |
| GPT-n | |
| ④音声処理
|
WaveNet |
| サンプリング、短時間フーリエ変換、メル尺度 | |
| CTC | |
| ⑤スタイル変換 | pix2pix |
(10)距離学習(Metric Learning)
| 2サンプルによる比較 | SiameseNet |
| 3サンプルによる比較 | TripletLoss |
(11)メタ学習(Meta Learning)
| ①初期値の獲得 | MAML |
(12)深層学習の説明性
| ①判断根拠の可視化 | Grad-CAM |
| ➁モデルの近似 | LIME |
| SHAP |
4.開発・運用環境
(1)ミドルウェア
| ①深層学習ライブラリ |
(2)エッジコンピューティング
| ①軽量なモデル | MobileNet |
| ➁モデルの軽量化
|
プルーニング |
| 蒸留 | |
| 量子化 |
(3)分散処理
| ①モデル並列 | |
| ➁データ並列 |
(4)アクセラレータ
| ①デバイスによる高速化 | GPU |
(5)環境構築
| ①コンテナ型仮想化 | Docker |
E資格シラバス【E2024#2から】
2024年8月試験(E2024#2)のシラバスは、以下の通りです。
1.数学的基礎
(1)確率・統計
| ii.確率モデルにおけるパラメータ推定 |
(2)情報理論
| i.情報理論 |
2.機械学習
(1)機械学習の基礎
| i .パターン認識 | k近傍法・近傍法 |
| 距離計算 | |
| ii .機械学習の分類 | |
| ix .機械学習の課題 | 過剰適合・過少適合 |
| x .検証集合 | 学習データ・検証データ・テストデータ |
| 交差検証 | |
| xi .性能指標 | |
3.深層学習の基礎
(1)順伝播型ネットワーク
| i .多層パーセプトロン | |
| ii .出力層と損失関数 | 回帰 |
| 2値分類 | |
| 多クラス分類 | |
| マルチラベル分類 | |
| 順序回帰 | |
| iii .活性化関数 | シグモイド関数 |
| ReLU, Leaky ReLU | |
| tanh | |
(2)深層モデルのための最適化
| i .基本的なアルゴリズム | 確率的勾配降下法(SGD) |
| モメンタム | |
| ii .誤差逆伝播法 | 誤差逆伝播法 |
| 自動微分 | |
| iii .適応的な学習率を持つアルゴリズム | |
| iv .パラメータの初期化戦略 | |
(3)深層モデルのための正則化
| i .パラメータノルムペナルティー | |
| ii .確率的削除 | |
| iii .陰的正則化 |
(4)畳み込みネットワーク
| i .畳み込みニューラルネットワーク | 基本的な畳み込み演算 |
| 特別な畳み込み | |
| プーリング |
(5)リカレントニューラルネットワーク
| i .リカレントニューラルネットワーク | |
| ii .ゲート機構 | |
| iii .系列変換 |
(6)Transformer
| i .Transformer |
(7)汎化性能向上のためのテクニック
| i .データ集合の拡張 | 画像のデータ拡張 |
| 自然言語のデータ拡張 | |
| ii .正則化 | |
| iii .アンサンブル手法 | |
| iv .ハイパーパラメータの選択 | 基本的なハイパーパラメータ調整 |
| ハイパーパラメータの最適化 | |
4.深層学習の応用
(1)画像認識
| ⅰ.ResNet, WideResNet | |
| ⅱ.Vision Transformer |
(2)物体検出
| ⅰ.FasterR-CNN, MaskR-CNN | |
| ⅱ.YOLO, SSD | |
| ⅲ.FCOS |
(3)セマンティックセグメンテーション
| ⅰ.FCN, U-Net |
(4)自然言語処理
| ⅰ.WordEmbedding | |
| ⅱ.BERT | |
| ⅲ.GPT-n |
(5)生成モデル
| ⅰ.識別モデルと生成モデル | |
| ⅱ.オートエンコーダ | オートエンコーダ |
| VAE | |
| ⅲ.GAN | 基本的なGAN |
| 条件付きGAN | |
(6)深層強化学習
| i .深層強化学習のモデル | DQN |
| A3C |
(7)様々な学習方法
| i .転移学習 | |
| ⅱ.半教師あり学習と自己教師あり学習 | |
| ⅳ.距離学習(Metric Learning) | 2サンプルによる比較 |
| 3サンプルによる比較 | |
(8)深層学習の説明性
| ⅰ.判断根拠の可視化 | |
| ⅱ.モデルの近似 |
4.開発・運用環境
(1)エッジコンピューティング
| ⅰ.モデルの軽量化 |
(2)分散処理
| ⅰ.並列分散処理 |
(3)アクセラレータ
| ⅰ.デバイスによる高速化 |
(4)環境構築
| ⅰ.コンテナ型仮想化 |
E資格シラバス【E2026#2から】
2026年8月試験(E2026#2)以降のシラバスは、以下の通りです。
1.応用数学
| 中見出し | 小項目・細項目 | キーワード |
|---|---|---|
| 線形代数 | 行列演習 | 行列・テンソルの積、勾配、行列のランク、テンソル、アダマール積 |
| 固有値分解・特異値分解 | 固有値、固有ベクトル、対角化、特異値、特異ベクトル | |
| 確率・統計 | 一般的な確率分布 | 確率変数、同時確率、条件付き確率、周辺確率、確率質量関数、確率密度関数、期待値、分散、共分散 |
| ベルヌーイ分布・多項分布 | ベルヌーイ試行、二項分布、カテゴリカル分布 | |
| ガウス分布・t分布 | 混合ガウス分布、中心極限定理 | |
| 確率モデルにおけるパラメータ推定 | ベイズ則、ナイーブベイズ、平均二乗誤差、対数尤度、ダイバージェンス、最尤推定、MAP推定、ベイズ推定 | |
| 情報理論 | 情報理論 | 自己情報量、相互情報量、エントロピー、条件付きエントロピー、結合エントロピー、クロスエントロピー、KLダイバージェンス、JSダイバージェンス |
2.機械学習
| 中見出し | 小項目・細項目 | キーワード |
|---|---|---|
| 機械学習の基礎 | パターン認識 | k近傍法・近傍法、kd-tree、近似最近傍 |
| 距離計算 | コサイン距離、ユークリッド距離、マンハッタン距離、Lp距離、マハラノビス距離 | |
| 機械学習の分類 | 教師あり学習・教師なし学習・半教師あり学習 | 機械学習 |
| 教師あり学習1 線形回帰 |
Lasso回帰・Ridge回帰 | ノルム、過少適合、過剰適合、最小二乗法、相関係数、多重共線性、L1正則化、L2正則化 |
| 教師あり学習2 ロジスティック回帰 |
ロジット、シグモイド関数、ロジスティック関数、ソフトマックス関数、オッズ/オッズ比 | |
| 教師あり学習3 サポートベクターマシン |
サポートベクター、マージン最大化、ハードマージン・ソフトマージン、カーネル法 | |
| 教師あり学習4 決定木 |
Random Forest、勾配ブースティング | 分類木・回帰木、CART、Gini係数、アンサンブル、バギング、ブースティング |
| 教師なし学習1 次元圧縮 |
主成分分析、寄与率、SNE、Crowding Problem、t-SNE | |
| 教師なし学習2 クラスタリング |
k-means、階層的クラスタリング、デンドログラム、ウォード法、群平均法 | |
| 機械学習の課題 | 過剰適合・過少適合 | 汎化誤差、訓練誤差、バイアス、バリアンス、正則化、次元の呪い |
| 検証集合 | 訓練データ・検証データ・テストデータ | 訓練誤差、汎化誤差 |
| 交差検証 | ホールドアウト法、k-分割交差検証法 | |
| 性能指標 | 正解率、適合率、再現率、F値、ROC曲線、AUC、IoU、mAP、micro平均、macro平均、RMSE、MSE、MAE、混同行列、パープレキシティ |
3.深層学習の基礎
| 中見出し | 小項目・細項目 | キーワード |
|---|---|---|
| 順伝播型ネットワーク | 多層パーセプトロン | 全結合層、重み、バイアス |
| 出力層と損失関数 | 平均二乗誤差(MSE)、平均絶対誤差(MAE)、バイナリクロスエントロピー、クロスエントロピー誤差、ソフトマックス関数、one-hotベクトル | |
| 活性化関数 | シグモイド関数 | 温度パラメータ、勾配消失 |
| ReLU, Leaky ReLU | GELU | |
| tanh | 双曲線関数 | |
| 深層モデルのための最適化 | 基本的なアルゴリズム | 確率的勾配降下法(SGD)、学習率、最急降下法、ミニバッチ、モメンタム、Pathological Curvature、Nesterov Accelerated Gradient |
| 誤差逆伝播法 | 連鎖律、偏微分によるデルタ、勾配消失、自動微分、計算グラフ | |
| 適応的な学習率を持つアルゴリズム | AdaGrad、RMSProp、Adam | |
| パラメータの初期化戦略 | Xavier法/Glorot法、Kaiming法/He法 | |
| 深層モデルのための正則化 | パラメータノルムペナルティー | L1正則化、スパース表現、L2正則化、weight decay |
| 確率的削除 | ドロップアウト、ドロップコネクト | |
| 陰的正則化 | 早期終了、バッチサイズ、学習率の調整 | |
| 畳み込みニューラルネットワーク | 基本的な畳み込み演算 | 単純型細胞と複雑型細胞、受容野、特徴マップ、フィルタ、カーネル、パディング、ストライド、im2col、チャネル |
| 特別な畳み込み | point-wise畳み込み、depth-wise畳み込み、グループ化畳み込み、アップサンプリング、逆畳み込み | |
| プーリング | Max pooling、Lp pooling、Global Average Pooling | |
| リカレントニューラルネットワーク | リカレントニューラルネットワーク | 順伝播の計算、逆伝搬の計算(BPTT)、双方向RNN |
| ゲート機構 | 勾配消失、忘却ゲート、入力ゲート、出力ゲート、LSTM、GRU、リセットゲート、メモリーセル | |
| 系列変換 | エンコーダ・デコーダ、seq2seq、アテンション機構 | |
| Transformer | Transformer | Self-Attention、Scaled Dot-Product Attention、Source Target Attention、Masked Attention、Multi-Head Attention、Positional Encoding |
| 汎化性能向上のためのテクニック | 画像のデータ拡張 | ノイズ除去(平滑化)、Random Flip、Erase、Crop、Contrast、Brightness、Rotate、RandAugment、MixUp |
| 自然言語のデータ拡張 | EDA、MixUp | |
| 音声のデータ拡張 | ノイズ除去(平滑化)、ボリューム変更、ピッチシフト、MixUp、SpecAugment | |
| 正規化 | Batch Normalization、Layer Normalization、Instance Normalization、Group Normalization | |
| アンサンブル手法 | バギング、ブースティング、ブートストラップ、スタッキング | |
| 基本的なハイパーパラメータ調整 | 学習率、隠れ層の数、ユニット数、ドロップアウトの割合、バッチサイズ | |
| ハイパーパラメータの最適化 | グリッドサーチ、ランダムサーチ、ベイズ最適化 |
4.深層学習の応用
| 中見出し | 小項目・細項目 | キーワード |
|---|---|---|
| 画像認識 | ResNet, WideResNet | 残差接続(skip-connection)、ボトルネック構造、Residual Block |
| Vision Transformer | Shifted window、CLS token、Position embedding | |
| 物体検出 | Faster R-CNN, Mask R-CNN | Bounding Box、mAP、ROI、end-to-end、2ステージ検出、Selective Search、Fast R-CNN、Region Proposal Network (RPN)、Anchor box、アンカー、ROI Pooling、ROI Align、インスタンスセグメンテーション |
| YOLO, SSD | 1ステージ検出、デフォルトボックス、Non-Maximum Suppression (NMS)、ハードネガティブマイニング | |
| FCOS | アンカーフリー (Anchor-Free)、Feature Pyramid Network (FPN)、センターネス(Center-ness)、アンビギュアスサンプル | |
| セマンティックセグメンテーション | FCN, U-Net | スキップコネクション、アップサンプリング、インスタンスセグメンテーション、パノプティックセグメンテーション(Panoptic Segmentation) |
| 自然言語処理 | WordEmbedding | 潜在的意味インデキシング(LSI)、Word2vec、n-gram、skip gram、CBOW、ネガティブサンプリング |
| 大規模言語モデル(LLM) – BERT | Masked Language Modeling (MLM)、Next Sentence Prediction (NSP)、事前学習、ファインチューニング、positional embeddings、segment embeddings | |
| 大規模言語モデル(LLM) – GPT-n | 基盤モデル、Next token prediction、Few Shot learning、Zero Shot learning、Prompt Base Learning、RAG | |
| 音声処理 | サンプリング、短時間フーリエ変換、メル尺度 | サンプリング定理、窓関数、ナイキスト周波数、短時間フーリエ変換、高速フーリエ変換、ケプストラム、メルスペクトログラム、MFCC |
| WaveNet | 音声合成(Text-to-Speech)、Dilated Causal Convolution、GTU (Gated tanh unit)、Residual Block、Skip Connection | |
| CTC | End-to-Endモデル、ビームサーチ、前向き・後ろ向きアルゴリズム | |
| 生成モデル | 識別モデルと生成モデル | 識別モデル、自己回帰、生成モデル、拡散モデル、フローベース生成モデル |
| オートエンコーダ | Denoising autoencoder | |
| VAE | VAE、Reparameterization Trick、変分下限 | |
| 基本的なGAN | 生成器ネットワーク、識別器ネットワーク、モード崩壊(mode collapse)、Wasserstein GAN、DCGAN | |
| 条件付きGAN | Conditional GAN、CycleGAN | |
| 深層強化学習 | DQN | 行動価値関数、TD学習、Q学習、Experience replay |
| A3C | 方策勾配法(Policy Gradient)、Actor-Critic法 | |
| 様々な学習方法 | 転移学習 | ファインチューニング、ドメイン適応 (domain adaptation)、ドメインシフト |
| 半教師あり学習と 自己教師あり学習 |
Self-Training、Co-Training、Contrastive learning | |
| 能動学習 (Active Learning) | Uncertainty Sampling、Least Confident、Representative Sampling | |
| 距離学習 (Metric Learning) – 2サンプルによる比較 | 表現学習、Siamese network、contrastive loss | |
| 距離学習 (Metric Learning) – 3サンプルによる比較 | Triplet loss、Triplet network | |
| メタ学習 (Meta Learning) | MAML、Model-Agnostic、メタ目的関数 (meta-objective) | |
| 深層学習の説明性 | 判断根拠の可視化 | XAI (explainable AI)、Grad-CAM、Integrated Gradients |
| モデルの近似 | 局所的な解釈、大域的な解釈、LIME、SHAP、ShapleyValue、協力ゲーム理論 |
5.開発・運用環境
| 中見出し | 小項目・細項目 | キーワード |
|---|---|---|
| エッジコンピューティング | モデルの軽量化 | エッジコンピューティング、プルーニング(枝刈り)、蒸留(Distillation)、量子化(Quantization) |
| 分散処理 | 並列分散処理 | 分散深層学習、モデル並列化、データ並列化 |
| 連合学習(Federated learning) | クロスデバイス学習、クロスサイロ学習、Federated Averaging、Local Model、Global Model | |
| アクセラレータ | デバイスによる高速化 | SIMD(Single Instruction Multiple Data)、SIMT(Single Instruction Multiple Thread)、MIMD(Multiple Instruction Multiple Data)、GPU、TPU |
| 環境構築 | コンテナ型仮想化 | 仮想化環境、ホスト型、ハイパーバイザー型、コンテナ型、Docker、Dockerfile |
E資格シラバスの改定内容

2024年8月試験(E2024#2)より、E資格シラバスが改定されました。(E2026#1まではこのシラバスで実施されます)
ここでは、主な変更点について解説していきます。
数学的基礎(応用数学)
2024年8月試験(E2024#2)からは「確率・統計」の分野において、『確率モデルにおけるパラメータ推定』が出題範囲となっています。今まではベイズ則のみの出題でしたが、その他にナイーブベイズやMAP推定などの手法が加わりました。
数学的基礎の分野を理解しておくことは、機械学習を理解する上で重要となります。線形代数については、試験対象外ではあるものの、機械学習を扱うと必ず登場する概念なので、しっかりと学んでおくことが大切です。
機械学習
機械学習の枠組みを理解していないと、どのようなディープラーニングを実装すべきか判断できなくなります。E資格に合格するためにも機械学習の基礎を身に付けておくことが大切です。
また、機械学習ライブラリPyTochやTensorFlowを活用した実装問題も出てきます。
2024年8月試験(E2024#2)からは、大きく「パターン認識」「機械学習の分類」「機械学習の課題」「検証集合」「性能指標」に分割されました。
「教師あり学習/教師なし学習」においては出題範囲外となっていますが、実務上よく使う手法も多いので、一度学習しておくと良いでしょう。
深層学習
深層学習の分野は、基礎と応用の大きく2つに分割されました。
①深層学習の基礎
2024年8月試験(E2024#2)以降のシラバスは「画像データの拡張」において「自然言語データの拡張」が追加され、「音声のデータ拡張」が削除されました。
➁深層学習の応用(2024年8月試験(E2024#2)~)
深層学習の応用は、「画像認識」「物体検出」「セマンティックセグメンテーション」「自然言語処理」「生成モデル」「深層強化学習」「様々な学習方法」「深層学習の説明性」が、出題範囲となっています。
※(5)「音声処理」は削除されました。
※(8)「能動学習」「メタ学習」は削除されました。
開発・運用環境
2024年8月試験(E2024#2)以降のシラバスでは、分散処理の分野で連合学習(Federated learning)が削除になっています。
E資格の最新シラバスに対応した「E資格対策講座」

最新のシラバスにもいち早く対応し、修了率99.2%、合格率83.3%の実績を誇るのが、JDLA認定のE資格対ディープラーニング短期集中講座です。この講座はなんと2025年8月に開催された試験の、合格者730人のうち3.5人に1人が受講した人気の講座です。E資格対策講座を深堀していきましょう。
合格者多数輩出!3.5人に1人が受講したE資格対策講座を見てみる
好みの受講形式を選択できる
こちらのE資格対ディープラーニング短期集中講座であれば、3つの受講形式からお好みのものを選べます。
| 会場受講 | 講師と受講生と同じ会場で試験勉強ができる |
| ライブウェビナー | オンライン形式で場所を問わずに講座を受講できる |
| eラーニング | 自分のペースで試験勉強ができる |
多くのE資格対策講座では「会場受講」「ライブウェビナー」が用意されていません。
そのため、講師や仲間と一緒に試験勉強を頑張りたいという方におすすめです。
短期間でJDLA認定プログラム修了証が取得できる
E資格対ディープラーニング短期集中講座は、短期間でJDLA認定プログラム修了証が受講できます。
JDLA認定プログラム終了証とは、E資格の受験資格となるものです。
他の講座では、100時間のオンライン学習講座を修了しなければいけないものやレポート課題、修了試験など、JDLA認定プログラム修了証を取得するまで時間がかかります。その一方で、E資格対策講座であれば最短4日で取得が可能です。
そのため、次のE資格の試験日までにJDLA認定プログラム修了証を取得しておきたいという方におすすめです。
リーズナブルな料金体系
E資格対ディープラーニング短期集中講座は、リーズナブルな料金体系であることも人気の理由でしょう。キャンペーン期間中の申し込みで、低価格で受講することも可能です。
| セミナー名 | E資格対策ディープラーニング短期集中講座 |
|---|---|
| 運営元 | GETT Proskill(ゲット プロスキル) |
| 価格(税込) | 54,780円〜 |
| 開催期間 | 4日間 |
| 受講形式 | 対面(東京)・ライブウェビナー・eラーニング |
| JDLA認定プログラム修了報告期限 | 2026年2月4日(水)23:59まで |
E資格のシラバスまとめ
E資格のシラバスは2024年8月の試験から出題範囲が変わりました。
基礎問題を身に付けておき、応用問題に取り組めるようになっておかなければいけません。
この記事を読んで、E資格の試験勉強に不安を感じた方は、E資格対策講座など最新シラバスに対応した講座を受験するようにしましょう。
E資格対ディープラーニング短期集中講座は、受講者のお好みの受講形式で試験勉強が始められます。料金体系もリーズナブルなため、ぜひ、ご検討してみてください。