この記事は、ディープラーニング協会の公式サイトに掲載されているディープラーニングG検定の例題について回答例と解説を記載していく3回目のエントリです。
公式サイトでは解答が未掲載となっていますので、この記事が参考になれば幸いです。合格難易度や問題の雰囲気の把握に役立つのではないかと思います。
なお、この記事で扱っているのは2021年2月14日時点で掲載されている例題となります。
この記事は全4回の連載のうちの3回目です。他の問題の回答、解説は下記記事を参照ください。
回答例や解説等含めた本記事の記載内容は当ブログ筆者の見解によるもので、間違いを含んでいる可能性があります。そのようなことが無いように努力してはおりますが、万が一誤りがありましたら大変申し訳ありません。
ディープラーニング協会 G検定とは
日本ディープラーニング協会が認定および運用しているディープラーニング(深層学習)に関する資格と検定に、E資格とG検定があります。どちらも、試験に合格するにはディープラーニングに限らず、機械学習の幅広い知識が必要となるようです。
この記事ではG検定の例題について扱いますが、G検定の”G”はジェネラリスト(Generalist)のGのことで、G検定について日本ディープラーニング協会の公式サイトでは次のように説明されています。
ディープラーニングの基礎知識を有し、適切な活用方針を決定して、事業活用する能力や知識を有しているかを検定する。
G検定とは – 一般社団法人日本ディープラーニング協会【公式】
今回は、日本ディープラーニング協会の公式サイトに掲載されているG検定の例題のうちの「ディープラーニングの概要」の3問を解き、解説します。G検定試験の過去問というわけではないと思いますが、公式サイトが掲載している問題ですので問題の雰囲気や難易度などの参考になると思います。
G検定の例題:ディープラーニングの概要(3問)
今回は、「ディープラーニングの概要」という項目の3問を解いていきます。
ディープラーニングの概要 1問目
Q. 近年急速にディープラーニングが高い成果を上げるようになった理由として当てはまるものを全て選べ。
1. 半導体技術の進歩による計算機の性能向上やGPUによる高速な並列演算により、現実的な時間で学習を行うことができるようになったため。
G検定の例題 – 一般社団法人日本ディープラーニング協会【公式】
2. 神経科学の発展により、画像認識や自然言語処理に対する視覚野や言語野など、タスクに対応した人間の脳の構造を実物通りに再現できるようになったため。
3. インターネットの普及により、表現力の高いモデルが過学習を起こさずにすむ大量のデータを得ることができるようになったため。
4. 誤差逆伝播法の発明によってそれまで困難だった多層ニューラルネットワークの訓練が可能になったため。
5. ディープラーニング向けのフレームワークが多数開発され、実装が容易になったため。
回答例
1.、3.、5. ですね。
解説
1. GPUで高速に学習できるようになったことが特に大きいと思います。ニューラルネットワークの学習や推論のアルゴリズムは並列演算がしやすく、本来画像処理に用いられていたGPUで効率的に並列演算ができます。これは(GPUメーカーのNVidiaにとって)偶然なのかもしれませんが、ディープラーニングの発展に大きく寄与しました。
2. 人間の脳の構造を実物通りに再現はできていません。ニューラルネットワークは、あくまで疑似的に再現したものに過ぎません。
3. 近年の状況の説明としてインターネットの普及は大きいと思います。ビッグデータと呼ばれるように、大規模なデータを使えることがディープラーニングの発展に大きく影響しました。大量のデータを学習データとして使用できると、学習データのバリエーションが増えて過学習が起きにくくなります。
4. 誤差逆伝播法(バックプロパゲーション; back propagation)はニューラルネットワークの学習手法で、古くからありますが、1986年に命名されて広く知られるようになりました。今の多層ニューラルネットワークの学習に使われている手法ではありますが、当時の計算機の性能の問題等があり、提案当初に多層ニューラルネットワークの学習が実現できたわけではありません。問題文は近年の急速なディープラーニングの発展を問うているので、この選択肢は当てはまらないと思います。
ただ、GPUによる並列演算の高速化に適したアルゴリズムであることから多層ニューラルネットワークの学習の実現に大きく寄与した手法ではあります。
多層ニューラルネットの学習を可能としたキーとなる手法としては、ジェフリー・ヒントンによる隠れ層の制限ボルツマンマシンの教師無し学習(オートエンコーダー)や、勾配消失問題を改善した活性化関数ReLUがあります。計算機の性能の問題に対しては、半導体技術の進歩や上述のGPUによる並列演算での高速化によって解決されました。
5. 当初はCaffeやTheano、今はTensorflowやPytorchなど、フレームワークが多数開発されて初心者でもディープラーニングを実装しやすくなりました。特に、GPUの並列化を可能とするNVIdiaのCUDAライブラリを簡単に使用できるようになりました。CUDAプログラミングは高いプログラミング技術を必要としますが、それを何も意識せずに高速化できるこれらのフレームワークが、ディープラーニングの発展に大きく寄与したと言えます。
難易度
この問題は、当てはまる選択肢を全て選ぶというところが少し悩みますね。難易度は普通でしょうか。
ディープラーニングの概要 2問目
Q. 以下の文章を読み、空欄に最もよく当てはまる選択肢を1つずつ選びなさい。
従来の機械学習で利用されていた最適化手法である最急降下法は、一度の学習にすべてのデータを利用することから(ア)と呼ばれている。しかし、ディープラーニングの場合データが大規模であることからそれが難しい。よって、確率的勾配降下法という手法が用いられることも多い。ひとつのサンプルだけを利用する手法は(イ)と呼ばれる。(ア)と(イ)は、どちらにも長所と短所があり、一定数のサンプル群を利用する(ウ)が採用されることが推奨される。
1. セット学習
G検定の例題 – 一般社団法人日本ディープラーニング協会【公式】
2. バッチ学習
3. オンライン学習
4. ポイント学習
5. サンプリング学習
6. ミニバッチ学習
回答例
(ア) 2、(イ) 3、(ウ) 6 ですね。
解説
次のように用語を覚えるしかありません。
(ア) 全ての学習データを使用するのが、バッチ学習です。
(イ) 1つの学習データを使用するのが、オンライン学習です。
(ウ) 一部の学習データを使用するのが、ミニバッチ学習です。
ディープラーニングの学習ではミニバッチ学習が使われています。確率的勾配降下法とセットで覚えておく用語です。バッチ学習は、最急降下法ですね。
オンライン学習は、データを取得する機器に学習器を搭載しリアルタイムに学習するという意味でも用いられる用語ではありますが、学術的には「ひとつのサンプルだけを利用」して学習アルゴリズムを実行し、機械学習モデルの学習パラメータを更新する方法です。
これらは少し意味が異なります。学術的な意味の方は、学習をどこでやるか、どういう状況で行うかといった意味あいはありません。文脈によって何を指しているのかは注意が必要です。ディープラーニング検定では、学習的な意味の方が問われると思います。
難易度
この問題は簡単な知識を問う問題ですので、難易度は易しいと思います。
ディープラーニングの概要 3問目
Q. あるニューラルネットワークのモデルを学習させた際、テストデータに対する誤差を観測していた。そのとき、学習回数が100を超えるまでは誤差が順調に下がり続けていたが、それ以降は誤差が徐々に増えるようになってしまった。その理由として最も適切なものを1つ選べ。
1. 学習回数が増えるほど、誤差関数の値が更新されにくくなるため。
G検定の例題 – 一般社団法人日本ディープラーニング協会【公式】
2. 学習回数が増えるほど、学習データにのみ最適化されるようになってしまうため。
3. 学習回数が増えるほど、一度に更新しなければならないパラメータの数が増えていくため。
4. 学習回数が増えるほど、計算処理にかかる時間が増えてしまうため。
回答例
2. ですね。
解説
1. 記載は正しいように思いますが、テストデータに対する誤差が増える原因とは異なります。
2. 学習データのみに最適化されて学習されてしまう現象を過学習と呼びます。学習データに対してのみ過剰に特化して学習がされてしまい、テストデータに対する誤差が大きくなってしまったということです。
3. 通常、学習回数が増えても一度に更新するパラメータは増えません。更新するパラメータ数は、ニューラルネットワークのノード数やレイヤー(層)数が大きい程増えます。
4. 通常、学習回数が増えても、各回の計算処理の時間が増えることはありません。また、誤差の値とは関係ありません。
難易度
この問題は、適切な選択肢を1つ選ぶだけということもあり、難易度は易しいと思います。
おわりに
日本ディープラーニング協会が認定および試験をしているディープラーニング検定のG検定について、ホームページにあるG検定の例題の「ディープラーニングの概要」の3問解き、解説を記載しました。
間違いなどもしありましたら、コメント欄などで指摘頂けると幸いです。
他の問題も、以下の記事で回答・解説を行っています。この記事の続きは次のリンクです。
他の問題は次の記事で扱っています。
コメント