ディープラーニングg検定に申し込んで勉強してみた

こんにちは、アツです。
今話題のAIについて勉強しようと思って、色々調べていたんですが、用語がたくさん出てわかりづらくなってきました。
そんな時、ディープラーニングG検定という試験の案内(広告)が目に飛び込んできました。
しかも夏の試験はオンラインだから?か、いつもより割安なのです!
IT系の試験は高いので割安で申し込める今がチャンス。
というわけで、申し込んで、早速問題集やテキストを買ってきました。(1ヶ月前ですがw)
さて勉強。
章立ては問題集を参考にしました。

1章 人工知能をめぐる歴史と動向

1章は、いわゆる、AIの歴史ですね。AIって最近出てきたものかと思いきや、意外とちょっと昔の1956年、ダートマス会議で、ジョン・マッカーシーという人がはじめて使ったそうです。
そういえば、昔、ドラクエ4で、AI戦闘という言葉を初めて見まして、AIってなんだ?と子どもながらに思っていたのを覚えています。あれはたぶん1990年ぐらいかな?
あれよりも昔なら確かに納得です。

2章 機械学習の基礎

機械学習の全体をざっと見るところですね。
教師あり学習と教師なし学習、そして強化学習の3つに分かれるのでそれぞれがどういうものか、どんなものがあるか、を理解しておくとよさそうです。
教師あり学習は正解があり、それをみて学習するというやつで、なしのは、正解はなく、与えられたデータから規則性を浮かび上がらせて学習する感じですね。強化学習は、最適な行動を示せるようになるまで行動を繰り返して、学習するみたいな感じです。
あとは機械学習の前にやることとして、データの整理と、基礎集計についても学ぶようです。標準化、正規化、正則化、特徴量、ホールドアウト法、交差検証は覚えましょう。

第3章 機械学習の具体的手法

教師あり学習と教師なし学習の具体的手法を見ていく章です。
単回帰分析、重回帰分析、パーセプトロン、サポートペクターマシン、決定木、ロジスティック回帰、kNN法、k-means法、クラスタリングとクラス分類の違い、などについて学びます。

第4章 基礎数学

微分と偏微分の計算、ベクトルと行列の計算(和と積)、統計学基礎について学ぶ章です。
数学2Bや、数学3Cに出てくるやつですね。
私は文系だったので、行列は学んでいませんでした。
が、公式や、理屈がちゃんと分かればカンタンでした。
ここはもうとにかく数をこなすしかないですね。
ひとまず数学嫌いな方はちゃんと理解するか、もしくはスキップするかをお勧めします。
でもたぶんわかりやすい方に入るかなと思いますよ。

第5章 ディープラーニングの概要

ニューロンの計算と、ニューラルネットワークの構成要素、活性化関数、ディープラーニングの学習方法、勾配降下法について学びます。
活性化関数に関しては、どんな種類があるか、昔と今とでどう違うか、グラフと一緒に暗記しましょう。
ディープラーニングの学習方法の3タイプについても確認します。
また、それに関わる重みを更新した回数と訓練データを何度学習したかをなんという尺度であらわすか、は覚えましょう。
勾配降下法についても説明できるようにしましょう。
機械学習の定理として、バーニーおじさんのルール、ノーフリーランチ定理、みにくいアヒルの子定理、モラベックのパラドックスもどういうものか覚えておきましょう。

第6章 ディープラーニングの手法

活性化関数と、ニューラルネットワークの種類と特化タイプ、畳み込みニューラルネットワークの計算について学びます。
CNN、RNN、オートマータ、GANはどういうものか覚えておきましょう。

第7章 ディープラーニングの研究分野と応用

ここでは、音声認識、自然言語処理、深層強化学習、ロボティクス、の詳細と、AIに関わる法律、開発プラットフォームについて学びます。

第8章 模擬試験

はい、模擬試験です。
実際にはテスト中に調べても良いらしいです。ビックリ!
とはいえ、時間も限られてるので、ある程度は暗記した方が良さそうですね。
***
というわけで、ざっとまとめました。

書いた時点で、試験はもう終わっていますが。

試験前に上記を見直して、書かれているキーワードがどんなものかソラで思いつくようにした方が良いですね。
(私もそれを狙って上記を書いています。)
もちろんブログに書いたのとは別にちゃんと勉強は1ヵ月前からしていますので大丈夫です(笑)

テスト後も、こちらちゃんと説明できるかまとめていきたいと思います。