Courseraの”Machine Learning”(Andrew. Ng, Stanford Univ.)を始めました.

周囲の人間がどうやら,Qiitaの“例の機械学習コースが良いらしいと知りながらも2年間スルーし続けたがやはり良かったという話”を読んだ様子.「なんで今更?」と思ったが,今再びトレンドらしい…!?

Week1は特筆すべきことはなし

  1. 教師あり学習,教師なし学習とは
    • 教師あり学習…Regression(回帰問題),Classification(分類問題)
    • 教師なし学習…Clustering(クラスタリング)
  2. 線形1次元回帰の場合の cost function の導入
    cost function J(\theta_0, \theta_1) = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left ( \hat{y}_{i}- y_{i} \right)^2 = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left (h_\theta (x_{i}) - y_{i} \right)^2
    ここで,h_\theta( x ) = \theta_0 + \theta_1 x
    n2okyp2weeavchlw2vaaug_d4d1c5b1c90578b32a6672e3b7e4b3a4_screenshot-2016-10-29-01-14-37
    これを最小化することが,h_\theta(x)の線形回帰式とデータ値yの差の最小2乗和を約束する.
    試しに適当な値を\thetaに入れてみると,J(\theta)は増大する.
  3. 最急降下法の説明(learning rate,収束速度)
    パラメータ$\theta$の更新は全て同時に行う
    \theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j} J(\theta_0, \theta_1)
  4. 行列計算の基礎(行列の和・積,内積)
広告

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト / 変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト / 変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト / 変更 )

Google+ フォト

Google+ アカウントを使ってコメントしています。 ログアウト / 変更 )

%s と連携中