ディープラーニング実践編第1回 サポートベクターマシンの具体的手順 その1

サポートベクターマシン(SVM;Support Vector Machine)の具体的流れを、一次元特徴空間で説明。 一次元特徴空間でサポートベクターマシンのクラス分類境界を決定する問題は線形計画問題に帰着する。

記事を読む

ディープラーニング第8回 サポートベクターマシン その1

サポートベクターマシン(SVM;Support Vectot Machine)とは、教師あり学習を用いるパターン認識モデルの一つ。 サポートベクターマシンの分類器は各データとの距離が最大になる超平面。この超平面を決めるための境界付近の学習データを、(境界を決めるサポートをしている)サポートベクターという。 現在知られている手法の中でも認識性能が優れた学習モデルの一つ。

記事を読む

ディープラーニング第7回 特徴選択、高次元の特徴ベクトル

伝えたいことは、特徴ベクトルが高次元になることは多い、高次元の特徴空間で認識することは難しい、そのため特徴の次元を減らす工夫が必要の3つです。

記事を読む

ディープラーニング第6回 KNN(K Nearest Neighbor:K近傍法)

機械学習の代表的な方法であるKNN(K Nearest Neighbor:K近傍法)とは、特徴空間における最も近い訓練例に基づいた分類の手法。 また特徴空間を決める特徴は、できるだけ少なくし、認識に重要な特徴を選別することが重要。(ここはディープラーニングを理解するうえでとても重要!)

記事を読む

ディープラーニング第5回 特徴ベクトル、次元

コンピュータで取り扱うとき、事例を特徴空間で表現する。例えば、リンゴとバナナを形の丸さ、固さ、色、甘さ)の4つの特徴で表される特徴空間で記述すると、リンゴはA=(80,70,80,80) 、バナナは B=(5,30,5,90) と特徴ベクトルで記述できる。

記事を読む

ディープラーニング第4回 ベクトル、距離

ベクトルとは大きさだけでなく向きを持った量。 ある地点p から東にa、北にb、上にc 移動した場所は、pから√(a^2+b^2+c^2) 離れているといえる。 (数式は全然わからなくても本文で丁寧に説明します。)

記事を読む

ディープラーニング第3回 機械学習

機械学習には大きく以下の4つの分類があります。 教師有り学習、教師無し学習、半教師有り学習、強化学習。これらを簡単に説明していきます。

記事を読む

ディープラーニング第2回 人工知能その2

私たちの活動は、入力を受けて(五感で感じて)出力する(行動する)ことの繰り返し。知能とは、入力から適切な出力を出す能力といえる。 機械学習とは、人間が自然に行っている学習(入力に対する最適な出力を目指す)能力と同様の機能をコンピュータで実現しようとする技術・手法。

記事を読む

ディープラーニング第1回 人工知能その1

人工知能(AI:Artificial Intelligence)とは、人工的につくられた人間のようなふるまいや思考をするもの。定義はあいまいな用語。

記事を読む

ディープラーニング第0回 目次

ディープラーニングについてやさしく解説します。何の知識もない人でも記事を順番に読んでいけば必ずディープラーニングがわかる!初めての人のこのページから!

記事を読む