パーセプトロン

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動先: 案内検索

パーセプトロン(perceptron)は、心理学者・計算機科学者のフランク・ローゼンブラット1957年に考案し、1958年に論文[1]を発表した、ニューラルネットの一種。

概要

視覚の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら学習能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、人工知能学者マービン・ミンスキーらによって理論的な限界値が示された事によって下火となった。他の研究者によって様々な変種が考案されており、1980年代にはニューロン階層を多層化したボルツマンマシンなどによって再び注目を集めた。2009年現在でも広く使われている機械学習アルゴリズムの基礎となっている。

形式ニューロン

神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって、形式ニューロンというモデルが考えられた。このモデルはチューリングマシンと同等の計算能力を持つ。

このモデルは、wを重みづけ、xを入力信号(0から1まで)、しきい値をhとするとき、Hをヘヴィサイドの階段関数とするとき、

<math>H(\sum_{i=1}^N w_ix_i-h)</math>

で表される。

パーセプトロン

ローゼンブラットはこの形式ニューロンの考え方を基にしてパーセプトロンを開発した。 S層(感覚層、入力層)、A層(連合層、中間層)、R層(反応層、出力層)の3つの部分からなる。 S層とA層の間はランダムに接続されている。 S層には外部から信号が与えられる。A層はS層からの情報を元に反応する。R層はA層の答えに重みづけをして、多数決を行い、答えを出す。

1970年頃、デビッド・マー[2]ジェームズ・アルブス[3]によって小脳はパーセプトロンであるという仮説があいついで提唱された。のちに神経生理学伊藤正男らの前庭動眼反射に関する研究[4]によって、平行繊維-プルキンエ細胞間のシナプスの長期抑圧(LTD, long-term depression)が見つかったことで、小脳パーセプトロン説は支持されている。

単純パーセプトロン

入力層と出力層のみの2層からなる、単純パーセプトロン(Simple perceptron)は線形非分離な問題を解けないことがマービン・ミンスキーシーモア・パパートによって指摘された。

多層パーセプトロン

デビッド・ラメルハートジェームズ・マクレランドはパーセプトロンを多層にし、バックプロパゲーション(誤差逆伝播学習法)で学習させることで、線型分離不可能な問題が解けるように、単純パーセプトロンの限界を克服した。

文献

  1. テンプレート:Cite journal
  2. テンプレート:Cite journal
  3. テンプレート:Cite journal
  4. テンプレート:Cite journal

関連事項

テンプレート:Psych-stub