チューリング・テスト

出典: フリー百科事典『ウィキペディア(Wikipedia)』
2013年3月9日 (土) 09:10時点におけるAddbot (トーク)による版 (ボット: 言語間リンク 39 件をウィキデータ上の d:q189223 に転記)
(差分) ← 古い版 | 最新版 (差分) | 新しい版 → (差分)
移動先: 案内検索

チューリングテスト (テンプレート:Lang-en-short) とは、アラン・チューリングによって考案された、ある機械が知的かどうか(人工知能であるかどうか)を判定するためのテスト。

アラン・チューリングの1950年の論文、『Computing Machinery and Intelligence』の中で書かれたもので、以下のように行われる。人間の判定者が、一人の(別の)人間と一機の機械に対して通常の言語での会話を行う。このとき人間も機械も人間らしく見えるように対応するのである。これらの参加者はそれぞれ隔離されている。判定者は、機械の言葉を音声に変換する能力に左右されることなく、その知性を判定するために、会話はたとえばキーボードとディスプレイのみといった、文字のみでの交信に制限しておく[1]。判定者が、機械と人間との確実な区別ができなかった場合、この機械はテストに合格したことになる。

このテストではしばしば、そこまで知性を備えていないコンピュータプログラムELIZAPARRYが有名)でも人間をだますことが可能で、こういった、一般には知性を認められないプログラムもチューリングテストによれば知的存在と判定されることになる。このような一見人工知能のように見えるものをサールは"弱いAI"とした。

このテストは多くの人を納得させたがすべての哲学者を納得させるにはいたらず、後にサールは中国語の部屋という反論を出している。

ファイル:Turing Test version 3.png
チューリングテストの「一般的解釈」。質問者であるプレイヤーCは、AとBどちらのプレイヤーがコンピュータでどちらが人間か回答しなければならない。質問者が回答のために使えるのは、文字上の質問に対する返事に限られる。

歴史

哲学上の背景

1956年に生まれた人工知能の分野[2]は、哲学的にかなり根が深い問題であった。機械は思考できるのかという問題には長い歴史の末に、心に関する二元論と唯物論にはっきりと分けられていた。二元論の立場からすれば、心は形而上の(もしくは少なくとも形而上の性質を持っている[3])存在であり、したがって単に物理的な文脈では説明できないことになる。一方で唯物論の立場からすれば、心は物理的に説明でき、したがって心を人工的に作りだせる可能性はあることになる。[4]

1936年、哲学者のアルフレッド・エイヤー他者の心(other minds)に関して、他者が自分と同様の意識体験を持っているとなぜ分かるのか? という有名な哲学的疑問を検討した。著書『言語・真理・論理』の中で、エイヤーは意識を持つ人間と意識を持たない機械を区別する方法を以下のように提案している。「私にとって、意識を持っているように見える対象が、本当は意識をもつ存在ではなく単なるダミーや機械であると判断する根拠は、意識の有無を判定するための経験的なテスト(empirical tests)のどれかに失格した、ということしかない。」[5]この意見はチューリングテストにとてもよく似ているが、この、エイヤーの有名な哲学上の古典がチューリングを支持しているのかは定かではない。

チューリング

イギリスの研究者は、1956年に至るまでの10年間、「機械の知性」を研究していた。これはレイショウ・クラブ(en:Ratio Club)のメンバーの共通のトピックであった。レイショウ・クラブはイギリスのサイバネティクス電子工学研究者による非公式の研究者グループで、チューリングテストの名前の由来であるアラン・チューリングもメンバーの一人だった。[6]

特にチューリングは、少なくとも1941年から機械の知性の概念に取り組んでおり[7]、1947年に「コンピュータの知性(computer intelligence)」について触れているのは、知られている限りで最も早い[8]。論文『知性を持つ機械』(Inteligent Machinery)の中で、チューリングは「機械に、知性を持ったふるまいができるかどうかという問題」[9]について検討しており、この中で後に発表するチューリングテストの先駆けとも思われる提案をしている。

チェスでなかなかいい試合をするペーパー・マシーンを作るのは難しくない[10]。さて、実験の被験者としてA、B、Cの三人を用意しよう。AとCはチェスがあまり上手くない。Bはペーパー・マシーンのオペレーターである。……手を伝えるための仕掛けをほどこした二つの部屋を使う。そしてC対AもしくはC対ペーパー・マシーンでゲームを行う。Cは自分の相手がどちらなのか、なかなか分からないかもしれない。

このように、チューリングは論文『計算する機械と知性』(Computing Machinery and Intelligence)を発表する以前から、数年間人工知能の可能性を検討していたのである。とはいえ発表された論文[11]で、この概念のみに焦点を当てたのは『計算する機械と知性』が最初である。

チューリングは1950年の論文『計算する機械と知性』を「私は、『機械は思考できるか?』という問題の検討を提案する」という主張で始めている[12]。チューリングが強調しているように、このような問題への伝統的なアプローチは「機械」と「知性」の定義から入ることである。だがチューリングはあえてそうせず、代わりに問題を「緊密に関係しており、比較的厳密な言葉で表現されている」新しい問題に取り換えたのである[12]。すなわちチューリングの提案は、「機械は思考できるか?」という問題を「機械は我々が(考える存在として)できることをできるか?」[13]に換えることであった。チューリングの主張するこの新しい問題の利点は「人間の、物理的な能力(capacity)と知的な能力の間の、公平で厳しい境界線」を引く、ということであった。

この方法を説明するために、チューリングは「模倣ゲーム」というパーティーゲームからひらめいたテストを提案している。模倣ゲームとは、男性と女性が別々の部屋に入り、ゲストはいくつかの質問を書き、それに対するタイプ打ちの回答を読んでどちらが男性でどちらが女性か当てるというゲームである。このゲーム中の男性は、ゲストに女性と思わせるのが目的となる。チューリングは以下のように作り直した模倣ゲームを提案している。

ここで問題だが、「このゲームにおけるAの役を、機械がやったらどうなるだろうか?」質問者は、男性と女性でゲームを行ったときと同じくらいの頻度で、間違った判断をするだろうか? この問題が、元々の「機械は思考できるか?」という問題を代替するのである[14]

論文の後部で、チューリングは二者間で行う「同じ」図式を提案しており、ここでは質問者はコンピュータか人間の、どちらかとだけ会話する[15]。このどちらの図式も、現在一般に知られているチューリングテストと正確には一致しない。チューリングは1952年に3つめの図式を提唱している。この、チューリングがBBCのラジオ放送で語ったバージョンでは、審査員はコンピューターにいくつか質問をする。コンピューターの役割は、審査員たちの多くを本物の人間(man)[16] と信じ込ませることである[17]

チューリングの論文では9つの反論が想定されており、論文が初めて発表されてから出された、人工知能に関する主要な議論がこの中にすべて含まれている。[18]

ELIZAとPARRY

ブレイ・ウィットビー(Blay Whitby)は、チューリングテストに関する歴史の中に、四つの大きなターニングポイントを挙げている。すなわち1950年の『計算機械と知性』の出版、1966年のジョセフ・ワイゼンバウムによるELIZAの発表、1972年のケネス・コルビー(en:Kenneth Colby)のPARRY製作、1990年のチューリング会議である。[19]

ELIZAは、ユーザーが打ったコメントからキーワードを探し出して動作する。キーワードが見つかれば、ユーザーのコメントを変換するルールが適用され、その結果の文章が返される。キーワードが見つからなければ、ELIZAは一般的な返事をするか、もしくは前に行った言葉を繰り返す[20]。さらに、ワイゼンバウムは来談者中心療法のセラピストのふるまいを真似るようにELIZAを作った。つまりELIZAを「実世界のことをほとんど何も知らないかのようにふるまえる」ようにしたのである。[21]これらのテクニックにより、ワイゼンバウムのプログラムはいくらかの人を騙し、実際の人間としゃべっていると思わせることができたのである。「ELIZAが人間『じゃない』なんて……とても納得できない」という被験者もいた[21]。このように、ELIZAはチューリングテストを通過できるプログラムの(おそらく最初の)一つであることが多くの人によって主張された。

コルビーのPARRYは「感情傾向(attitude)のあるELIZA」と呼ばれた[22]。PARRYはワイゼンバウムと(高度ではあるかもしれないが)同様の手法を使って偏執性統合失調症のふるまいを再現するよう試みたものである。研究を実証するため、PARRYは1970年代初期にチューリングテストのバリエーション試験を受けた。まずテレタイプ端末を通して、経験豊富な精神科医に、本物の患者とPARRYが動作するコンピュータの精神分析をさせた。次に別の精神科医のグループ33人に、この会話記録を見せる。そして、この二つのグループにどちらの「患者」が人間でどちらがプログラムか判別させた。[23]この実験では、正しく判別できた精神科医は48パーセントだった。当てずっぽうで決めたのと同様の数字である[24]

ELIZAもPARRYも、厳密なチューリングテストを通過できたというわけではないが、ELIZA・PARRY、そして同様のソフトウェアは、チューリングテストを通過できるようなソフトウェアが作られる可能性を示唆している。さらに重要なのは、そのチューリングテストを通過できるソフトウェアに含まれるのは、データベースと単純なルールの適用だけ、ということもありうることだ。

中国語の部屋

ジョン・サールは、1980年の論文『心・脳・プログラム』(Minds, Brains, and Programs)の中でチューリングテストに対する反論を提出した。これは「中国語の部屋」として知られる思考実験である。サールは、単に理解していない記号を処理しているだけでも(ELIZAのような)ソフトはチューリングテストに合格できると述べた。理解していないのならば、人間がやっているのと同じ意味で「思考」しているとはいえないということだ。したがって、チューリングのもともとの提案とは逆に、チューリングテストは機械が思考できるということを証明するものではないとサールは結論している。[25]

サールその他の心の哲学の研究者が提出した議論は、知性の本質、知性を持った機械の可能性、チューリングテストの価値についての、80年代・90年代を通しての激しい議論の火種となった。[26]

チューリング会議

1990年は、チューリングの『計算機械と知性』が最初に発表されてから40周年であったため、チューリングテストが再注目された。この年、二つの重要なイベントが起こった。まず、4月にサセックス大学で開かれたチューリング会議(Turing Colloquium)である。このとき様々な分野の学者・研究者が集まってチューリングテストの過去・現在・未来について話し合った。第二に、毎年一回のローブナー賞大会の設立である。

ローブナー賞

テンプレート:Main ローブナー賞では、チューリングテストを実際に行う場を毎年提供している。最初の大会は、1991年の11月に開かれた。ローブナー賞はヒュー・ローブナーによって開催され、アメリカマサチューセッツ州のケンブリッジ行動研究センター(the Cambridge Center for Behavioral Studies)が2003年まで運営していた。ローブナーが語ったように、大会の目的はAI研究を発展させることであり、また「それ(チューリングテスト)を実際にやろうとする人が誰もいなかった」ことも開催理由の一部である[27]

銀賞(聴覚)と金賞(聴覚・視覚)の受賞はまだない。だが、エントリーした中で、審判の意見による、「最も人間らしい(most human)」会話上のふるまいを見せたコンピュータシステムに毎年銅賞が贈られている。Artificial Linguistic Internet Computer Entity (A.L.I.C.E.[1] 人工言語インターネットコンピュータ体)は近年3回(2000、2001、2004)銅賞を受賞している。学習型AIのJabberwackyは2005年と2006年に受賞している。Jabberwackyの制作者たちは、テストの通過のため、テストの前に人間のプレイヤーと長く会話しておき、テストの際はこのプレイヤーの真似に専念する、という個人化バリエーションの機能を導入した[28]

ローブナー賞で試験されるのは会話上の知性である。受賞プログラムは典型的な会話ボットであり、人工話者(en:Artificial Conversational Entity (ACE))である。初期のローブナー賞では会話の制限がルールとなっていた。エントリーされたプログラムや隠れた人間が話すのは一つの話題のみで、同様に、質問者も一回につき一行のみに制限された質問を行っていた。この会話制限のルールは1995年のローブナー賞では取り払われ、様々な長さの会話がなされるようになった。サリー大学で行われた2003年のローブナー賞では、質問者はプログラムもしくは人間の相手と5分間話すことができた。2004年から2007年は、20分以上会話に時間をとってもよいことになった。2008年には質問の制限時間は1組あたり5分になった。これは主催者(ケビン・ウォーリック Kevin Warwick [2])とまとめ役(ヒューマ・シャー Huma Shah [3])が、長い会話をしたからといって、人工話者がほんとうに進歩したとはいえないと考えたためであった。皮肉にも、2008年の受賞プログラムのエルボットは人間を真似るものではなかった。個性はロボット自身のものだったにもかかわらず、人間と並行比較して、3人の質問者を騙し、人間だと思わせた。会話記録はwww.loebner.netに残っている。

ローブナー賞により、チューリングテストの現実性や、テストを実行する意義について新たに議論が巻き起こった。エコノミスト誌は、「artificial stupidity」(人工馬鹿)というタイトルの記事中で、最初のローブナー賞受賞プログラムの受賞理由(少なくとも理由の一部)が、「人間らしいタイプミスを真似」できたからだと書いている[29](チューリングは、出力にミスを加えれば、プログラムはゲームのより良い「プレイヤー」になると勧めている[30])。チューリングテストの通過に挑戦するのは他の実のある研究の邪魔になるだけだと言うものもいる[31]。ローブナー賞の初期に第二の問題が起こった。「単純な(unsophisticated)」質問者を使ったため、知性と思われる何らかの要素よりも、器用に作られたごまかしが通過できたということである[32]。ローブナー賞は2004年から質問者の中に哲学者・計算機科学者・ジャーナリストを配備している。

2005年 会話システム会議

2005年11月、サリー大学の主催で人工話者の開発者たちの1日集会が初めて開催され、ロビー・ガーナー、リチャード・ウォレス、ロロ・カーペンターらの、ローブナー賞受賞者も出席した。招聘された講演者は、デビッド・ハミル[4]、ヒュー・ローブナー、ヒューマ・シャー[5]など。

AISB2008 チューリングテストについてのシンポジウム

2008年、レディング大学で開かれたローブナー賞と並行して、AISB(Artificial Intelligence and Simulation of Behaviour人工知能および行動シミュレーション)研究会が、チューリングテストについて話し合う1日シンポジウムを開いた。主催はジョン・バーンデン、マーク・ビショップ、ヒューマ・シャー、ケビン・ウォーリック。講演者はイギリス王立研究所理事のスーザン・グリーンフィールド(Baroness Susan Greenfield)[6]、Selmer Bringsjord、チューリングの伝記作家アンドリュー・ホッジズ[7]、認識科学者オーウェン・ホラント[8]などである。正式なチューリングテストに関する合意は得られなかったが、Bringsjordは相当に大きな賞を設ければ、チューリングテストの通過は早くなるだろうと語った。

チューリングテストの別バージョン

ファイル:The Imitation Game.png
チューリングが『計算機械と知性』で述べた模倣ゲーム。プレイヤーCは書面上でのいくつかの質問を通して、他の二人のプレイヤーのうちどちらが男性でどちらが女性か当てる。プレイヤーA(男性)はプレイヤーCを騙して間違わせようとしている。一方プレイヤーBはプレイヤーCを手助けしようとしている。

チューリングテストの初期バージョンには主に少なくとも3つがある。二つは『計算機械と知性』で述べられたもので、もう一つはソール・トライガー(Saul Traiger)が「標準解釈」と述べた[33]バージョンである。この「標準解釈」が、チューリングが述べた通りのものなのか、チューリングの論文のミスリードに基づくものなのかには議論があるが、これらの三つのバージョンは同値であると見なされておらず[33]、それぞれ長所と短所がはっきりしている。

模倣ゲーム

先述したように、チューリングは三人のプレイヤーからなるただのパーティーゲームについて書いている。プレイヤーAは男性、プレイヤーBは女性、プレイヤーC(質問者)の性別はどちらでもよい。模倣ゲームの中で、プレイヤーCはプレイヤーA・Bのどちらも見ることができず、文字の書かれたメモを通してしかコミュニケーションできない。プレイヤーAとBにいくつか質問することで、プレイヤーCはどちらが男性でどちらが女性かの判断を試みる。プレイヤーAの役は、質問者を騙して間違わせるのが役目で、一方プレイヤーBは質問者を手助けして正しく答えさせるのが役目である。[34]

チューリングはコンピュータがプレイヤーAの役をするのはどうかと提案した。これがスーザン・G・スターレットが「原型模倣ゲームテスト(Original Imitation Game Test)」[35]と呼ぶテストである。したがってコンピュータの役目は、女性になりきって質問者を騙し、間違った答えを出させることである。コンピュータが成功したかどうかは、プレイヤーAがコンピュータの場合の結果とプレイヤーAが男性だった場合を比較して判断する。チューリングが述べたところでは、もし「男性と女性でゲームを行ったときと同じくらいの頻度で、(対コンピュータのゲームで)間違った判断をする」[14]ならば、そのコンピュータには知性があると言える可能性がある。

ファイル:Turing Test Version 1.png
原型模倣ゲームテスト。プレイヤーAがコンピューターと入れ替わる。コンピューターは女性の役をしなければならない。一方女性は引き続き質問者を手助けする。

チューリングの1950年の論文で第二のバージョンが発表された。原型模倣ゲームテストと同様に、プレイヤーAの役はコンピュータが演じるが、プレイヤーBの役が女性ではなくman(男性、人間)になっている点が異なる。 テンプレート:Quote

このバージョンでは、プレイヤーA(コンピュータ)とプレイヤーBはどちらも質問者を騙して間違った答えを出させようとしている。[36]

標準解釈

チューリングテストは単に「コンピュータは質問者を騙してコンピュータを女性と思いこませるられるか」を確かめるのが目的ではなく、「コンピュータは人間の真似をできるか」を確かめるのが目的である、という共通見解があり[36]、――この見解がチューリングの意図通りのものなのかという議論もあるが、スターレットはこの見解を信じており[35]、これに合わせて第1・第2のバージョンをまとめている。トライガーなど、この見解を否定しているものもいる[33]――この共通見解から「標準解釈」とされる解釈が導き出された。この標準解釈のバージョンでは、プレイヤーAはコンピューターでプレイヤーBは人間(性別はどちらでもよい)である。質問者の役目は、どちらが男性でどちらが女性であるかを当てることでなく、どちらがコンピュータでどちらが人間かを当てるものである[37]

模倣ゲームvs標準チューリングテスト

どの解釈がチューリングの意図したものなのかについては議論があった[35]。スターレットは、チューリングの1950年の論文にある二つのテストは、チューリング自身の発言とは逆に、同値ではないとしている。パーティーゲームを用いて正解頻度を比べるテストは「原型模倣ゲームテスト(Original Imitation Game Test)」と呼ばれ、一方で人間および機械と会話して、人間が(会話相手が機械かどうか)裁定するテストは「標準チューリングテスト(Standard Turing Test)」と呼ばれる。スターレットは、これを模倣ゲームの第二バージョンではなく「標準解釈(standard interpretation)」であると述べている。標準チューリングテストには、批判者も指摘する問題がいくつかあるが、定義上の原型模倣ゲームテストは標準チューリングテストと決定的な違いがあるため、それらの問題の多くに免疫があるという。原型模倣ゲームテストは判断基準を設定するために人間のふるまいを使用するけれども、人間のふるまいを真似できるかは判断基準にしていないのである。人間(男)が原型模倣ゲームテストに落ちることもありうるが、落ちることによって臨機応変の才に欠けた人が分かる、ということは知性のテストとして望ましいというのがスターレットの主張である。つまり原型模倣ゲームテストでは「会話の振る舞いのシミュレーション」ではなく、知性が伴う臨機応変の才が必要になる、ということだ。この原型模倣ゲームテストの基本構造は、非言語の模倣ゲームにも使える[38]

他の著作家[39]もチューリングは模倣ゲーム自体をテストであると主張していたと解釈しているが、パーティーゲームとしての模倣ゲームを使ってチューリングが提案したテスト(スターレットの言う原型模倣ゲームテスト)に関して、ゲーム1ラウンドあたりの成功数ではなく、(パーティーゲームとしての)模倣ゲームとの成功頻度の比較を判断基準に据える、というチューリングの言説をどう考えるかは特定できていない。

質問者はコンピュータのことを知っているべきか?

参加者のひとりがコンピュータだとテストの質問者は知っているのかどうか、チューリングは明言しなかった。原型模倣ゲームテストに関しては、チューリングはプレイヤーAが機械と入れ替わると言っただけで、プレイヤーCにこの交代が知らされるとは書いていない[14]。F・D・ヒルフ、S・ウェーバー、A・D・KramerがPARRYをテストした時は、機械の存在を知らせていた。質問者はインタビュー対象のひとりかそれ以上機械がいるのか知るまでもないとしている。[40]しかし、Ayse Sayginなどが強調しているように、この問題はチューリングテストの実装および結果に大きな違いを産む。

テストの強み

話題の広さ

チューリングテストの強みの理由は、何について話してもよいという点である。チューリングは「我々が努力しようと思うようなどんな分野だろうと、その導入にはQ&A方式が適切であるように思える」と記している。[41]John Haugelandは「言葉を理解する、というのは不十分だ。話題を理解しなくてはならない」と補足している[42]

うまくデザインされたチューリングテストを通過するには、機械は自然言語常識的推論知識学習を活用しなければならない。またチューリングテストを映像入力や対象を取り入れる「入り口」を含めた形に拡張することもできる。こうなると機械は映像ロボット工学の技術も導入しなければならなくなる。これらによって、人工知能の主な問題はほぼ全て出そろう[43]のである。

テストの弱み

これらの強みや評価にもかかわらず、チューリングテストはいくつかの立場から批判されている。

人間の知性vs一般的な知性

テンプレート:See チューリングテストは、「知性」や「知覚力」があるかをテストするものではなく、コンピューターが人間を真似ることができるかをテストするもので、明らかに擬人的である。チューリングテストが一般的に言う知性(intelligence)を試験できない理由は二つある。

  • 人間の行動には知性によらないものがあるが、チューリングテストでは、機械は知性によるものであろうとなかろうと、全ての人間の行動をこなす必要がある。チューリングテストでは、全く知性に欠けたふるまいと思える行動さえも試される。例えば侮辱に対して反応したり、嘘をつきたいと考えたり、もしくは単純に高頻度でタイプミスをしたり、などである。タイプミスなど諸々の人間の行動の細かい真似ができない機械は、どんなに知性があろうとテストは不合格になる。
  • 知性による行動の中には、非人間的なものもある。難しい問題を解いたり、独自の洞察を思いついたりといった、すぐれて理知的な行動は、チューリングテストでは試されない。機械のほうからすれば、ごまかしが事実上必要になる。もしも人間には解けないような計算問題を素早く解いてしまうと、定義によりテストには不合格になる。

非実用性

スチュアート・J・ラッセル(en:Stuart J. Russell)とピーター・ノーヴィグは、チューリングテストは、その擬人観のせいで知性を持つ機械の工学上の課題としてあまり実用的ではなくなってしまっていると主張した。ラッセルらは例えを用いて、「航空力学のテキストは、その部門における目標を『他の鳩を騙せるくらいに、鳩と全く同じように飛ぶ機械を作ること』と定義したりしない」と説明している。[44]この非実用性のために、最も普遍的な解釈のチューリングテストへの挑戦は、2005年の時点では学術的・商業的な取り組みの主流からはあまり目を向けられていない。人工知能関係の分野での研究は、現在もっと小規模かつ特定された目標に注目している。

ラッセルとノーヴィグは、プログラムをテストする方法はもっと簡単なものがあるため、「人工知能の研究家は、チューリングテストの合格にほとんど注意を払っていない」と書いている[45]。例えば、人と機械を入れたチャットルームでまず質問するというような遠回しな方法よりも、直接命令を与えたほうが簡単なのだ。チューリングは、自らが考えたテストがAIプログラムにおける実際の日常的な指標として用いられるとはまったく意図していなかった。チューリングは、人工知能の哲学を語る際の助けとなる、明確で理解しやすい例を提示しようとしたのである。[46]

現実の知性vsシミュレート上の知性

チューリングテストはまた、対象のふるまいのみを試すという点で明らかに行動主義機能主義である。チューリングテストに合格する機械が人間の会話上の振る舞いをシミュレートできるのは、ただ巧妙に作られたルールに沿っているだけだから、ということもありうる。この文脈における有名な反論は、ジョン・サール中国語の部屋と、ネド・ブロックブロックヘッドの二つがある。

知性の作業定義としてチューリングテストが有効であったとしても、チューリングテストによって機械に意識(consciousness)や自主性(intentionality)があるかを測れるとは限らない。たとえば知性と意識がそれぞれ別個の概念だったとしたら、チューリングテストは知性のある機械と知性のある人間との間にある、鍵となる相違を見いだせないということもありうる。

予測

機械は、2000年までにはチューリングテストに合格できるようになるだろうとチューリングは予測していた。それどころか、チューリングは2000年までに10億ビット(約119.2メビバイト、約120メガバイト)のメモリがあれば、機械は5分間のテストで人間の審判の30%を騙せると予測していたのだ。そうなればもはや「考える機械(thinking machine)」という語は矛盾と考えられなくなるだろうし、また機械学習がすぐれた機械の構築の重要部分になりると予測しており、当時の人工知能研究者もこれを妥当であると考えていた。

以前の数十年にわたる技術の指数関数的な成長を根拠に、未来学者のレイ・カーツワイルは、チューリングテストに合格できるコンピュータは、2020年ごろに作られるだろうと大まかに予測した。[47]

ロング・ベット・プロジェクトは、ミッチ・ケイパーとカーツワイルの間で交わされた、コンピュータが2029年までにチューリングテストに合格できるかについての1万ドルの賭けである。この賭けでは条件がかなり詳細に設定されている。[48]

バリエーション

先述したものも含め、チューリングテストには数多くの別バージョンが議論されてきた。

反転チューリングテストとCAPTCHA

対象者や、それぞれの役目における機械・人間を反転させたチューリングテストは、反転チューリングテストと呼ばれる。これには精神分析学者のウィルフレッド・バイオン(en:Wilfred Bion)の著作[49]で触れられた例がある。バイオンは特に、心と別の心の出会いが生む「嵐(storm)」に注目していた。ロバート・D・ヒンシェルウッド(R. D. Hinshelwood)はこの考えを進めて、心は「装置(apparatus)を認識する心」であるとし、このことがチューリングテストのある種の「補足」になりうると述べている。この場合の課題は、「関わっている相手が人間か別のコンピュータなのか、コンピュータ自身が判断できるか」になる。これはチューリングが試みた問題の拡張であり、人間らしく見えるように「考える」機械を見つけ出すためには、より高い水準の機械が必要となるであろう。

CAPTCHAは反転チューリングテストの一種である。ウェブサイト上で何らかの行動をする許可を得る前に、ユーザーはねじれた画像上の文字列を見せられ、その文字列を入力するように求められる。これは自動システムによるサイトへの嫌がらせを防ぐことを目的としている。歪んだ画像を読み込んで再処理するほどの進んだソフトが存在しない(少なくとも通常のユーザーには利用できない)ため、このような処理ができるシステムは人間だけである、ということがCAPTCHAの原理になっている。つまり裏を返せば、(おそらくだが)人工知能がいまだ完成されていないということになる。

専門家チューリングテスト

専門家チューリングテストと呼ばれるバージョンでは、機械の反応は特定の領域の専門家によって比較される。脳や体のスキャン技術が進歩すれば、人間のデータ要素をコンピュータシステムに複製することも可能になるかもしれない。[50]

不滅性テスト

不滅性テストと呼ばれるバリエーションは、人間の主要な個性が、オリジナルの人物と区別できないくらいそっくりに複製できたかを調べるチューリングテストである。[51]

最小知性シグナルテスト

最小知性シグナルテストは、クリス・マッケンストリー(Chris McKinstry)が提唱したチューリングテストのバリエーションである。YES/NOの返答のみが許可される。このテストは主に、人工知能プログラムと対照するための統計データを集めるために使われる。

関連項目

外部リンク

テンプレート:SEP

脚注

テンプレート:Reflist

参考文献

テンプレート:Refbegin

テンプレート:Refend

テンプレート:心の哲学
  1. チューリングは元々、1950年に可能だった数少ないテキストのみの交信であるテレタイプ端末を想定していた。
  2. テンプレート:Harvnbテンプレート:Harvnbテンプレート:Harvnb
  3. 性質二元論の例としてはクオリアを参照
  4. 唯物論が人工的な心の可能性を「必然的に伴う」わけではない。二元論も同様に、「必然的に排除する」わけではない(例:性質二元論)。
  5. Language, Truth and Logic (p. 140), Penguin Books 2001
  6. テンプレート:Harvnb
  7. テンプレート:Harvnb
  8. テンプレート:Harvnb
  9. テンプレート:Harvnb
  10. 1948年、大学の先輩だったD・G・チャンパーノウン(en:David Gawen Champernowne 経済学者)との研究のかたわら、チューリングはまだ存在しなかったコンピュータのためのチェス・プログラムを書き始めた。1952年には、プログラムを実行する処理能力を持ったコンピュータはなかったが、チューリングが一手につき30分かけてプログラムを再現したゲームを行っていた。このゲームは記録されており、プログラムはチューリングの同僚のアリック・グレニーに負けた。とはいえチャンパーノウンの妻との試合には勝ったといわれている。
  11. 『知性を持つ機械』はチューリングによって発表されたのではなく、1968年のC・R・エヴァンズ、A・D・J・ロバートソンによる『サイバネティクス:重要論文集』(Evans, C. R. & Robertson, A. D. J. (1968) Cybernetics: Key Papers, University Park Press.)で初めて発表されたものである
  12. 12.0 12.1 テンプレート:Harvnb
  13. テンプレート:Harvnb
  14. 14.0 14.1 14.2 テンプレート:Harvnb
  15. テンプレート:Harvnb
  16. チューリングはmanの意味を「男」とも「人間」とも明示していない。前者の場合は、この図式は模倣ゲームに近くなる。後者の場合は、現在言われているようなチューリングテストに近くなる。
  17. テンプレート:Harvnb
  18. テンプレート:Harvnb。参考:テンプレート:Harvnb「チューリングは人工知能の可能性に対して考えうる反論を幅広く検討した。このなかには彼の論文が現れてから半世紀の間出されたものがほとんど全て含まれていた。」
  19. テンプレート:Harvnb
  20. テンプレート:Harvnb
  21. 21.0 21.1 テンプレート:Harvnb
  22. テンプレート:Harvnb
  23. テンプレート:Harvnb
  24. テンプレート:Harvnb
  25. テンプレート:Harvnb
  26. テンプレート:Harvnb
  27. テンプレート:Harvnb
  28. 参照:[9]
  29. テンプレート:Harvnb
  30. テンプレート:Harv
  31. テンプレート:Harvnb
  32. 特にテンプレート:Harvnbテンプレート:Harvnb
  33. 33.0 33.1 33.2 テンプレート:Harvnb
  34. テンプレート:Harvnb
  35. 35.0 35.1 35.2 テンプレート:Harvnb
  36. 36.0 36.1 テンプレート:Harvnb
  37. テンプレート:Harvnb
  38. テンプレート:Harvnb
  39. テンプレート:Harvnbテンプレート:Harvnbテンプレート:Harvnbテンプレート:Harvnb
  40. テンプレート:Harvnb
  41. テンプレート:Harvnb"Critique of the New Problem"(新しい問題の批判)中にて
  42. テンプレート:Harvnb
  43. "These six disciplines," 著者 Stuart J. Russell and Peter Norvig, "represent most of AI". テンプレート:Harvnb
  44. テンプレート:Harvnb
  45. テンプレート:Harvnb
  46. テンプレート:Harvnb"The Imitation Game"(模倣ゲーム)の見出しで、こう書いている。「このような定義を試みる代わりに、問題に緊密に関係しており、比較的厳密な言葉で表現されている新しい問題に取り替えてみよう」
  47. テンプレート:Harvnb
  48. Long Bets - By 2029 no computer - or "machine intelligence" - will have passed the Turing Test
  49. テンプレート:Harvnb
  50. The Singularity Is Near: When Humans Transcend Biology (Viking Penguin, ISBN 0-670-03384-7)
  51. The Age of Spiritual Machines: When Computers Exceed Human Intelligence (2000)