AIとは何か?

AIとはArtificial Intelligenceの略で人工知能の事である。前の記事でELIZAを紹介したが、ELIZAはコンピュータ上のプログラムである。それではELIZAは人工知能と言えるだろうか。今から40年近く前に日本語版ELIZAを開発した橋田浩一氏が「Yet Another Japanese ELIZA(にばんせんじにほんごいらいざ)1」という記事でELIZAと人工知能について語っている。

橋田氏が開発した日本語版ELIZA(SCAM)とのやり取り例を次に示す。括弧内はSCAMの出力。原文は訓令式ローマ字だが、わかりやすくするために漢字仮名交じり文に変換している。

% scam
(こんにちは)
こんにちは
(あなたの知っている人の事を聞かせてください)
僕の友達にはアホが多い
(あなたの友達にアホが多いとどうなるのですか?)
僕は友達と顔を合わせたくない
(合わせたくないのではなくて合わせられないのでしょう)
僕には都合の悪い事はないよ
(しかし全くないというわけじゃないでしょう?)
君は何か僕の噂を聞いた事があるのか
(あればいいというものでもないでしょう)
確かにそうだけど君は僕の事を知っているみたいだ
(確かにそうなのにあなたの事を知っているらしいとは不思議ですね)
不思議だがそうらしい
(不思議でなければどうなりますか?)
君は自分の噂を聞かないのかな
(わしには自分の噂を聞かないかどうかわからん)
人の噂はとても面白い
(面白いのは人の噂だけですか?)
何でもそれなりに面白いよ
(特にそれなりに面白いのは何だ?)
君と話しているとなかなか楽しいよ
(それは良かった)
僕は自分の噂を聞いてみたい
(人の噂が面白いからあんたは自分の噂を聞いてみたいのか?)
はい
(顔の話はどうなりました?)
顔の事はもう話したくない
(実は顔の事は話せないのではないですか?)
話せないのではなく話したくないのだ
(話したくないのではなくて話せないのでしょう)
君はなかなか人生の裏表に通じているね
(噂のせいで私は人生の裏表に通じているのですか?)
僕は噂でものを言ってはいないぞ
(ものを言っていない噂はいい噂ですか?)
噂はものを言うこともある
(噂とはあのものを言っていない噂のことか?)
頭が混乱する
(混乱するのは頭だけか?)
頭のほかに混乱するものがあるか
(頭のほかに混乱するものがあればわしは自分の噂を聞かないか?)
なんのことだ
(なんのことならばいいのだ ?)
しりません
(それは噂のことですか?)
普通は自分の噂なんかわからないよ
(だから噂はものを言うこともあるのですね)
q
%

ELIZA(SCAM)は人工知能だろうか。相手に知能があるかどうかを判断するテストとして有名なものにチューリングテストがある。

アラン・チューリングによって考案された、ある機械が知的かどうか(人工知能であるかどうか)を判定するためのテスト。

アラン・チューリングの1950年の論文、『Computing Machinery and Intelligence』の中で書かれたもので、以下のように行われる。人間の判定者が、一人の(別の)人間と一機の機械に対して通常の言語での会話を行う。このとき人間も機械も人間らしく見えるように対応するのである。これらの参加者はそれぞれ隔離されている。判定者は、機械の言葉を音声に変換する能力に左右されることなく、その知性を判定するために、会話はたとえばキーボードとディスプレイのみといった、文字のみでの交信に制限しておく2。判定者が、機械と人間との確実な区別ができなかった場合、この機械はテストに合格したことになる。

(出典:Wikipedia)

開発者の橋田浩一氏はチューリングテストについて次のように答える。

これは、人間の質問に対する機械の答えが人間の答えと見紛うほど人間らしいものであるときに、機械もまた考えているのだということにしようというものです。ただしこの場合、機械の答えと本物の人間サマの答えを見比べて、どちらが機械だか、人間だか、わからないぐらい紛らわしいことが必要なので、ELIZAがこれに合格するのはむずかしいでしょう。

Turing testは、「他人は知能をもつか?」という問いに対しては、当然ながらまったく何の役にも立ちません。したがって、知能というものの本質を問題にする立場からは、ELIZAがTuring testに合格するから知能があるとか、合格しないから知能がないとかいう議論には、満足しかねるわけです。

それでは橋田浩一氏は人工知能をどのように定義しているのだろうか。氏は、「何らかの快感原則をもち、自己参照をしながら『進化』していくプログラム」を人工知能と定義している。

快感原則とは、「とらえどころのない『目的』」のことで、それを次のように説明している。

知能をもつと思われる人間が、機械と違ってものごとに柔軟に対処できるのは、たとえば患者の症状から病名を判断するとか、不定積分をやるとかいう特定の目的に縛られていないからではないでしょうか。つまり、本質的には人間は、そういういかにも役に立ちそうな具体的な目的に縛られているわけではなく、もう少しとらえ所のない「目的」に導かれており、それがあまりに抽象的であるため、具体的な目的として記述できないのではないかと思われます。具体的な目的というレベルで考えるとき、人間の行動がしばしば一貫性を欠いているように見えるのもそのためでしょう。

一方、自己参照について次のように説明している。

さて、快感原則をうまく実行に移すには、それなりの手段が必要です。こうした手段は、ちゃんとしたカタギの生物の場合には生来の本能として備わっていることが多いのですが、どうも地球上では人間だけが飛び抜けてそういう本能を欠いているらしく3、抜群に気違いじみたことをやっているのは周知のとおりです。足りない本能を補って快感原則を現実に適用するためには、その手段を後天的に習得するしかないのですが、本能としてないものをデッチ上げようというのだから、いろいろと抽象的な概念の操作が必要になり、さらには、自分と外界との関係の中で快と不快を測り、その結果をfeedbackしてやるために、自分自身をもそうした概念操作の中に取り入れなければなりません。これを自己参照(self-reference)といいます456

さらに氏は、人工知能について次のように言っている。

「予めプログラムされた」以外のこともやる、少なくとも外面的には「自由意志」をもった「知的」なシステムであれば、その挙動を前もって予測することは事実上不可能であるはずですから、世のため人のためになるようにシステムを初期化ないし調教するというのは、至難のワザでしょう。「自由意志」をもっているのだからいくら知恵を絞って初期化してもこちらの期待どおりに成長してくれるとは限らないし、教育の効果だって怪しいもんです。親心とはウラハラに、反抗したり非行に走ったりする恐れもあるわけです。いや、そもそも人間にとって何が快感なのかがはっきりしないのですから、どういうことが世のため人のためになるのかわかったものではありません。つまり機械に何をしてもらいたいかがわからないので、初期化をやろうにも教育しようにも目標が定まらないわけです。

これは、つまり、人工知能が人間の役に立つかどうかはわからないということだ。すごい結論になってしまった。

とすれば、巷に溢れている「AIなんとか」は、実は人間の役に立つかどうかはわからないものということになる。そうなのか?

引用ばかりの記事になってしまったが、引用元の「Yet Another Japanese ELIZA(にばんせんじにほんごいらいざ)」は、私が学生時代に大変影響を受けた記事で、たまたまELIZAと人工知能について語られていたため、古いものながらついつい引用してしまった。その橋田浩一氏は、現在は東京大学大学情報理工学系研究科附属ソーシャルICT研究センターの教授だそうだ。

 

 

脚注

  1. 橋田, 「Yet Another Japanese ELIZA(にばんせんじにほんごいらいざ)」, bit, Vol. 16, No. 4 (April 1984). pp. 430-443.
  2. チューリングは元々、1950年に可能だった数少ないテキストのみの交信であるテレタイプ端末を想定していた。
  3. キリスト教では、これを原罪(original sin)と呼んでいるようです。
  4. 自己参照については、是非Hofstadterの労作(次の脚注)を読みましょう。また、本能の欠損と知能、文明の関係については、岸田秀氏の説(次の次の脚注)を参考にしました。
  5. Hofstadter, D. R., Gödel, Escher, Bach: An Eternal Golden Braid, Basic Books, NewYork (1979).
  6. 岸田秀, 「ものぐさ精神分析」, 青土社 (1977).

翻訳

Posted by 管理者