フレーム問題(1)

フレーム問題とは、1969年に、
マッカーシーとヘイズによって指摘された人工知能の最大の難問である。

フレーム問題を説明する逸話としてこんなのがある。

警備員ロボット1号が、
「ある部屋に時限爆弾が仕掛けられたので、美術品を運んでほしい」
という命令を受けた。
ロボット1号は、命令を認識し、思考を回転させ、
「目的の遂行のためには美術品を持ち上げて動かす」という結論に達した。
しかし、時限爆弾は、美術品に取り付けられていた。
そのため、美術品を運び出すことには成功したが、そのうち爆弾は爆発し、
美術品もろとも、哀れ、ロボット1号は粉々に吹き飛んでしまった。



ロボット1号は「美術品に爆弾が取り付けられている」ということは、
ちゃんと認識していたのだが、
「美術品を運ぶと、爆弾も一緒に運ばれる」→「美術品が破壊される」
という推論ができなかったのだ。

そこで、この問題を改良したロボット2号が作られた。
今度のロボット2号は、
「自分の意図した行動だけでなく、その行動の結果として、
 周囲に何が起こるかを推論する機能」
を追加したのだ。

これでもう大丈夫!安全だ!

というわけで、ロボット2号は、部屋に向かい、
美術品を運んだときに起こりえる可能性を考え始めたわけだが…、

「え〜と、
 もし美術品を運ぶと,天井は落ちくるか?……落ちてこない。
 もし美術品を運ぶと,部屋の壁の色は変わるか?…変わらない。
 もし美術品を運ぶと,壁に穴があくだろうか?……あかない。
 ‥‥‥‥」

と無駄なことを 延々と思考しているうちに、
爆弾は爆発し、哀れ、ロボット2号は粉々に吹き飛んでしまった。

さて。
「べつに美術品を動かしても天井は落ちくるわけなんかないだろ!」
と言いたいところだが、
コンピュータのプログラムには、そんなことは事前にはわからない。
だから、一応、考えてみないと「関係ない」と結論づけることができないのだ。

そして、「美術品を運んだときに、考えられる可能性」というのは、無限にある。
だから、その無限の可能性について、ひとつひとつを処理をしていたのでは、
無限の時間がかかってしまうのだ。

では、
「爆弾と美術品に関係ないことを考える必要はないじゃないか?」と考えて、
「爆弾と関係のあることしか考えないロボット3号」を作ったとしても、
やっぱり同じこと。
ロボット3号は、「爆弾と何が関係があって、何が関係がないのか」を
無限の可能性の中から、延々と考え始めてしまい、
やっぱり、爆弾が爆発してしまうのだった。

このように、
「まわりの環境から、何が関係あって、何が関係ないか」を調べるために、
無限の計算が必要になって人工知能が止まってしまうこと、
これを「フレーム(枠)問題」と呼ぶ。

つまり、人工知能は、チェスやオセロのような、閉じられたルールの枠の中では、
有効に働くが、ひとたび、現実の世界のように開いた世界に飛び出すと、
逸話のロボットのように、情報を処理しきれずに、動きが停止してしまうのだ。

そりゃあそうだ。

 刻々と変わる状況。
 流れ込む大量の情報。
 次の瞬間に起こりえる無限の可能性。

コンピュータには、有限の処理能力しかないのだから、
何も動作できずに止まってしまう。
当たり前の話だ。

しかしだ。
人間には、このような「フレーム問題」は発生していない。
(何の知識も、先入観もない赤ちゃんでも)

もちろん、人間も有限の処理能力しか持っていない。
にもかかわらず、人間は、思考が暴走して停止することなく、
動作することができている。

なぜ、人間は「フレーム問題」が発生しないのか?
それは、研究者の間で、まだはっきりと意見がまとまっていないのが現状だ。