ページの先頭です


ページ内移動用のリンクです

  1. ホーム
  2. IIJについて
  3. 情報発信
  4. 広報誌(IIJ.news)
  5. IIJ.news Vol.177 August 2023
  6. 発見的な推論方法

人と空気とインターネット 発見的な推論方法

IIJ.news Vol.177 August 2023

今回は、AIが手中に収めている演繹/帰納とは別の、包括的な可能性を秘めた「アブダクション」という推論方法について紹介する。

執筆者プロフィール

IIJ 非常勤顧問

浅羽 登志也

株式会社ティーガイア社外取締役、株式会社パロンゴ監査役、株式会社情報工場シニアエディター、クワドリリオン株式会社エバンジェリスト
平日は主に企業経営支援、研修講師、執筆活動など。土日は米と野菜作り。

LLMは新しい知能か?

今号の特集でPreferred Networksの岡野原大輔さんと対談させていただきました。筆者の質問のひとつ一つに対し、知的刺激に満ちた応答を超高速で澱みなく返していただき、1時間ほどの時間があっという間に過ぎていきました。

対談に先立って、基礎知識を得るために、岡野原さんの著書『大規模言語モデルは新たな知能か』を拝読しました。大規模言語モデル(以下、LLM)とは、流行りのChatGPT(以下、本連載の慣例に従い「チャット君」)など、対話型AIを実現した主要な技術の一つです。同書によると、チャット君は2022年の11月に登場してから、わずか二カ月間で全世界の月間利用者数が1億人を突破したそうで、これはこれまでに発表されたあらゆる製品・サービスのなかでもっとも早いペースだそうです。今やチャット君やLLMを用いた同様のAIサービスを、さまざまなITサービスに組み込もうという取り組みが盛んに行なわれています。

これからはオペレータと対話していたと思ったら、実は相手はLLMだった!なんてことがさまざまな場面で起こるのかもしれません。そして気がついたらLLMの活用は当たり前になり、いかにその精度を高めていくかを各社が競う時代に突入していくように思います。

同書に引用されているオープンAI社らがまとめたレポートによると、LLMによってアメリカの労働者の約8割が、少なくとも10パーセントの仕事の内容に関して影響を受け、約2割が仕事内容の50パーセント以上に影響を受ける、と予測されています。さらに他の技術と組み合わされることで、労働者の約半数が仕事内容の50パーセント以上に影響を受けるとの予測もあります。ここで言っている「影響を受ける」とは、労働を補助する場合もあれば、置き換えを意味する場合もあるそうです。岡野原さんは同書で「LLMは人の知能と同じになることはないが、人がまだ付き合ったことのない新しい知能である」と言っています。我々はこの「新しい知能」を無視することはできず、これからいかに上手に付き合っていくのかを考えるフェーズに入ったと言えるでしょう。

演繹的推論と帰納的推論

ところで、同書のなかでもっとも興味深いと感じたのは、LLMが可能にすることの1つとして、人間の推論法である演繹と帰納の2つの異なるアプローチを、LLMにより融合できる可能性があるという点でした。実は、対談でもこの点について質問させていただいたのですが、文量的に割愛せざるを得なかったようで、ここで少し補足しておきたいと思います。ただ、筆者には、どのようにLLMが演繹と帰納を融合できるのか解説することは困難なので、代わりに演繹と帰納を融合できたらどんなすごいことになるのかを述べてみます。

演繹(deduction)とは、基本的な公理、普遍的な事実、法則を目の前にある事象に当てはめて、そこから予測される事実を導き出す推論です。例えば、三段論法は演繹型の推論方法で、「全ての人間は死ぬ」という普遍的な事実を、

「ソクラテスは人間である」という目の前の事象に当てはめて、「ソクラテスは死ぬ」という事実を推定します。一方、帰納(induction)は、個別の事象や観測結果から普遍的なルールを導き出す推論方法で、「ソクラテスは死んだ」、「プラトンは死んだ」、「アリストテレスも死んだ」、「太郎さんも花子さんも死んだ」など、複数の事実から「全ての人間は死ぬ」という普遍的事実を推定します。

演繹的推論は、たくさんの既知の法則や事実をルール化して、それらのルールにもとづいて推論を進める「ルールベース型AI」で用いられています。これはマニュアル化できる定型業務には向いていますが、複雑な業務や全てがルール化できない業務には不向きです。すでにルールというかたちで形式知化された領域では力を発揮しますが、そうでない場合に対応できないのです。

一方、帰納的推論は、たくさんのデータからその背後にあるパターンやルールを抽出して何かを予測したり判断したりする「機械学習型AI」で用いられています。「ディープラーニング」はこの手法の1つで、画像認識の精度が飛躍的に向上したり、囲碁や将棋では人間を打ち負かすほどの実力を獲得しています。帰納的推論の問題は、規則やパターンの判断はできるけど、それはあくまでも暗黙知の状態であって、明確なルールや法則というかたちでは形式知化できない点です。これはつまり、機械学習で認識したパターンやルールは、ルールベース型AIに渡して活用できないということです。

考えてみれば、LLMは文章化され、すでに形式知化された情報を大量に学習することで作られているので、特定分野に関する既知の情報をLLMで大量に取り込んでおいて(演繹的な知の獲得)、そこに機械学習によって個々のデータを用いた学習を組み合わせる(帰納的な知の獲得)といったことが、(具体的にどうするのかはまったくわかりませんが……)できるようになるのかもしれません。

「アブダクション」とは?

さらには「アブダクション(abduction)」という発見的な推論が可能になるかもしれないとも思えてきます。これはアメリカの論理学者チャールズ・パースが提唱した、演繹・帰納に並ぶ第三の推論方法です。アブダクションは、帰納に似ていますが、帰納からは多くの事例を直接説明するルールや法則しか導き出せないのに対し、アブダクションを用いると、さらに包括的な法則を発見できると言われています。

例えば、ニュートンは木から落ちるリンゴを見て万有引力の法則を発見しましたが、これは帰納だけでは無理な推論です。ナシも木から地面に落ちた、手に持った石も手放したら地面に落ちた……といったふうに複数の事実を観測した結果、帰納的に導き出せるのは「全ての物体は空中に放すと地面に落ちる(A)」という一般的事実に過ぎません。ここから万有引力の法則を見つけるには「全ての物体を空中に放すと地面に落ちるのは、地球を含む全ての物体のあいだに引力が働いているからではないか(B)」という、より大きな仮説、言い換えると、そこから(A)を演繹的に導き出せる大きな仮説(B)を思い付かなければなりません。そのうえで、惑星の動きを観測したり、軌道を計算するための数式を作ってみたりといった具合に、さらに演繹と帰納を組み合わせながら、仮説を検証していく必要があるわけです。逆に、AIが演繹と帰納を組み合わせられるようになるということは、アブダクションをできるようになるための第1歩ではないかと思うのです。

「そんなことまでAIができるようになるのか!」と思うと、ワクワクするでしょうか?不安になるでしょうか?少なくとも人間である我々は、AIがまだできないアブダクションのような仮説から新たな法則を発見したり、何かを創造する能力を必死に鍛えていくしかないように感じます。


ページの終わりです

ページの先頭へ戻る