AIは推論をしているのか?

投稿日: 2025/3/22

近年、大規模言語モデル(LLM: Large Language Models)が人間のような自然な言語生成能力を獲得しつつある中で、これらのモデルが本当に「推論」を行っているのかどうかは重要な問いである。LLMが行っていることは単なる模倣に過ぎないのか、それとも人間と同等とは言えずとも、ある種の推論を実現しているのか。本稿ではこの問いを出発点とし、推論の本質、主体的経験と身体の関係、そしてLLMと人間との違いについて考える。

推論とは何か

推論とは、前提から新たな知見を導く思考過程である。大きく分けて、必然的に正しい結論を導く演繹的推論、複数の事例から一般法則を導く帰納的推論、そして事象から推測して最もありそうな仮説を提唱するアブダクション的推論(仮説推論)が存在する。特にアブダクション的推論は、日常会話から科学的仮説形成に至るまで、様々な場面で頻繁に用いられ、我々の日常的な思考に深く根ざしている。

アブダクションはしばしば「創造的な推論」とも呼ばれ、観察された事実を最もよく説明する仮説を立てることに焦点を当てる。例えば、濡れた地面を見て「雨が降ったのかもしれない」と推測するのがそれにあたる。このような思考は医師が症状から疾患を仮定する場面や、我々が日常会話で相手の意図を読み取るときなどにも現れる。

言語理解においてもアブダクションは不可欠である。例えば「今日は寒いね」という発話は、単なる事実の指摘にとどまらず、暖房をつけてほしいという要請や、会話を始めたいという意図を含んでいる可能性がある。こうした意味の補完は、言外の文脈や社会的常識を前提として成立しており、人間の言語理解の根幹には、常にアブダクティブなプロセスが潜んでいる。

LLMの推論的ふるまいは“推論”なのか?

近年のLLMは、このアブダクション的推論を模倣する能力において顕著な進歩を遂げている。たとえば「モンスターハンターに登場しそうなモンスター名を考えて」と指示すれば、それらしい名前を生成し、それがどのようなモンスターなのか提案することができる。これは、過去の命名パターンから音韻的特徴を抽出し、類似する新規表現を出力するLLMの能力によるものである。

このようにLLMは莫大なテキストデータを学習し、その中の統計的パターンを捉えることで、あたかも人間のような推論を行っているかのような印象を与える。このことは推論の一部がパターン認識に強く依存していることを示唆している。

しかし、LLMの出力と人間の推論には決定的な差異がある。それは、人間がその過程において「主体的な経験や感情に基づく意識体験を伴っている」という点である。例えば「ドガルマグナ」というモンスターの名前を聞いた時、今まで自分が見知ってきたモンスターの様相を思い起こしながら、音の響きからその風貌や生態などを視覚、聴覚、触覚、感情などの意識感覚と結びつけて想像する。一方で、LLMは真の意味での理解を行っているとは言えない。その出力はあくまで深層学習に基づく統計的結果であり、身体性や経験に根ざした内在的な理解を持っているとは言い難い。

身体なき知性に意味は宿るか?

この差異を捉える鍵のひとつが、メルロ=ポンティの身体性の哲学である。彼は「私たちは身体を“持っている”のではなく、“身体である”」と述べ、世界との関係性は身体を通じて形成されると考えた。意味は抽象的な記号操作ではなく、知覚や運動、経験を通じて構成される。

この立場は現代の認知科学、とりわけ「4E認知科学」に受け継がれている。LLMには身体も環境との関係性もなく、意味はあっても“生きられた意味”ではない。意味理解には単なる形式的処理を超えた身体的経験の地平が不可欠である。

ここで哲学的ゾンビという思考実験を想起すると、LLMもまた、もっともらしく意味を語ることはできるが、「語っている自分」という主体を持たない。トマス・ネーゲルが指摘するように、意識の本質は内的で第一人称的な構造を持ち、「誰かにとっての意味」であることが決定的条件となる。

無意識的推論と意識化可能性

とはいえ、人間による推論も多くの場合、無意識的に行われる。たとえば、会話中に相手の表情や声色から瞬時に相手の感情を読み取るが、その根拠をすぐには説明できない。しかしそれでも重要なのは、人間の場合、必要に応じてそれを意識化し、自己の内側から説明できるメタ認知的構造が存在する点である。LLMにはこのようなメタ認知的構造がないと考えられ(あるとしてもそれは構造的な性質としてのメタであり、主体性のある自己としての顕現を示唆するものではない)、また言語化は可能でも意識化はできないと考えられる。

ここまでの議論を通じて浮かび上がるのは、とかく推論とは「主体的な経験や感情に根ざす意識体験」に根ざすということである。LLMが意味らしい出力を生成できても、それは経験や身体、自己に根ざした現象としての真の推論ではない。今後のAI技術の開発・利用にあたっては、AIの「推論」が表面的なものであることを明示し、人間の側に誤った錯覚を生じさせないような設計・利用が倫理的にも望ましいと言える。