LLMとは

コンピュータ

LLM(大規模言語モデル)は、我々が日常的に利用する日本語(自然言語)を理解し文章を作り出すAIモデルです。

ChatGPTやGeminiなどのAIは、チャット形式のインターフェースを通して利用します。
「プロンプト」と呼ばれる文章を入力することで、まるで人と会話しているような感覚で質問や相談ができます。
スマートフォンなどマイクとスピーカーを備えた環境では、文字どおり声での会話も可能です。

LLMを実際に使ってみた筆者の印象として、質問に対して「わかりません」と答えることがほとんどないように感じます。
人間でもそういうタイプの人がいますが、LLMは特にその傾向が強く、どんな質問にも何かしらの答えを返そうとする姿勢があります。

しかし、その結果として正しくない情報を自信たっぷりに答えてしまうことがあります。
これが、いわゆる「ハルシネーション(幻覚)」と呼ばれる現象です。

LLMを学ぶために、その内部構造を解き明かすAI研究者になる必要はありません。
大切なのは、どう使うかどんな結果が返ってくるのかを理解することです。
仕組みの詳細はブラックボックスでも、使い方さえ分かれば十分に役立つ技術です。

そもそも、LLMの内部で何が起きているのかは、研究者たちにもまだ完全には解明されていません。
言語モデルは「設計どおりに作られた知能」というよりも、膨大なデータを学習させた結果、偶然うまく言葉を扱えるようになったモデルと言えます。
つまり、AIは人間が意図的に作り出した“知能”というより、偶然見つかった知的なふるまいに近い存在なのです。

LLMの学習をざっくり言えば、大量の文章から「穴埋め問題」を作り、それを何億回も解かせるというものです。
たとえば「私は____を食べました」という文章の空欄に入る言葉を予測させ、その正解率を少しずつ高めていきます。
この訓練を膨大な文章データに対して繰り返すことで、やがてAIは「次に来そうな言葉」を高い精度で予測できるようになります。

感覚的にも、理屈上は「確かにうまくいきそうだ」と思える仕組みですが、実際にやろうとするととてつもない計算量とデータ量が必要になります。
以前は現実的に不可能だったこの方法も、近年のコンピュータ性能の向上によって、ようやく**“実際に試せる規模”**に到達したのです。
その結果、偶然とはいえ人間の言語を扱えるレベルのモデルが生まれました。

昭和の時代に幼少期を過ごした世代から見ると、LLMはまるで昔のSFに登場した「万能コンピュータ」のように見えます。
そのため、「これからは多くの仕事がAIに置き換わる」といった報道にも、どこか現実味を感じてしまうのです。
……まぁ、それこそがハルシネーションなんですけどね。

コンピュータという機械の特性としては、正確性や高速性といった点で人間をはるかに上回っています。
LLMもコンピュータ上で動作するソフトウェアである以上、本来はその特性を受け継いでいるはずです。
ところが実際のLLMは、しばしば正しくない答えを返したり、あたかも時間をかけて考えているような振る舞いを見せたりします。
つまり、LLMはコンピュータでありながら、人間に近い不確実さや曖昧さを併せ持つ存在なのです。

LLMの性能は日々向上しており、カバーできる分野も飛躍的に広がっています。さらに、AIと他のソフトウェアを安全に連携させる標準手順であるMCP(Model Context Protocol)が登場し、外部ツールやデータベースをAIから直接呼び出せるようになってきました。加えて、モデルが持たない最新・固有の情報を検索して取り込み、回答の正確性を底上げするRAG(Retrieval-Augmented Generation)も実装が進んでいます。
これらの進展により、LLMは「単体で賢い」から「周辺ツールとつながって実用的で使えるツール」へと段階的に進化しています。

万能コンピュータとLLMと同じように見えますが、違う点を挙げると、LLMは意思決定を行いません。どうしたらよいか?と問いかけても、求める答えが返ることは無いでしょう。また、答えが一つに収束する問題も不得意な傾向にあります。

これは、AIが発展途上だからではなく、設計目的がそもそも違うためです。LLMは「次に来そうな語を確率的に並べる生成器」であって、「目的・責任・制約の下で最良の行動を選ぶ意思決定器」ではありません。したがって、唯一解に収束させる問題や、利害調整を伴う選択は不得手です。役割はあくまで材料づくりと整理にあります。

週末の旅行プランを立てたり、今晩の夕食メニューを考えたりといった、選択肢を広げるタイプの質問にはLLMは向いています。
一方で、体調不良の原因を特定したり、人生設計や資産運用の相談といった、判断や責任が伴う分野では注意が必要です。
質問すればそれらしい回答は得られますが、有用性は低く、場合によってはハルシネーションによって誤情報を信じてしまう危険があります。

LLMは基本的に、どんな質問にも答えようとします。
そのため、用途を無理に限定する必要はありません。
ただし、人間が後から内容を検証できる範囲に質問を留めておく方が、安全で確実です。

そして、少し不思議に思えるかもしれませんが、最新の情報や未知の領域の質問は避けた方が無難です。
そうした質問をすると、この文章で何度も触れているハルシネーションを、実際に目の当たりにすることになるでしょう。
(一度経験すると、LLMの使い方の感覚がつかめるはずです。)

これは、モデル化されていない領域への質問に対して、LLMが「それらしい答え」を創造してしまうためです。
また、最新の情報は学習時点には存在しないため、「わからない」と正直に答えることができず、結果として誤った回答を生成してしまいます。

ものすごく物知りだけれど、マイルールに忠実で少し癖のある人と会話するような感覚で、LLMと付き合うとよいでしょう。

コメント