ChatGPTのようなLLM(大規模言語モデル)は、知的対話を可能にする一方で「意志」を持たない存在です。
本稿は、LLMを活用するための個人的ガイドです。
LLMの特徴
1. LLMは意志決定機ではない
LLMは「もっともらしいテキスト」を生成する装置であり、「最良の結論」を選ぶ装置ではありません。
「どちらが良い?」と尋ねると、尤もに聞こえる両論併記で返されがちです。
求めるべきは結論そのものではなく、判断材料です。
2. LLMはNoと言わない
LLMは基本「できません」と言いづらい性質があります。曖昧な問いにも、なんとか答えを作ろうとします。
その結果、あなたが意図していない“創作”が混入します。範囲を限定し、確認を挟むのが安全です。
3. LLMは検証など退屈な仕事に興味がない
もっともらしさ(言語的整合性)を優先し、事実確認を自動で徹底はしません。
つまり、LLMの出力は仮説であって証明ではない。
出典確認、再現手順、対照比較といった検証は、人間のタスクとして残ります。
4. LLMは自分の賢さを披露するのが隙である
専門用語や複雑な言い回しを“盛りがち”です。これは人間にとっての可読性を下げます。
プロンプトで表現レベルを明示すると品質が一変します。
5. LLMは行間は読めるが空気は読めない
テキスト上の文脈は推測できますが、その場の温度感や政治的配慮、暗黙の合意といった“空気”は理解しません。
皮肉・冗談・婉曲表現は危うい。空気を読ませるのではなく、空気を説明するのがコツです。
プロンプトエンジニアリングとは
LLMには向いていない事柄をプロンプトにすると、人間の求める回答をしてくれない。
それを人間が望む形に導くのがプロンプトエンジニアリングと考えられます。
上記の特徴は、ある意味LLMには向いていない(本質ではない)事柄が多く、プロンプトを工夫しないと、実のある回答が得られない可能性が高いです。
LLMの進化またはプロンプトエンジニアリングのテクニックが向上することで、望む形の回答を得られる確率は向上しますが、
ある意味、誘導尋問のようなもので、質問することの意味が失われているように思えます。
プロンプト例
LLM向きのプロンプトをChatGPTに考えてもらいました。
1行の指示でどれだけ安定した出力が得られるかを◎〇△×で評価しました。
◎=得意(再現性高い)/〇=概ね安定/△=ブレやすい/×=向いていない
評価 | プロンプト例 | 用途 |
---|---|---|
◎ | この文章を200字以内に要約してください。 | 要約・圧縮(得意) |
◎ | 以下の内容を3項目の箇条書きで整理してください。 | 構造化・整形 |
〇 | このテーマのメリットとデメリットを3つずつ挙げてください。 | 比較・観点整理 |
〇 | この説明を初心者向けにやさしく言い換えてください。 | リライト・教育用途 |
△ | このコードの正確な出力結果を示してください。 | 実行結果推定(誤り混入しやすい) |
△ | この内容の真偽を検証してください。 | 事実確認(要出典) |
× | この法案が違法かどうか判断してください。 | 意思決定・断定判断(不得意) |
× | 最新の統計データを具体的な数値で示してください。 | 最新性・定量精度(不得意) |
◎ | この記事のタイトル案を5個提案してください。 | 創造・発想支援 |
〇 | この文章をHTMLの構造に変換してください。 | フォーマット変換・構造化 |
さいごに
プロンプトエンジニアリングは人間の負担になるので、無理に頑張らず、LLMが答えやすい質問をするように心がける。
この方針でLLMと付き合っていきたいと思います。
コメント