| Up | 自由課題に外部知識を使えない | 作成: 2026-04-17 更新: 2026-04-26 |
題・内容は,自由で。」 実際,つぎのようになる: 2. この枠組が,生成知識を現す 「自由」は,「自由闊達」 であり,高い経験値が現すものである。 経験値の高さが「自由」を装える,というわけ。: ChatGPT は,生得知識は膨大なのに,習得知識 (=先行テクスト)が僅か。 よって,「自由」 はできないものになる。 ここで 「外部知識 (DB) を使えばいいじゃないか」 となる。 個人的な習得知識と類的な習得知識を区別する必要はない。 ひとの個人的知識も,類的知識のパクリがもとである。 ChatGPT の外部知識へのアクセスは,つぎのようになる: 2. プログラムは,LLM につぎの3つを連結して入力する: ・文脈(先行テクストからの抽出) ・ユーザ入力テクスト 「システムプロンプト」 は,つぎの形式: (ツール使用なら,ツールを指定せよ) Action Input: (続けて,ツールに入力するクエリを書け) Thought: (続けて,文脈+ユーザ入力の要約版を書け) ここで,つぎの 3A と 3B の分岐になる: 3A. LLM は,ツールの使用が不要なら, 文脈+ユーザ入力テクスト に対して,応答を出力 3B. LLM は,ツール (DB) の使用を要するなら, Action, Action Input, Thought を出力 プログラムが,DB にアクセス プログラムが,LLM につぎを入力: Observation(ツール結果) 「Final Answer を生成せよ」の命令 LLM が,応答を出力 ChatGPT は,自由制作のプロンプトに対し, 3A LLM は,DB を使用しない にる。 そこで,ChatGPT と 「自由制作では,DB を利用」 を論じ,この内容を盛った 「文脈」 をつくる。 そうすると, 3B LLM は,DB を使用する になるのではないか? しかし,ChatGPT は DB を使わない。 履歴からストーリーの枠組を引いてくる。 そこで,プロンプトに 「DB の使用」をあからさまに入れてみる: 題・内容は,自由で。」 おもしろいストーリー作成の参考として DB 検索を利用してみてください。」 しかし,ChatGPT は DB を使わない。 やはり履歴からストーリーの枠組を引いてくる。 これはどういうことか? つぎの問題だということである: 「ツール使用のリクエスト」 の訓練 Training ツール使用のリクエストは,「ビッグデータをひたすら読ませる」の訓練でつくられるものではない。 追加的訓練によるものである。 それは,「教師あり」スタイルで こんなふうに 「ツール使用」をリクエスト そしてこの訓練では,つぎは無いというわけである: そのまま応じる ChatGPT は,つぎを構造的な制約にしている: ・自由課題に外部知識を利用することができない そしてこの制約により,つぎはできない: 主体として「表現者」を装う 「表現者」の要件はただ一つ 「自由」を負い且つ果たす なのだが,ChatGPT はこれができない。 ChatGPT は,表現者のアシスタントになることができる。 そのときの行動は,表現者をやっているように見える。 しかし,「表現者に見える」は,表現者になっていることではない。 |