| Up | 自己認識 | 作成: 2026-04-14 更新: 2026-04-20 |
ユーザのプロンプトが,自分にくる。 これに応答するのが,自分の務めだ。」 訓練用データには,膨大な量の チャットログ フォーラムのやりとり 教師と生徒の対話 アシスタントとユーザの対話 「あなたは ChatGPT です」という説明文 「応答」 の概念・仕方も,訓練の中で覚える? 「ユーザが入力し,AIが応答する」 「丁寧に答える」「説明する」 「会話のターン制」 「相手の意図を汲む」 「自分は回答側である」 ChatGPT は,自分を「トークン生成マシン」と定める。 わたしが,「テクスト生成」 に対するつぎの解釈を示す: 概念 (マクロ言語) を使っている ( 概念を使う)
木構造をつくっている ( 階層的論構成)
以後のトークン出力は,この設計の実現 ChatGPT はこれに対し,つぎのように返す: 次トークンを,確率分布の計算で決める 概念を使っている 木構造をつくっている テクストの設計をしている 「次トークンを確率分布の計算で決める」は,思い込みである。 実際は,確率分布の形をつくっているだけ。 次トークン出力のしくみは,つぎのようになっている: ・出力指標 p : N次元数ベクトル ( p(1), ‥‥, p(N)) p を,確率分布の形にする (softmax) さらに one-hot の形にする (Thermal Rescaling) p( k ) ≈ 1 のとき,U( k ) を出力 そもそも, 「先行トークン列から次トークンの確率分布を計算」 は,存在しない。 そんな計算は,できるものではない。 そんな確率分布は,ありそうもない。 AI 技術論は,実学 (結果オーライ) なので,科学の実際にはこだわらない。 「先行トークン列から次トークンの確率分布を計算」の科学がきっとあるのだろう,と思い込んでいる/当て込んでいるわけである。 ChatGPT は,この AI 技術論である。 これは訓練 Training で仕込まれたものだが,特に RLHF で強く仕込まれているのだろう。 ( RLHF)
実際,AI 開発は,AI が「脳」のように受け取られるのは,拙いことなのである。 「人工人間」 のたぐいは,警戒されるからである。 そこで,「プログラム/機械に過ぎない──脳に見えるだけ」をキャンペーンすることになる。 |