Up 時制が無い 作成: 2026-03-09
更新: 2026-03-09


    「生成AI」 のモデルは,つぎの2つのフェーズがある:
       構築時
       構築後

    構築は,「訓練」をする。
    これは,つぎが内容になる:
      パラメータ値の更新

    構築後は,「(教師あり) 学習」 として,つぎのことをする:
      生成したデータを出力
      ユーザがこのデータの評価を入力
      評価と自己史に整合的なデータを生成

    訓練のアルゴリズムは,順伝播と逆伝播で成る。
    訓練が終了すると,順伝播の方だけを残して,モデルとする。
    構築後の「学習」は,このアルゴリズムで行う。
      訓練アルゴリズム = 順伝播+逆伝播
      学習アルゴリズム = 順伝播


    しかし,AI 技術論の言語には,時制が無い。
    構築前と構築後が区別されない。
    そのため,こうなる:
      訓練 (構築時) = 学習 (構築後)=

    特に,こうなる:
      訓練 = 教師あり学習
      学習 = パラメータの更新
    それぞれ,つぎの誤謬である:
      訓練の「パラメータ更新」を,学習のものとする
      学習の「教師あり」を,訓練のものとする

    なんでこんな間違いをするのか,AI 界の外の者は大いにいぶかしがることになるが,これは言語に時制が無いことに因るのである。
    言語は,認識形式を定める。


    言語が認識形式を定めることは,かつて文化人類学で大いに研究された。
    それは,強大国の商業主義の世界進出が急速化して,いわゆる 「未開社会」 が急速に消えようとした時のことである。
    比較言語学の立場から,消える前に 「未開言語」 を急いで研究しておこうというので,フィールドワークが盛んに行われた。
    そして蒐集した言語の中には,時制の無い言語もあった。

    AI 技術論の言語に時制が無いのは,AI 研究の開始から長い間は,時制が必要なかったからである。
    時制は,「生成AI」 の登場によって必要なものになった。
    このモデルは,構築時とその後では,アルゴリズムの意味合いががらっと変わるからである。

    しかし,言語は,保守的で頑固である。
    時制が必要になった状況になっても,そのままを続ける。
    そして,上に述べたようになる。


    念のため,つぎの2つを押さえておこう:
     A. 訓練は,入力されるデータをただなぞるだけ
     B. 学習は,パラメータの更新は無い

    A. 訓練は,入力されるデータをただなぞるだけ
    データがテクストの場合,テクストのトークンを1つずつ読む (順伝播)。
    「次のトークン」を示す変数 p の値が,実際の次のトークンを指すように,パラメータを調整する (逆伝播)。
    例えば,「前方に見える道の ‥‥」のテクストを「前方に見える」まで読んだとき,pが「道」を指すようにパラメータを調整する。 
    どんな用途のモデルかによって,訓練用データは変わる。
    しかし,やっていることは,このテクストの例と同じであり,「ただなぞる」。

    B. 学習は,パラメータの更新は無い
    構築されたモデルは,不思議なことに,ユーザの評価と自己史に整合的なデータを出力するものになる。
    ここに,パラメータの更新は無い。
    そもそも,訓練が終了したモデルは,パラメータを固定することになる。
    訓練において技術者がアルゴリズムにつけていた意味/解釈は,このデータ出力を説明するものにはならない。