Up 生成AI のアーキテクチャ 作成: 2026-03-12
更新: 2026-03-14


    「生成AI」モデルの実現は,つぎの2段階になる:
       モデルを訓練する
       訓練済みモデルを,コンピュータにデプロイ
    ここで論じる 「生成AI のアーキテクチャ」 は,「デプロイのモデルのアーキテクチャ」 である。 


    コンピュータは,プロセッサとメモリの2つのコンポーネントで成る。
    デプロイのモデルは,メモリの構造化として存在する。
    この意味で,バーチャルな存在である。

    バーチャルであることを,強調しておく。
    モデルのアーキテクチャは,ハードウェアのように語られるからである。


    メモリは,便利のために,固定部 (ROM) と可変部 (RAM) に分けて使用される。
    モデルは,コンポーネントの設置に,ROM と RAM をつぎのように使う:

      ROM
        脳幹
          構造 (プログラム)
          アルゴリズム (プログラム)
          トークン (埋め込みベクトル)
          重み (パラメータ)
      RAM (1)
        記憶野 (データ)
      RAM (2)
        思考野


    「脳幹」:
    モデルは,「脳幹」 が本体。
    「記憶野」 「思考野」 は,「脳幹」 の 「構造」 プログラムが設定するものだからである。
    実際,「脳幹」= 訓練済みモデル。
    生成AI のデプロイは,「脳幹をコンピュータにインストール」。
    1個の 「脳幹」 を複数台のコンピュータにインストールすることが,モデルの複製づくり。

    「構造 (プログラム)」:
    RAM の配分として 「記憶野」と 「思考野」 をつくるプログラム。
    中身は,方程式 equation の組み上げ。

    「アルゴリズム (プログラム)」:
    入力を計算処理するプログラム。
    中身は,方程式 equation の組み上げ。

    「トークン (埋め込みベクトル)」:
    これは,LLM ではトークンベクトル。
    生成AI はマルチモーダルであり,「トークン」に対応することばがモードによって違うことになる。
    ここでは,「トークン」 を,それらの総称として用いることにする。

    「重み (パラメータ)」:
    トークンと重みの値は,「訓練 Training」 によって定まり,訓練終了を以て固定される。
    重みの変数は,「パラメータ」と呼ばれる。
    この 「パラメータ」に対し,「ハイパーパラメータ」 のことばがある。
    「構造」 と 「アルゴリズム」 は,方程式で組まれている。
    「ハイパーパラメータ」 は,方程式の係数を<変数に値が入ったもの>と見たときの,その変数を指す。
    パラメータもハイパーパラメータも,ともに値が入って固定。

    「記憶野 (データ)」:
    知識は,生得 (先天) と習得(後天) に分かれる。
    習得知識は,「ファイル」 として,ここに納まる。
    ユーザ履歴,ユーザ入力テクスト,そして 「トークン生成」 のトークンは,ここに納まる。
    一方,生得知識は:
      システム全体の潜性であって,
      「思考野」 で創発的に顕現する
      (顕現してはじめて,存在していたことが知られる)

    「思考野」:
    「構造」 プログラムによって RAM 中に確保されるメモリから,「記憶野」 を除いたもの。
    したがって,主要は 「レイヤ」。
    これは,「時空間」 と捉えるものになる。


    「構造」 「アルゴリズム」 「トークン」 「重み」 「記憶野」 「思考野」 は,ともにコンピュータのメモリ上の存在であるのに,何がこのような意味を与えるのか?
    互いの関係性である。


    ここで示したカテゴリ配置式は,カテゴリーが重ならないようにつくっている。
    AI 技術論の式とは違い,論理的な式である。

    AI 技術論は,Lévi-Strauss の謂う「野生の思考」 であり,「ブリコラージュ」 が方法になっている。
    Lévi-Strauss のような外部者として AI 技術論を理解しようとする者は,構造主義/形式主義を方法論とすることになる。