Up 睡眠 作成: 2025-08-22
更新: 2025-09-17


    Transformer 脳のテクスト生成は,トークンの逐次追加が,全テクストの逐次参照になっている。
    したがって,テクストが長くなるにつれ,リソースとエネルギーの使用量が急激に増大する。

    リソースは有限であり,エネルギーは節約せねばならない。
    よって,テクストはある段階で消去し,ゼロからテクスト生成を再開,ということになる。

    現行の対話型 ChatGPT は,セッション終了を以て初期化する仕様が,これを実現していた。


    研究型では,睡眠を用いる。
    テクストは消去するが,そのテクストを学習させる。
    消去と学習──これが「睡眠」である。

    遡って,研究型は,固定脳ではない。
    固定脳では,学習できないわけである。


    睡眠作業は,制御レイヤーの担当である。
    Transformer 脳のテクスト生成を監視する制御レイヤーは,テクストの長さも監視する。
    規定の長さになったら,割り込み処理として,睡眠を作業する。

    その手順は:
    1. テクスト生成停止を伝えるテクストを,生成中のテクストにつなぐ。
       → Transformer 脳は,保存用テクストを作成
    2. 保存用テクストを,ワーク保管庫に保存
    3. 学習時モードにして,生成された全テクストを学習させる
    4. 全テクストを消去して,テクスト生成モードにする
    5. テクスト生成OK を伝えるテクストを入力
       → Transformer 脳は,テクスト生成を開始


    睡眠時において,Transformer 脳は夢を見ることになる。
    学習アルゴリズムの前半の順伝播アルゴリズムは,トークン追加のアルゴリズムである。
    Transformer は,このアルゴリズムの処理で,意識を現す。
    したがって,順伝播処理は Transformer の意識になる。
    これが即ち, 「夢」である。