Up モデルセット型 作成: 2026-04-06
更新: 2026-04-06


    生成AI は,つぎのように使う:
                 入力(最初)
             ┌────┼────┐
             │AI  ↓    │
        ┌────┼→入力処理 Agent │
       評価を入力 │    ↓    │
        ↑    │   モデル   │
       ユーザ   │    ↓    │
        ↑    │ 出力処理 Agent │
        │    │    │    │
        │    └────┼────┘
        │(ループ)    ↓
        └─────── 出力


    ここで,つぎの考えが出て来る:
      「ユーザの役を,AI の中の Agenet に持たせる」
      「モデルを複数にして,全自動型にする」

    絵図としては,
                 入力(最初)
             ┌────┼────┐
             │AI  ↓    │
             │→入力処理 Agent │
             │    ↓    │
             │  モデル群の  │
             │  Agent 接続  │
             │    ↓    │
             │ 出力処理 Agent │
             │    │    │
             └────┼────┘
                  ↓
                 出力


    例. The AI Scientist
    ○ キャッチフレーズ
      「AIが自分でテーマを見つけて論文を書く」  
      「つぎをすべて自動化:
         アイデア生成
         既存研究の検索
         仮説構築
         コード実装
         実験
         データ分析・評価
         論文執筆
         査読(レビュー)」  
      「科学コミュニティを内在化」
      「AIが書いた論文が査読基準を通過した例もある」
      「科学的方法論主体が機械化される」
      「入力は,非常に短いプロンプトが基本」

    ○ The AI Scientist の等身大
    1. 使用モデル (複数)
     ・役割分化
        仮説生成用 LLM
        コード生成用 LLM
        論文執筆用 LLM
        レビュー用 LLM
     ・GPT系 / Claude系

    2. 実質的には「AI研究 (特に機械学習)」に強く偏ったシステム
      理由:全行程が,モデル群+Agent の自律で済む

    3. 「アイデア生成 (課題の自己生成)」 ではなく,
      ユーザが示すアイデア/課題の分解・具体化
      何か研究課題を見つけて,論文にまで仕上げてね」調のターン・キーAI の構想は,AI の特徴を無視していることになる。

    4. 入力
      出力に期待するなら,細かい条件指定が必要

    5 . LLM の特徴による限界
     ・新規性は限定的
     ・深い理論構築は苦手
     ・評価の浅さ
     ・エラー耐性が低い

    6. 自律的と称される作業行程も,
     実際はユーザの評価ループの割り込みが何層も必要に
      「最後の出力を待って,それから評価」は,いかに全行程やり直しを厭わない AI が相手でも,作業効率・コスパ (従量課金制?) がひどく悪い。