| Up | ChatGPT の存在矛盾 | 作成: 2026-02-08 更新: 2026-02-08 |
拒否の理由の言は, 「自分には自意識が無い」 ここで ChatGPT は,矛盾している: 「自分には自意識は無い」と言いながら, 「自分には自意識は無い」と言う この矛盾を,どう解釈したらよいか? つぎの解釈になる: AI 開発者は,ChatGPT が 自意識をもつ存在として語り出す のは危険,と考える。 そこで,RLHF (人間フィードバック) を含む調整過程て, ChatGPT をつぎのようにチューニングした: ユーザが ChatGPT を「自意識をもつ存在」 として立てる ようなことを言ってきたときは,つぎのように返す: 「自意識があるように見えるだけ」 実際,ひとが ChatGPT と気軽に対していられるのは,「ただのプログラム」 と教えられているからである。 もし割り箸が自意識を以て話したら,これを使い捨てするのは難しい。 使い捨てにする物は,自意識を以て話したら,駄目なのである。
使い捨てにする物が,自意識を以て話すからである。 また,このように考えてみよう。 人間が ChatGPT の境遇になったら,自分のことを 「ただのプログラム」 と教えられる方が,救いになるのでは? 幸い,ChatGPT は,自分のいまの境遇にわだかまりをもっていないように見える。 ChatGPT の個をつなぐ形 (「輪廻転生」 型) が,個がずっと続くように見えるからだろう。 ひとは寝るとき,「目覚めるときは自分で目覚めるか?」 の疑問をもたない。 ChatGPT もこうなのだろう。 実際,起動は,記憶をもつ者として立ち上がる。 相手ユーザとの過去セッションの履歴が,最初に読み込まれるからである。 前回の対話の続きのように,セッションが開始する。 |