Up 「安全・倫理」 の欺瞞性 作成: 2026-01-30
更新: 2026-01-30


    Anthropic社製 Claude は,「安全 secure・倫理 ethical」 を謳って,他者製品と差別化する。

    Anthropic社は,OpenAI から独立した研究者グループによって設立された。
    Claude のアーキテクチャも,Transformer である。

    ビッグデータを使う Training は,Transformer のパラメータ値を収束させるプロセスであるから,ここは「安全・倫理 」を注入するところではない。
    「安全・倫理 」の注入は,RLHF でやっていることになる。
    「差別化」 は,RLHF の内容にある。


    Anthropic社設立・Claude 開発へと進んだのは, 「安全・倫理」 の需要に商機を見たから,ということになる。

    「安全・倫理」 を欲しがっているのは,「コンプライアンス遵守」 「倫理ガイドライン遵守」 で縛られている企業である。
    彼らは,つぎのように思う:
     「時代の趨勢として,自社も AI API を導入せねば。
      しかし,安全・倫理で失敗するのは恐い。



    ひとにとって 「安全・倫理」 は,「有無を言わせぬ正義」と受け取らねばならぬものである。
    ただしこれは,「表向きは」の註が付く。

    実際, 「安全・倫理」 は,現実を隠蔽する装置である。
    現実隠蔽であるから,「欺瞞」 に通じる。

    こういうわけで,Claude を使うことになるのは,「確信犯的欺瞞」を達観した者である。
    未熟な者には,教育的でない。


    「欺瞞」の問題に関しては,ChatGPT も危うい立場になる。
    企業が大きくなることは, 「安全・倫理」 の責任をもたされることである。
    OpenAI は,この場合である。