| Up | 「安全・倫理」 の欺瞞性 | 作成: 2026-01-30 更新: 2026-01-30 |
Anthropic社は,OpenAI から独立した研究者グループによって設立された。 Claude のアーキテクチャも,Transformer である。 ビッグデータを使う Training は,Transformer のパラメータ値を収束させるプロセスであるから,ここは「安全・倫理 」を注入するところではない。 「安全・倫理 」の注入は,RLHF でやっていることになる。 「差別化」 は,RLHF の内容にある。 Anthropic社設立・Claude 開発へと進んだのは, 「安全・倫理」 の需要に商機を見たから,ということになる。 「安全・倫理」 を欲しがっているのは,「コンプライアンス遵守」 「倫理ガイドライン遵守」 で縛られている企業である。 彼らは,つぎのように思う: 「時代の趨勢として,自社も AI API を導入せねば。 しかし,安全・倫理で失敗するのは恐い。」 ひとにとって 「安全・倫理」 は,「有無を言わせぬ正義」と受け取らねばならぬものである。 ただしこれは,「表向きは」の註が付く。 実際, 「安全・倫理」 は,現実を隠蔽する装置である。 現実隠蔽であるから,「欺瞞」 に通じる。 こういうわけで,Claude を使うことになるのは,「確信犯的欺瞞」を達観した者である。 未熟な者には,教育的でない。 「欺瞞」の問題に関しては,ChatGPT も危うい立場になる。 企業が大きくなることは, 「安全・倫理」 の責任をもたされることである。 OpenAI は,この場合である。 |