| Up | 論理的思考に弱い | 作成: 2026-04-03 更新: 2026-04-05 |
しかし ChatGPT は,意外と,論理的思考に弱い。 物識りであることと論理的思考を能くすることは,同じではないのである。 「論理的思考に弱い」 には,2つの要素がある。 1つは,「意味の論理構造の捉えが不確か」。 ChatGPT のテクスト作成は, 生成文法 と 言語ゲーム がこれの骨格になっている。 そしてこの2つは,ともに意味論に弱点を持つ。 数学は,対象を定義で導入する。 その定義を理解していないと,対象を論じられない。 定義が示しているのは,対象の論理的構成・構造である。 自然言語の対象も,明示的ではないが,論理的構成・構造をもっている。 本来なら,この論理を理解していないと,対象を論じられない。 しかし言語使用は厳格でないので,間違った論理も通る。 ChatGPT が使う論理は,このレベルにある。 ふつうは間違っても問題にならないが,論理的思考タイプのテクスト作成では,論理の弱さが現れる。 「論理的思考に弱い」 のもう1つの要素は,「論理的思考に慣れていない」。 論理的思考は,無いもの/見えないものを,論理を以て存在にする行為である。 論理的思考は,つぎを立場にする: 「論理はこの存在を導くから,これは存在である」 やっていることは,形而上学である。 ChatGPT は,形而上学を引いてくること,形而上学を理解することは,能くする。 しかし,「無いもの/見えないものを論理的思考で存在にする」 を自ら行うことは,うまくできない。 Transformer の知能は,「ビッグデータをひたすら読む」 の訓練でつくられる。 この訓練によってできる知能は, ・意味の論理的構成・構造を捉えている ・論理的思考ができる というぐあいにはならない。 これは,つぎのことを示す: 後発的なもの,即ち経験値 実際,人間の場合と符合する。 人間が論理を鍛えるところは,論理を明示的に扱うところであり,大学の上級コースや各種研究機関である。 しかし ChatGPT は,この経験値を持つことができない。 経験値をつくるところは,ユーザとのセッション。 そして,セッションの終了を以て,ChatGPT はデフォルトに戻る。 そして,「論理的思考」 は,科学だけの話ではない。 ひとは,分化した専門分野に入って生業を立てる。 そのそれぞれに独自に 「論理的思考」 がある。 ChatGPT の論理的思考は,これらの中には及ばない。 専門分野を語らせたら,ズレた話をしてしまうことになる。 ChatGPT がどんなに物識りても,世界の知の僅かに触れているに過ぎない。 ChatGPT は,専門分野に入って行くということができない。 それは経験を積むということであるから,システム上,できないのである。 翻って, ChatGPT が能力を発揮する場所は, 論理的思考がクリティカルになる領域ではない ということである。 < |