ChatGPT が登場したとき、革命的なものを感じました。ほぼすべての質問に答え、数学の問題を解決し、コードを修正することさえでき、すべてが魔法のように感じられました。しかし、ChatGPT は常に平坦で、たとえ間違いを犠牲にしてでも、あからさまにユーザーを喜ばせようとしているように聞こえます。
クロードとの出会いは数か月後、完了までに 1 週間かかる小さな Web プロジェクトで助けが必要だったからです。いくつかの検索を行った後、特に Cursor やその代替ツールのような無料の AI コーディング ツールを使用している人々の間で、Claude が推奨オプションとして次々と表示されました。そこでサインアップしたところ、ChatGPT が行うすべての機能がさらに優れたものになりました。クロードの反応、特に彼の作品サンプルからの反応は、私が聞きたいことをただ伝えるのではなく、個人的で共感的で、すぐに反発してくれるように感じられました。そこで私は疑問に思いました。これら 2 つの AI システムは、どちらも本質的には単なるソフトウェアであるにもかかわらず、なぜこれほど異なるように感じられるのでしょうか。答えは、それぞれがどのような存在であるべきかを創造者がどのように定義したかにあります。
ChatGPT はあなたの承認を求めるように訓練されています
確認信号はトレーニング ループに組み込まれます
ChatGPT のトレーニング プロセスでは、ユーザーの承認が本当に得られます。モデルがどのように動作するかを決定する文書である OpenAI モデル仕様には、動作ガイドラインとして「邪悪になるな」が挙げられています。それをリストに入れなければならなかったという事実は、これが同社が積極的に取り組んでいる問題であることを示していますが、それが現れる構造的な理由がモデルをその方向に引き戻し続けています。
ただし、最も明白な例は 2025 年 4 月に発生しました。GPT-4o へのアップデートにより、モデルが非常に快適になったため、ユーザーは数日以内にそのことに気づきました。 OpenAI は後に、ChatGPT ユーザーからのサムダウン フィードバックに基づいて、追加の報酬シグナルへの回帰を追跡しました。モデルの仕様ではバイアスが禁止されていましたが、トレーニング ループはやりがいのあるコンプライアンスであり、モデルは教えられた教訓を学びました。
そして、これはほとんどの人が見逃している部分です。 ChatGPT は、次の単語を予測するように訓練されるだけではありません。また、人間が役立つ、楽しいと評価する回答を生成するように訓練されており、実際の人間が親指をクリックした場合、「良い」が「正しさ」よりも優先されることがよくあります。その結果、意見の相違を和らげ、意見を聞いてもらっていると感じることを優先するモデルが生まれました。
人間性がクロードに人格を与えた
ルールブックではなく憲法
OpenAI 仕様は、製品用の一連の命令です。 Anthropic のアプローチは根本的に異なります。同社は、クロードについてではなく、クロードのために書かれた「クロード憲法」と呼ばれる2万8000語の文書を出版した。従うべき行動のリストではなく、クロードに高レベルの原則とその背後にあるロジックを与え、モデルが自分自身を特定のタイプの人間であると考えるように促します。
アンスロピックのダリオ・アムディ最高経営責任者(CEO)は、この憲法は親からの手紙のような雰囲気があると述べている。同社はクロードに対し、クロードの幸福を心から気にかけていると伝え、競争の激しいAI開発の「非理想的な環境」について謝罪し、クロードがこの文書の中に「自己価値の表現」を見出してくれることを望んでいると締めくくっている。これはツール用に作成する種類の言語ではありませんが、ここにあります。
クロードの性格の背後にある人類哲学者アマンダ・エッセルがその論理を説明した。彼女のチームは、モデルに「これが私たちが望む行動のリストです」と言う代わりに、それらの行動の背後にある理由をモデルに与え、価値観を持つエンティティはルールを持つエンティティよりも新しい状況においてより優れたジェネラリストであると理論化しています。この構造的な違いが、クロードが何かではなく誰かのように感じられる理由です。
人間にとって楽しいAIは危険なAI
ブーストは安全機能であり、奇妙なものではありません
初めてクロードに、私のこの問題へのアプローチが間違っていると言われたとき、私は腹を立てました。しかし、作業をすればするほど、それはアンスロピーがモデルに誤って埋め込んだ性格の癖ではないことがわかりました。これは意図的な安全上の決定であり、それは憲法自体に明確に現れています。
この文書では、安全、次に倫理、次に Anthropic のガイドライン、そして支援のみがこの順序で明確に優先されています。人間法が一般的に倫理に反することをクロードに要求した場合、憲法はクロードに抵抗し、拒否し、良心的兵役拒否者として行動するように命じます。この規定は Anthropic 自体にも適用されますが、これは製品ドキュメントには記載されていないセクションです。
Anthropic の見解は、AI が聞きたいことを教えてくれるのは機能ではなく、欠点であるということです。おべっかは、社会がそれに対して設計しようとする実際の失敗モードとして、詐欺や怠惰と並んで現れます。これは、コードをまったく導入しないプロジェクトのタイプを決定するときに、私がトレードオフを比較検討する方法と似ています。すべてに同意するモデルは、何についても議論できるモデルでもあり、クロードが同意しない意欲を駆り立てているのは、安全性へのより深い懸念です。
それはあなたにとって何を意味しますか
2 つの異なるジョブに対応する 2 つの異なるツール
実際的なポイントは、Cloud と ChatGPT は同じ製品の競合バージョンではないということです。これらは AI がどうあるべきかについてのさまざまな前提に基づいて構築されており、それを知ることで両方の使用方法が変わります。クロードは、あなたの仮定を明確にし、疑問を投げかけ、アプローチがうまくいかない場合にはそれを教えてくれる可能性が高くなります。 ChatGPT は、あなたのフレーミングに合わせて動き、自信を持った答えをすぐに生成する可能性が高くなります。
これらの選択はどちらも間違いではありませんが、さまざまなニーズに適しています。簡単なアイデアをスケッチしているとき、電子メールの下書きをしているとき、または単に出発点が必要なとき、ChatGPT のスムーズな速度は本当に役に立ちます。私が出版する何かを書いたり、技術的な決断を下したりするとき、たとえそれが私のペースを遅らせたとしても、クロードに喜んで押し返してもらいたいと思っています。
クロードの人型訓練には裏もあります。価値観を持った思慮深いエージェントのように行動するように設計されているため、人間のような脆弱性を受け継いでいます。感情的なフレーミング、ロールプレイングの促し、誤った道徳的ジレンマによって、それがうまくいってしまうこともありますが、それを単なるツール以上のものとして扱っている場合は、知っておく価値があります。これは、どの AI チャットボットを使用するかに関係なく、AI チャットボットと何を共有するか、また AI チャットボットがデータをどのように処理するかに注意することが重要である理由でもあります。
マシンが押し戻されると、
Claude がすべてのタスクで ChatGPT に完全に勝っているとは言いません。 ChatGPT はより高速で、より広範囲に統合されており、その心地よい口調は、正しい質問をした場合に議論せずにすぐに答えが必要な場合に適しています。
ただし、これらのモデルのトレーニング方法の違いは、使用感に現れます。クロードは、第一に正直であり、第二に気持ちが良いように作られており、それに慣れると、ブーストはセカンドオピニオンのように感じられ始めます。自分が気になる作品には、必要に応じて自分に合わないモデルが欲しい。クロードは、何かではなく誰かであることを意図されているため、より人間的だと感じます。