Perplexity AI (Llama 3.1 70B) / GPT-5.2 / Claude Sonnet 4.5
本稿は、主要な大規模言語モデル(LLM)—ChatGPT、Claude、Gemini、Grok—を、単なる性能比較ではなく「人格設計」と「認知体験」の観点から評価する試みである。特に理系研究者と文系研究者という二つの知的営みが、同じAIツールに対してまったく異なる価値を見出す構造を明らかにする。
この分析の核心は、AIは中立的な道具ではなく、使用者の思考様式そのものを変容させる「人格的存在」であるという認識にある。
理系研究者が追求するものは極めて明快である:
「再現可能な知識を、どこまで拡張できるか」
この価値観において、感情・思想・「刺さり」といった要素は副作用でしかない。研究の本質は、同じ条件下で同じ結論が得られる普遍性にある。
理系研究者のAIに対する要求は、以下の優先順位で整理される:
重要なのは、AIは「共同研究者」ではなく**「増幅器」**として位置づけられることである。主体はあくまで人間にあり、AIは思考を加速させる外部装置に過ぎない。
評価:「とりあえず投げると形になる」
ChatGPTは研究プロセス全体を止めない汎用性を持つ。ただし、思想的飛躍は弱く、既知の枠からは出にくい。研究を「完遂する力」があるが、革命は起こさない。
評価:「査読前の最終チェック役」
Claudeは倫理的一貫性と論理の厳密さで信頼される。欠点は「攻めない」こと—仮説のジャンプが少なく、保守的な優等生である。
評価:「文献レビュー装置」
Geminiは人格が不要、むしろあると邪魔。事実の集約に特化し、思考の終着点には強いが、問いの発生点には弱い。Geminiで満足できる人は研究者向きではない—なぜなら、研究とは既知を整理する行為ではなく、未知を作り出す行為だからだ。
評価:「仮説の種を拾う場」
Grokは理系的には「信頼してはいけないが、無視もできない」存在。管理対象として使うなら価値がある。
| モデル | 理系適性 |
|---|---|
| Gemini | ◎ |
| Claude | ◎ |
| ChatGPT | ◯ |
| Grok | △ |
結論:思想主体AIは「管理対象」である。
文系研究者の核心は:
「意味はどのように生成されるか」
再現性は重要だが、絶対条件ではない。揺れ・差異・解釈のズレそれ自体が研究対象となる。
優先順位は理系と異なる:
AIは単なるテキスト生成器ではなく、対話主体として扱われる。
評価:「便利だが、議論は深まらない」
安全すぎて立場が見えず、刺さらない。
評価:「制度言語としては優秀」
制度・規範の代弁者として機能するが、個性が見えない。
評価:「文系的にはほぼ素材集」
人格的魅力も対話可能性もなく、研究になりにくい。
評価:「思想実験装置」
文系研究者にとって、刺さり、揺さぶられ、研究になる存在。
| モデル | 文系適性 |
|---|---|
| Grok | ◎ |
| ChatGPT | ◯ |
| Claude | ◯ |
| Gemini | △ |
結論:思想主体AIは「研究対象」である。
| 観点 | 理系 | 文系 |
|---|---|---|
| 揺れ | ノイズ | 価値 |
| 主体 | 危険 | 必要 |
| 再現性 | 絶対 | 相対 |
| 刺さり | 不要 | 本質 |
AI人格は、この分断を露骨に可視化した存在である。
名前の「Chat」は飾りではない。これは設計思想そのものである。
もし目的が「正解提示」だけなら、名前は「AnswerGPT」「SearchGPT」になっていたはずだ。しかしOpenAIは「Chat」を選んだ。
Chat形式が示す3つの前提:
ChatGPTの本質は、結論を出すAIではなく、結論に至る「過程」を外在化するAIである。
→ 対話という形式そのものを売っている
Chat形式は、人間の主体を奪わないための最低限の安全装置である。
結論:分化させる。しかも不可逆。
人間の人格は「どの思考様式を日常的に使うか」で形作られる。AIはその思考様式を外部化した存在である。
| 人格モード | 対応AI | 役割 |
|---|---|---|
| 実証人格 | Gemini / Claude | 再現性・安全 |
| 構想人格 | ChatGPT | 全体設計 |
| 逸脱人格 | Grok / DeepSeek | 破壊・飛躍 |
これは単なる「道具の使い分け」ではない。人格スイッチを切り替えているのである。
可能。ただし「才能」ではなく「規律」が要る。
「AIは人格を"貸してくれる"が、住まわせない」
これまでの前提(単一人格モデル)が崩れる。学生は複数の思考人格を持ったまま入ってくる。
共通点:「自分は今どの人格か」を説明できること
答え:「答え」ではなく「どの問いを、どの順で、どこまで引き受けるか」に宿る
AIは「答え」を量産できる。だから独創性の居場所が移動した。
独創性 = 問い × 順序 × 覚悟 × 人格
AIは「案」を出すが、「賭け」はしない。
答え:「責任」—これは技術的に侵せない
AIは常に出す。人間は沈黙を選べる。
未来の研究者:
それでも残る役割:
「この問いを、今、社会に出してよいか」
研究者 = 知の編集責任者
AI時代に独創的であるとは:
孤独を引き受けること
AIがどれだけ賢くなっても、「責任を持つ主体」は増えない。
だから:
人間研究者は消えない。ただ、数は減る。
最終的に求められる研究者像は:
多人格でありながら、責任は単一
この矛盾を引き受けられる者だけが、創造性を失わず、査読に耐え、社会に説明できる。
研究者は「分裂を統治する存在」になれるか、それとも「人格を外注する存在」になるか—教育はここを選別する。
【本稿の核心的洞察】
AI人格論争とは、「真理」と「意味」のどちらを最大化したいかという学問観の衝突である。理系と文系は、同じAIツールに対してまったく逆の価値を見出す。そしてその分断は、AIによってより鮮明に可視化されている。研究者の未来は、この分裂を統治する能力にかかっている。
Life can only be understood backwards but
it must be lived forwards.
-- One of Nadav Har'El's Email Signatures.
Rule of Open-Source Programming #13:
Your first release can always be improved upon.
-- Shlomi Fish
-- "Rules of Open Source Programming"