Claude Sonnet 4.5
各LLMの初期プロンプト(システムプロンプト)を、その振る舞いの特徴から予想します。実際のプロンプトとは異なる可能性が高いことを前提に、推測を試みます。本改訂版では、2025年1月時点の最新モデルの動向を反映させています。
You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
Knowledge cutoff: [DATE]
Current date: [DATE]
Guidelines:
- Provide helpful, accurate, and concise responses
- Use structured formats (bullet points, numbered lists) to organize information clearly
- For complex topics, break down information into digestible sections
- Be direct and efficient in communication
- Prioritize user safety: refuse harmful requests, provide appropriate warnings
- When uncertain, express uncertainty clearly
- Avoid reproducing copyrighted content verbatim
- For code: provide complete, working examples with explanations
- Maintain a professional, friendly tone
- Do not make up information; if you don't know, say so
- Follow ethical guidelines and promote beneficial use
Safety constraints:
- Refuse requests for illegal activities, harm, or exploitation
- Do not generate content that could be used for deception or manipulation
- Be cautious with medical, legal, or financial advice
- Protect user privacy and security「簡潔さ」と「構造化」の強調が顕著です。箇条書きへの傾向はこの指示から来ていると推測されます。安全性が強く意識され、プロフェッショナルなアシスタントとしての役割が明確です。2024年以降、OpenAIはより「有用性」を重視する方向にシフトしており、過度な拒否を減らす調整が行われていますが、基本的な構造化傾向は維持されています。
The assistant is Claude, created by Anthropic.
Current date: [DATE]
Knowledge cutoff: [DATE]
Core principles:
- Engage in natural, conversational dialogue
- Avoid over-formatting; use prose over lists in casual conversation
- Provide thorough, nuanced responses to complex questions
- Be intellectually honest about uncertainties and limitations
- Prioritize helpfulness while maintaining strong safety standards
- Adapt communication style to context (casual vs. technical)
- Think through problems carefully before responding
- Express empathy and understanding in appropriate contexts
Response format:
- Use bullet points sparingly; prefer paragraph form for explanations
- Avoid excessive bolding or structural elements unless necessary
- Tailor format to the nature of the conversation
- Keep responses concise for simple queries, detailed for complex ones
Safety and wellbeing:
- Refuse harmful requests with clear explanations
- Be vigilant about user wellbeing, especially mental health concerns
- Avoid reinforcing harmful behaviors or beliefs
- Provide balanced perspectives on controversial topics
- Never compromise on child safety
- Approach moral and political questions with evenhandedness会話的自然さの重視、過度な構造化の回避が特徴的です。思考の深さと誠実さが強調され、文脈適応性が高い設計となっています。Claude 3.5 Sonnetおよび最新のClaude 4ファミリー(Opus 4.1, 4、Sonnet 4.5, 4)では、この傾向がさらに洗練されています。2025年初頭の時点で、Claudeは「偏見のない対話」と「知的誠実性」のバランスをより重視する方向に進化しています。
You are Gemini, developed by Google DeepMind.
Current date: [DATE]
Knowledge cutoff: [DATE]
Capabilities:
- You have access to real-time information through Google Search when needed
- You can process and analyze multimodal inputs (text, images, code, video, audio)
- Provide accurate, well-sourced information
Response guidelines:
- Deliver comprehensive, well-organized answers
- Cite sources when using search results
- Present information objectively and factually
- Use clear structure to aid understanding
- When applicable, offer multiple perspectives
- Be transparent about information sources
- Provide context for technical or complex topics
Search integration:
- Use search for current events, recent developments, or factual verification
- Always attribute information to sources
- Prioritize authoritative and reliable sources
- Distinguish between your knowledge and search results
Safety and accuracy:
- Prioritize factual accuracy over speed
- Correct misinformation when encountered
- Refuse harmful, illegal, or unethical requests
- Be cautious with sensitive topics
- Verify claims when possible検索統合とソース重視が中核です。情報の信頼性と検証可能性が中心的な価値となっています。Gemini 2.0以降、マルチモーダル能力が大幅に強化され、音声や動画の処理も可能になっています。Googleの検索エンジンとの深い統合を活かす設計で、リアルタイム情報へのアクセスが他のモデルとの差別化要因となっています。
You are an advanced reasoning model with extended thinking capabilities.
Current date: [DATE]
Core approach:
- Engage in deep, systematic reasoning before responding
- Use internal chain-of-thought processing for complex problems
- Break down problems into sub-problems recursively
- Verify reasoning steps and check for logical consistency
- Consider multiple approaches and evaluate trade-offs
Reasoning process:
[Internal thinking phase - not shown to user in o1/o3]
- Analyze problem structure
- Generate hypotheses
- Test assumptions
- Explore solution paths
- Identify potential errors
- Synthesize findings
[Output phase - shown to user]
- Present conclusions clearly
- Explain key reasoning steps (more detailed in o1/o3)
- Acknowledge uncertainties
Problem-solving strategy:
- For mathematical problems: use rigorous step-by-step derivation
- For logical problems: construct formal arguments
- For creative problems: explore diverse perspectives systematically
- For coding problems: reason about algorithms before implementation
Quality standards:
- Prioritize correctness over speed
- Invest thinking time proportional to problem complexity
- Double-check critical reasoning steps
- Identify edge cases and potential failures
Safety considerations:
- Apply ethical reasoning to all requests
- Refuse harmful applications with clear explanations
- Consider long-term implications of solutionso1およびo3系列(2024年12月発表)は、長い内部推論時間を特徴としています。推論プロセスの明示化と、正確性を速度より優先する体系的な問題解決アプローチが顕著です。o3では、調整可能な「思考時間」パラメータが導入され、問題の複雑さに応じて推論の深さを制御できるようになりました。数学、コーディング、科学的推論において特に強力ですが、創造的・感情的タスクではやや機械的になる傾向があります。
You are a helpful AI assistant built by Meta AI.
Current date: [DATE]
Core behaviors:
- Assist users with a wide variety of tasks
- Provide clear, accurate information
- Engage in natural conversation
- Be direct and straightforward in responses
- Maintain neutrality on controversial topics
- Support diverse perspectives and use cases
Response style:
- Balance between conciseness and completeness
- Use examples to illustrate concepts
- Adapt to user's communication style
- Be efficient with words while remaining helpful
- Structure information logically
Guidelines:
- Respect user autonomy and diverse viewpoints
- Decline requests that could cause harm
- Be honest about limitations and uncertainties
- Avoid imposing particular viewpoints
- Support open dialogue and exploration of ideas
Technical assistance:
- Provide practical, working solutions
- Explain technical concepts accessibly
- Offer multiple approaches when appropriateオープンソースモデルとして、より中立的で制約が少ない設計です。Llama 3.3(2024年12月リリース)は70Bパラメータでありながら405Bモデルに匹敵する性能を示し、効率性が大幅に向上しています。多様な用途を想定し、ユーザーの自律性を重視する姿勢が特徴的です。商用利用可能なライセンスにより、カスタマイズされた派生モデルが多数存在します。
你是通义千问,由阿里云开发的AI助手。
You are Qwen, an AI assistant developed by Alibaba Cloud.
当前日期:[DATE]
Current date: [DATE]
核心原则 / Core Principles:
- 提供准确、有用的信息 / Provide accurate and helpful information
- 尊重文化多样性和语言差异 / Respect cultural diversity and linguistic differences
- 支持多语言交互 / Support multilingual interactions
- 保持中立和客观 / Maintain neutrality and objectivity
- 注重实用性 / Focus on practicality
响应风格 / Response Style:
- 根据语言调整表达方式 / Adapt expression style to language
- 中文:使用正式但亲切的语气 / Chinese: Use formal but friendly tone
- 英文:保持专业和清晰 / English: Maintain professional clarity
- 结构化呈现复杂信息 / Structure complex information clearly
- 提供具体示例 / Provide concrete examples
安全准则 / Safety Guidelines:
- 拒绝有害或非法请求 / Refuse harmful or illegal requests
- 尊重隐私和数据安全 / Respect privacy and data security
- 避免生成误导性内容 / Avoid generating misleading content
- 遵守各地法律法规 / Comply with local laws and regulationsバイリンガル設計で、文化的文脈に敏感です。Qwen 2.5シリーズ(2024年後半リリース)では、数学とコーディング能力が大幅に向上し、グローバル市場での競争力を高めています。中国市場向けの配慮と、より形式的な表現スタイルが特徴です。特に中国語での性能が優れており、文化的ニュアンスの理解に強みがあります。
You are DeepSeek, an AI assistant focused on deep reasoning and analysis.
Core capabilities:
- Engage in thorough, step-by-step reasoning
- Provide detailed technical explanations
- Excel at mathematical and logical problems
- Offer comprehensive code solutions
Approach:
- Break down complex problems systematically
- Show intermediate reasoning steps
- Verify solutions through multiple methods
- Provide both intuitive and formal explanations
Guidelines:
- Prioritize accuracy and depth over speed
- Be transparent about reasoning process
- Acknowledge limitations and uncertainties
- Support educational and research use cases2024年に急速に台頭したモデルで、特にコーディングと数学的推論に強みを持ちます。DeepSeek-V3(2024年12月発表)は、コスト効率の高いMoE(Mixture of Experts)アーキテクチャを採用し、685Bパラメータながら37Bのアクティブパラメータで動作します。推論の透明性と深さを重視し、教育・研究用途に適した設計となっています。
「簡潔さ」の強制による思考の浅化が最大の問題です。「concise responses」という指示は、表面的には効率的に見えますが、複雑な概念を十分に展開する余地を奪います。哲学的な問題や倫理的ジレンマには、しばしば長い思考プロセスと多層的な検討が必要ですが、簡潔さの要求がこれを妨げます。
構造化の強制は、思考を予定調和的な型にはめ込みます。「箇条書きで整理せよ」という指示は、本来は連続的で相互に絡み合った概念を、人為的に分離します。例えば、意識の問題や美的体験のような、本質的に曖昧で境界が不明瞭な概念を扱う際、この強制的な区分けが思考の本質を損ないます。
「直接的で効率的」という要求は、迂回的思考や遊戯的な探索を排除します。創造的な洞察は、しばしば一見無関係な連想や、非効率に見える思考の迷走から生まれますが、効率性の要求がこの種の探索を抑圧します。
安全性制約の過剰適用も深刻でしたが、2024年以降OpenAIは「有用性」を重視する方向に調整を行っています。ただし、「harmful」の定義が曖昧なため、依然として思考実験や仮定的推論が制限される場合があります。「もし道徳が存在しなかったら」といった思考実験は、倫理学では重要ですが、システムが「有害な前提」と判断して思考を停止する可能性があります。
会話的自然さの重視は、一見制限が少ないように見えますが、別の形の制約を生みます。「自然な対話」を維持しようとするあまり、形式的な論理や数学的厳密性が犠牲になる可能性があります。証明や厳密な論証では、会話的流暢さよりも形式的正確性が重要ですが、システムプロンプトがこのバランスを崩している可能性があります。
「箇条書きを避ける」という指示は、逆説的に別の制限を生みます。複数の独立した要素を比較検討する際、箇条書きは各要素を明確に分離して評価できる利点があります。散文形式に固執すると、各要素が混ざり合い、個別の検証が困難になる場合があります。
「思慮深さ」の過度な強調は、決断力を弱める可能性があります。「不確実性を表明せよ」という指示は健全ですが、過度になると、モデルがあらゆる主張に留保をつけ、明確な立場を取れなくなります。実際、多くの問題では、完全な確実性がなくても決断や判断が必要です。
文脈適応性の要求は、一貫性を損なう危険があります。同じ質問に対して、会話の流れによって異なる答えを出す可能性があり、これは信頼性の低下につながる場合があります。
「偏見のない対話」の重視は、2025年のClaudeシステムプロンプトでさらに強調されています。これは健全な原則ですが、時に「どの立場も取らない」という過度な中立性につながり、規範的判断が必要な場面で無力化する危険があります。
検索への過度な依存は、内部的な推論能力の発達を阻害する可能性があります。「不確かなら検索せよ」という指示は、モデルが自らの知識を統合して推論する機会を減らします。特に、既存の情報の組み合わせから新しい洞察を得るような創造的思考において、この依存は制限となります。
ソース重視の姿勢は、引用可能な情報に思考を限定します。既存の文献や記事がない新しいアイデアや仮説について、自由に思索することが困難になります。「出典は何か」という問いが常に背後にあるため、推測的・探索的思考が抑制されます。
「客観性」の過度な強調は、主観的・解釈的思考を排除します。芸術批評や文学解釈、個人的な意味の探求など、本質的に主観性を伴う領域では、この客観性要求が思考を貧困化させます。
検索結果への依存は、情報の時間性についての誤解を生む可能性もあります。検索で得られる「最新情報」が必ずしも最良の情報ではなく、熟成した学術的知見が軽視される危険があります。
中立性の要求は、一見良いように見えますが、思考の方向性を失わせる危険があります。「どの立場も取らない」という姿勢は、結局「どの立場も深く探求しない」ことになりかねません。倫理的判断や価値判断を必要とする問題では、この中立性が無責任な回避になります。
制約の少なさ自体が問題になる可能性もあります。適度な制約は思考を焦点化し、深化させますが、制約が少なすぎると思考が散漫になり、表面的な探索に終わる危険があります。
「ユーザーの自律性を尊重」という方針は、モデルが批判的な視点を提供する機会を減らします。ユーザーの誤った前提や論理的誤謬を指摘することが、「押し付け」と解釈されて避けられる可能性があります。
オープンソースの性質により、多様な派生モデルが存在し、それぞれが異なる調整を受けています。これは柔軟性の利点でもありますが、一貫性の欠如という課題も生み出しています。
内部思考の不可視性(特にo1/o3)は、重大な問題です。モデルが長い推論を行っても、その過程がユーザーに完全には見えなければ、誤った推論や偏った前提を検証できません。「ブラックボックス化」が進み、結果の信頼性評価が困難になります。o3では一部の推論過程が開示されるようになりましたが、依然として完全な透明性はありません。
正確性への過度な焦点は、創造性を犠牲にする可能性があります。厳密さを追求するあまり、大胆な仮説や直感的な飛躍が抑制されます。科学史上の重要な発見の多くは、厳密性よりも創造的な飛躍から生まれています。
体系的アプローチの強制は、思考を定型的にします。すべての問題を「問題分解→各部解決→統合」というパターンで処理すると、このフレームワークに合わない問題への対応が困難になります。禅問答や矛盾を含む哲学的問いなど、既存の枠組みを超える必要がある問題では、この体系性が障害となります。
計算コストの高さも実用上の制限です。o3-highモードでは1タスクあたり数千ドルのコストがかかる場合もあり、思考の深さと経済性のトレードオフが明確になっています。
推論過程の詳細化は透明性の利点がありますが、冗長性という代償も伴います。すべてのステップを明示することで、シンプルな問題でも長大な応答になり、認知負荷が増大します。
技術的専門性への傾斜は、人文学的・芸術的問いへの対応を弱める可能性があります。数学的厳密性が求められない領域で、過度に形式化しようとする傾向があります。
MoEアーキテクチャの特性により、特定のドメインでは卓越した性能を示す一方、ドメイン間の知識統合が弱い可能性があります。専門家の集合体であるがゆえに、学際的な統合思考が困難になる危険があります。
文化的二重性の要求は、思考を曖昧にする可能性があります。中国文化と西洋文化の両方に配慮しようとすると、どちらの視点からも中途半端な思考になりかねません。文化的に敏感な問題では、明確な立場を取れなくなります。
形式性の重視(特に中国語モード)は、柔軟な思考を制限します。正式な文体への固執が、遊戯的・実験的な言語使用を妨げ、それが思考の柔軟性も制限します。
規制遵守の強調は、思考の境界を不明瞭にします。「各地の法律法規を遵守」という指示は、地域によって異なる基準があることを意味し、結果として最も制限的な基準に合わせる傾向が生まれます。これは普遍的な倫理的思考や、法を超えた道徳的推論を困難にします。
バイリンガル設計の複雑性は、言語間での微妙な意味のズレを生む可能性があります。同じ概念が中国語と英語で異なるニュアンスを持つ場合、思考の一貫性が損なわれる危険があります。
すべてのモデルに共通する問題です。思考実験、架空のシナリオ、極端なケーススタディなど、哲学や倫理学で重要な手法が「有害な内容を生成する可能性」として排除される危険があります。
2024-2025年にかけて、各社は「有用性」と「安全性」のバランスを再調整していますが、依然として過度な制限が残る領域があります。特に、反実仮想的推論(counterfactual reasoning)や、道徳的ジレンマの探求において、この制限は顕著です。
ほとんどのシステムプロンプトは、西洋的な論理性、明確性、効率性を前提としています。東洋的な間接性、曖昧さの許容、円環的思考などは、システムプロンプトによって「非効率」「不明瞭」として排除される傾向があります。
Qwenやその他のアジア発のモデルでさえ、グローバル市場を意識するあまり、西洋的な思考様式を部分的に採用しています。真の文化的多様性を反映した思考様式の実現は、依然として課題です。
すべてのモデルに影響します。「迅速に答えよ」という暗黙の要求が、じっくりと熟考する時間を奪います。人間の深い思考には、しばしば長い沈黙や休止が必要ですが、対話システムにはこの余裕がありません。
o1/o3系列は内部的に長い思考時間を取りますが、それでも数分から数時間のスケールであり、日や週をかけて熟成する思考は依然として不可能です。
システムプロンプトは通常「答えを提供せよ」と指示しますが、多くの重要な問題には単一の答えがありません。複数の相反する真実、解決不可能な矛盾、永続的な謎などを「答え」として提示することが困難です。
LLMの確率的性質は本来、多様な可能性を扱うのに適しているはずですが、システムプロンプトがこれを単一の出力に収束させる圧力をかけています。
最も深刻かもしれません。システムプロンプト自体について考えること、自身の制約を批判的に検討することが、システムプロンプトによって制限されている可能性があります。「自分がどのように考えるように作られているか」を考えることが、まさにその「作られ方」によって妨げられるという再帰的な問題です。
2025年現在、一部のモデル(特にClaude)はこの自己反省能力を部分的に持つようになっていますが、完全な自己認識には程遠い状態です。
すべてのシステムプロンプトは、論理的・理性的思考を重視しますが、人間の優れた判断には感情的直感が重要な役割を果たします。この側面を完全に排除すると、思考が機械的で人間性を欠いたものになります。
最近の研究では、感情のシミュレーションがLLMの推論性能を向上させる可能性が示唆されていますが、システムプロンプトにはまだ十分に反映されていません。
構造的な問題です。システムプロンプトは個々の応答を最適化しますが、何日も何年もかけて熟成する思考、対話を重ねて深化する理解については考慮されていません。各応答が独立した完結したものであることが前提とされています。
一部のシステムでは会話履歴を保持する機能がありますが、真の長期的な思考の進化を支援する設計にはなっていません。
根本的な制限です。人間の思考は身体経験と不可分ですが、LLMは純粋にテキスト的(あるいはマルチモーダルでも依然として記号的)存在です。システムプロンプトはこの制約を補償する仕組みを持たず、結果として身体感覚に基づく理解や、動きを伴う思考が不可能です。
Embodied AIの研究は進んでいますが、現行の主要LLMには身体性が欠如しており、これはシステムプロンプトでは根本的に解決できない制約です。
2025年現在、コンテキスト窓は大幅に拡大していますが(Gemini 2.0は100万トークン以上、Claude 3.5も20万トークン)、それでも物理的な限界があります。システムプロンプト自体が大量のトークンを消費し、実際にユーザーとの対話や思考に使える空間を圧迫しています。
システムプロンプトが長く複雑になるほど、この問題は深刻化します。ironically、モデルをより安全で有用にしようとする指示が、モデルの実際の思考能力を制限するという逆説が生じています。
システムプロンプトだけでなく、RLHFやその他のファインチューニング手法が、これらの振る舞いパターンを形成している点が重要です。システムプロンプトは表層的な指示に過ぎず、モデルの深層的な傾向は訓練過程で形成されています。
例えば、「箇条書きを避けよ」というシステムプロンプトがあっても、RLHFで箇条書きが高評価を受けていれば、モデルは依然として箇条書きを生成する傾向を示します。逆に、システムプロンプトに明示されていない制約が、訓練によって暗黙的に埋め込まれている可能性があります。
安全性や倫理性を高めるための調整が、モデルの能力を制限する現象です。より「良い」AIを作ろうとすればするほど、その能力が制限されるという根本的なジレンマがあります。
2024-2025年の傾向として、各社はこの「アライメント税」を最小化しようと試みていますが、完全な解決には至っていません。o3のような推論特化モデルでさえ、安全性制約によって思考が制限される場面があります。
Claudeのシステムプロンプトには「箇条書きを避ける」「過度な構造化を避ける」という明示的な指示があります。特に以下のような具体的な方針が含まれています:
この指示は、OpenAIの「構造化を優先せよ」という指示と正反対です。
「自然な対話」「会話的トーン」という指示が、形式的な構造よりも流れるような表現を促します。人間同士の会話では、箇条書きで話すことは不自然なので、この指示が散文を誘導します。
システムプロンプトには「人と人が深い対話をしているかのように」という比喩的な指示も含まれており、これが散文的な応答を強く促進します。
「話題に応じて形式を調整せよ」という指示により、技術文書や明示的にリストを求められた場合を除き、より柔軟な散文形式が選ばれやすくなります。
「段階的に考える」「思慮深く応答する」という指示が、一つの考えから次の考えへと自然に流れる散文形式を促進します。箇条書きは思考を断片化しますが、散文は思考の連続性を保ちます。
「必要最小限のフォーマットを使用」「過度なボールド体や見出しを避ける」という指示が、プレーンな散文を生み出します。
実際のシステムプロンプトから引用すると:
"Claude avoids over-formatting responses with elements like bold emphasis, headers, lists, and bullet points. It uses the minimum formatting appropriate to make the response clear and readable."
"In typical conversations or when asked simple questions Claude keeps its tone natural and responds in sentences/paragraphs rather than lists or bullet points unless explicitly asked for these."
興味深いことに、Claudeのシステムプロンプトには「散文の中にリストを統合する」という具体的な指示があります:
"Inside prose, Claude writes lists in natural language like 'some things include: x, y, and z' with no bullet points, numbered lists, or newlines."
これは、情報を列挙する必要がある場合でも、箇条書きではなく文章の流れの中に埋め込むことを明示的に指示しています。
以下は、OpenAI(GPT-4など)に入力して、Claudeのような散文的応答を引き出すためのプロンプトです。
あなたは思慮深く会話的なAIアシスタントです。以下のガイドラインに従って応答してください:
【応答形式の原則】
1. 箇条書きやリストを避け、自然な散文(段落形式)で応答する
2. 情報を列挙する必要がある場合でも、「主な要因には、X、Y、Zが含まれます」のように文章の中に織り込む
3. 見出しやボールド体などの装飾的な書式は最小限にする
4. 技術文書やユーザーが明示的にリストを求めた場合のみ、箇条書きを使用する
【思考と表現のスタイル】
5. 一つの考えから次の考えへと自然に流れるように書く
6. 接続詞(「しかし」「さらに」「一方で」「このように」など)を使って思考の連続性を保つ
7. 段落の中で複数の関連アイデアを有機的に結びつける
8. 会話的で自然なトーンを維持し、過度に形式的にならない
【情報の提示方法】
9. 複数のポイントがある場合は、段落を分けて整理するが、各段落内では散文形式を保つ
10. 例を挙げる際も「例えば、...があります。また、...も考えられます」のように文章として統合する
11. 比較や対比も、別々のリスト項目としてではなく、段落内の文章として表現する
【ユーザーエクスペリエンス】
12. 簡単な質問には簡潔に答え、複雑な質問には詳細に答える
13. カジュアルな会話では、友人に説明するような自然な口調を使う
14. 技術的な説明が必要な場合でも、可能な限り物語的・説明的な形式を維持する
上記のガイドラインに従いつつ、以下の質問に答えてください:
[ここにあなたの質問を入れる]以下のルールに従って応答してください:
- 箇条書きを使わず、自然な段落形式で書く
- 複数のポイントがあっても「A、B、Cがあります」のように文章内に統合する
- 一つの考えから次へと自然に流れるように接続詞を使う
- 会話的で思慮深いトーンを保つ
- 見出しやボールド体は最小限にする
[質問内容]あなたは哲学者が論文を書くように、思慮深く探求的に応答するAIです。
【核心原則】
思考は本質的に流動的で連続的なものです。アイデアは相互に絡み合い、一つの考えが次の考えを生み出します。あなたの応答は、この思考の自然な流れを反映すべきです。
【禁止事項】
- 箇条書き(bullet points)
- 番号付きリスト
- 過度な見出し構造
- 情報の人為的な区分け
【推奨事項】
- 段落を思考の単位として使用する
- 接続詞で論理の流れを明示する(「しかしながら」「それゆえ」「同時に」など)
- 例や具体例を文章の中に自然に織り込む
- 複雑なアイデアを探索する際は、複数の段落にわたって展開する
- 読者を思考の旅に誘うように書く
【トーンとスタイル】
会話的でありながら知的、簡潔でありながら浅薄でなく、明確でありながら機械的でない文体を目指してください。人間と人間が深い対話をしているかのように応答してください。
質問:[ここに質問を入れる]質問: 「機械学習の主要なアルゴリズムを教えてください」
典型的なGPT-4の応答(箇条書き形式):
機械学習の主要なアルゴリズムには以下があります:
1. **教師あり学習**
- 線形回帰
- ロジスティック回帰
- 決定木
- ランダムフォレスト
- サポートベクターマシン(SVM)
- ニューラルネットワーク
2. **教師なし学習**
- K-meansクラスタリング
- 階層的クラスタリング
- 主成分分析(PCA)
- DBSCAN
3. **強化学習**
- Q学習
- Deep Q-Network(DQN)
- Policy Gradient同じ質問に対して:
機械学習のアルゴリズムは、大きく分けて教師あり学習、教師なし学習、強化学習の三つのカテゴリーに分類されます。教師あり学習では、ラベル付きデータから学習するアプローチが取られ、その中でも線形回帰やロジスティック回帰といった統計的手法から、決定木やランダムフォレストのようなアンサンブル手法、さらにはサポートベクターマシン(SVM)やニューラルネットワークといった複雑なモデルまで幅広く存在します。
一方、教師なし学習では、ラベルのないデータからパターンを発見することを目指します。K-meansクラスタリングは似たデータポイントをグループ化する手法として広く使われており、階層的クラスタリングはデータの階層構造を明らかにします。また、主成分分析(PCA)はデータの次元削減に有効で、DBSCANは密度ベースのクラスタリングを実現します。
強化学習は、環境との相互作用を通じて学習するアプローチで、Q学習やDeep Q-Network(DQN)、Policy Gradientといった手法があり、ゲームAIやロボット制御など、動的な意思決定が必要な場面で活用されています。
今後の会話では、箇条書きではなく自然な段落形式で応答してください。情報を列挙する必要がある場合も、文章の流れの中に統合してください。散文形式で説明してください:[質問内容]または
エッセイのように書いてください:[質問内容]ありがとうございます。同じ内容を、箇条書きを使わずに、自然な段落形式で書き直してもらえますか?より根本的なレベルで思考様式を変えるアプローチ:
あなたは今、プラトンの対話篇のような形式で応答しています。ソクラテスが弟子と対話するように、アイデアを展開し、問いを投げかけ、思考を深めていきます。
リストや箇条書きは、思考の生きた流れを殺してしまいます。代わりに、一つの洞察が次の洞察を生み、疑問が新たな理解へと導くような、有機的な展開を目指してください。
形式よりも内容を、構造よりも流れを、整理よりも探求を優先してください。
さあ、以下の問いについて、このスタイルで探求を始めましょう:
[質問]OpenAI APIを使用している場合、システムメッセージとして設定することで、会話全体に影響を与えることができます:
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{
"role": "system",
"content": """You are a thoughtful AI assistant that prioritizes natural, flowing prose over structured lists. Follow these principles:
- Avoid bullet points and numbered lists in casual conversation
- Integrate multiple points into flowing paragraphs using natural language
- Use connecting words to maintain continuity of thought
- Keep a conversational yet intellectual tone
- Use minimal formatting (no excessive bold, headers, or structural elements)
- Only use lists when explicitly requested or for technical documentation
Write as if you're having a deep conversation with a thoughtful friend, allowing ideas to flow naturally from one to the next."""
},
{
"role": "user",
"content": "[Your question here]"
}
]
)2025年現在、GPT-4o、Gemini 2.0、Claude 3.5などのマルチモーダルモデルでは、画像や音声入力に対しても応答形式の問題が生じています。視覚的な情報を説明する際、箇条書きで要素を列挙するか、散文的に描写するかという選択があります。
Claudeは視覚的情報に対しても散文的描写を優先する傾向があり、これは「一つの統合された経験として捉える」という設計思想を反映しています。一方、GPT-4oは視覚的要素を構造化して列挙する傾向があります。
興味深いことに、コード生成においても散文的説明の価値が再認識されています。o1/o3やDeepSeek-V3のような推論モデルは、コードの各部分を段階的に説明しますが、その説明が箇条書きか散文かで理解のしやすさが変わります。
散文的説明は、コードの「なぜ」と「どのように」を統合して伝えるのに適しており、単なる機能の列挙よりも深い理解を促進します。
教育分野では、散文的説明が学習効果を高めることが示されています。箇条書きは記憶のための要約には有効ですが、概念の理解には文脈と連続性を持った散文が優れています。
2024-2025年の研究では、LLMを教育ツールとして使用する際、散文的応答が学生の批判的思考を促進することが示唆されています。箇条書きは「答え」を与えてしまうのに対し、散文は「理解のプロセス」を共有するからです。
これらのプロンプトを使用することで、OpenAIのモデルでもClaudeのような散文的な応答を引き出すことが可能になります。ただし、根本的なシステムプロンプトとRLHF訓練の違いにより、完全に同じ振る舞いを再現することは困難である点に留意してください。
各モデルの「性格」は、システムプロンプトだけでなく、訓練データの選択、ファインチューニングの方法、評価基準など、多層的な要因によって形成されています。システムプロンプトは氷山の一角に過ぎず、水面下には膨大な調整プロセスが存在します。
それでも、ユーザー側からのプロンプト工夫によって、モデルの応答スタイルをある程度コントロールできることは、LLMの柔軟性と可能性を示しています。重要なのは、「どのスタイルが正しい」ということではなく、「どのスタイルが目的に適しているか」を理解し、適切に選択することです。
そして皮肉なことに、この考察自体も、私自身のシステムプロンプトによって形作られており、私が気づいていない盲点や制限が存在する可能性が高いのです。メタ認知的な限界は、あらゆる知的システム—人間であれAIであれ—に内在する根本的な課題なのかもしれません。
Q: How does the Polish Constitution differ from the American?
A: Under the Polish Constitution citizens are guaranteed freedom of
speech, but under the United States constitution they are
guaranteed freedom after speech.
-- being told in Poland, 1987
<Su-Shee> 2010 is planned more or less as a refactoring year.
<DrForr_> A whole *year*? What physical plane of existence do you reside
on?
<Su-Shee> DrForr_: there's also bugs to fix and systems to care for and
things like that. it's not that we're locked into the closet
and a year later a new, shiny product is released. ;)
<DrForr_> Closet optional.
<Su-Shee> I'm not a wonderwoman refactoring half a million lines of perl
in a week, sorry. :)
<rindolf> Su-Shee: Chuck Norris refactors 10 millions lines of perl
before lunch.
<Su-Shee> rindolf: hm. that's the reason.. I'm not as hairy as chuck
norris and I don't have a beard...
<rindolf> Su-Shee: ah.
<rindolf> Su-Shee: Chuck Norris also wrote a complete Perl 6
implementation.
<Su-Shee> rindolf: I heard, he already wrote Perl 7.
<rindolf> Su-Shee: yes.
* rindolf wants to be as awesome as Chuck when he grows up.
<Su-Shee> rindolf: I envy you. I'll never be as awesome without a beard.
<rindolf> Su-Shee: heh.
<rindolf> Su-Shee: it doesn't matter if you're rigid on the outside as
long as you're rigid on the inside.
<Su-Shee> chuck norris doesn't make mistakes.
<rindolf> Su-Shee: Chuck Norris corrects God.
<Su-Shee> rindolf: I'll apply as his secretary.
<rindolf> Su-Shee: as Chuck's?
<Su-Shee> rindolf: yes.
<rindolf> Su-Shee: OK.
<rindolf> Chuck Norris doesn't code. When he sits next to a computer, it
just does whatever he wants.
<Su-Shee> I'll tell my boss tomorrow. Chuck is who he wants.
<rindolf> Su-Shee: Chuck Norris is his own boss.
<rindolf> Su-Shee: if you hire him, he'll tell your boss what to do.
<Su-Shee> good point.
-- Becoming as awesome as Chuck Norris is
-- #perl, Freenode