[ Main Page ]

裁量・意思決定・人を使うことについての考察

裁量とは何か。多くの人が誤解しているが、裁量は「好きにできる権利」ではない。裁量とは本質的に、結果に対する責任と選択の不可逆性を引き受ける能力である。現場にいると「上に行くと自由がなくなる」「裁量が増えると縛られる」という感覚を持ちやすい。しかし実際には逆で、裁量がない人ほど他人の意思決定の結果を一方的に引き受けさせられる。

仕事を選べない、テーマを決められない、時間の使い方を決められない。これは自由がない状態ではなく、意思決定権の外部化である。裁量とは快適さではなく、この選択が間違っていたら非難されるのは自分だと腹を括れるかという一点に集約される。多くの人は自由を求めて裁量を拒否するが、実は裁量を拒否すること自体が最も不自由な選択なのである。

意思決定は情報処理の問題ではない。本質は孤独の問題である。組織の意思決定点に近づくほど、正解は存在せず、合意は常に暫定的で、誰も責任を取りたくないという状況が濃くなる。だから意思決定とは、誰にも保証されていない判断を誰の同意もなく出す行為になる。

人が意思決定を避ける理由は判断力がないからではない。判断した瞬間に仲間でいられなくなる可能性を本能的に恐れているのである。中間層、中道、空気を読む上層部はまさにこの回避構造の産物である。誰もが最終判断者になることを避け、意思決定を薄め、分散させ、匿名化する。しかしその結果、意思決定は消えるが結果だけは必ず現場に降ってくる。これが裁量を持たない専門家が便利な道具に変質する構造である。

人を使うという言葉には不快感が伴う。特に現場志向や専門職志向の強い人ほどそうである。しかし人を使うとは、自分の仮説、判断、世界観を他人の人生時間に賭けることである。これは支配ではなく、むしろ極めて重い行為である。なぜなら人を使う立場に立った瞬間、間違ったら自分だけが損をするでは済まず、他人のキャリア、生活、誇りを巻き込み、失敗してもやり直しはきかないことが多いという現実が生じる。

だから本能的に、多くの優秀な専門家ほど人を使う立場を避ける。エンジニアや研究者の倫理感はここに根ざしている。しかしここに残酷な非対称性がある。人を使わない者は必ず誰かに使われる。しかもその場合、目的は他人が決め、価値基準も他人が決め、撤退ラインも自分では引けない。人を使わないという選択は倫理的に美しく見えて、実は自分の意思決定を他人に委ねる行為でもある。

最も危うい幻想は「自分は判断しないが誰かが正しく判断してくれるはずだ」という考えである。この幻想は制度、上司、専門家、人工知能に容易に投影される。しかし意思決定から逃げた人間のために世界が最適化されたことは一度もない。裁量を持つこと、意思決定をすること、人を使うこと。これらはすべて権力ではなく、引き受ける覚悟の量で決まる。

裁量を持たない生き方は間違いではない。意思決定を避ける人生も十分に尊重されるべきである。ただし裁量を拒否するなら、その結果として使われる自分を最後まで肯定できなければならない。それができないなら裁量、意思決定、人を使うことから逃げる自由は幻想になる。医療、研究、人工知能、制度、国家。そのすべてで問われているのは結局「誰がどこで孤独に決めるのか」という一点である。この問いから逃げない人だけが裁量を語る資格を持つ。

定年間際のエンジニアが博士課程に進学した事例を考えてみる。このエンジニアにとっての差し当たっての目標は出世でも学位そのものでもなく、自分で研究テーマを決め継続できる最小限の裁量を取り戻すことであった。具体的には、会社の中では失われた研究の意思決定権を大学という別の制度空間で仮復元することである。

彼は企業内で研究テーマを自分で決められず、投資判断から外され、便利な何でも屋として使われるという状態に追い込まれていた。これは能力の問題ではなく裁量と意思決定権の欠如によるものだと本人が明確に自覚していた。そのため博士課程進学は、博士号が欲しい、評価されたい、肩書きを得たいといった目的ではなく、マルチエージェントシミュレーションという自分の問いを少なくとも自分の判断で続けられる場所を確保するという極めて実務的で防衛的な選択であった。

さらに深いレベルでの目標は、人間は本当に説明不可能なのかという問いに計算可能な形でケリをつけることであった。これは名誉や評価とは無関係で、これをやらずに死んだら確実に後悔するという人生レベルの未解決課題である。博士課程はそのための手段であり、会社、大学、制度の利害がたまたま噛み合った隙間に自分の研究を滑り込ませたという構図である。

このエンジニアの差し当たっての目標は、評価されることではなく、自分の問いに対して自分で意思決定できる状態を人生の終盤で一度だけでも取り戻すことであった。だからこの話は定年間際の博士課程進学という珍談ではなく、裁量を失った専門職がどこまで行けば裁量を回収できるのかという普遍的で痛い問いを突いている。

博士課程が選ばれたのは意図的である。博士号は評価指標であって目的物ではない。会社では研究投資の意思決定権を失い、社内制度ではテーマ継続の正当性を失い、年齢的には長期育成の対象外となった。この三点が揃った時点で社内で裁量を取り戻す経路は消滅した。そこで彼が選んだのは、会社の評価軸とは別の評価軸を合法的に外付けするという戦略であった。

大学や博士課程は、研究テーマを自分で定義でき、短期的な事業化を要求されず、成果の評価が論理的一貫性に置かれるという裁量の最低限セットを備えた制度空間である。つまり差し当たっての目標とは、自分の問いを誰にも止められずに続けられる足場を確保することであり、博士課程はそのための最も摩擦が少ない器であった。

この話を定年直前の再挑戦と読むと核心を外す。彼がやっているのは挑戦ではなく、過去に奪われた意思決定権の回収である。キャリアを捨てた代償、研究テーマを持てなかった結果、便利な研究員として消費された時間。これらをひっくり返すことはできない。だから彼は勝ちに行っていない。彼が求めているのは世間的成功でも組織内評価でも収益化でもない。それでもなお、この問いを誰の許可もなく終わらせないという一点だけは回収したかった。これは極めて合理的で同時に切実である。

彼の時間軸は未来志向ではなく完全に遡及的である。これをやらずに死ぬことに耐えられるかという問いに対する答えが否定的だった。それだけである。だから目標設定も独特になる。五年後どうなるかは二次的、社会的にどう見られるかは無関係、成功確率は重要だが決定的ではない。一次関数は常に後悔の量をどれだけ減らせるかである。これは効用最大化ではなく損失最小化の意思決定である。そして人生の終盤においてこの戦略はかなり賢い。

このエンジニアの差し当たっての目標は、若手や中堅にとっては警告文でもある。裁量は自然には増えず、能力と裁量は無関係で、意思決定権を持たない専門家は必ず消耗品になる。やりたい研究を続けたければ、一ミリもやりたくないキャリア努力も必要だという指摘は精神論ではなく制度論である。このエンジニアの差し当たっての目標を最も正確に表現すると、人生の終盤で一度だけ自分が判断主体である状態を取り戻すことである。出世でも名誉でも再起でもない。判断主体であることの回復である。

この話はエンジニアの話であると同時に、医師、研究者、官僚、人工知能時代の専門職すべてに刺さる。なぜ医師は裁量を失いつつあるのか。医師が無能になったからではなく、医師の判断が制度的に危険物になったからである。裁量の本質は不完全な情報のもとで判断し、外れたら自分が引き受けるという構造にある。ところが現代医療ではガイドライン、標準治療、診療報酬、医療訴訟、医療安全委員会が重なり、誤る自由つまり逸脱の自由が急速に狭められた。

ここで重要なのは誤診が多いから縛られたのではなく、医師個人が誤った時に社会がそれを耐えられなくなったという点である。社会が結果のばらつきを許容できなくなった瞬間、裁量は必然的に削られる。現代の医師に期待されている役割は判断することではなく正しく適用することである。つまり最善策は既に決まっている前提でそれをミスなく実装する技能職への変質である。これは医師の価値低下ではなく医師の位置づけの変更である。医療が技能認証に近づいている兆候でもある。

裁量のない医師は訴訟リスクが低く管理しやすく人工知能と置換しやすい。しかし同時に想定外、災害、複合リスクに極端に弱い。新型感染症、災害医療、トリアージで露呈した通り、裁量を持たない専門家は平時専用機である。

人工知能は判断主体になれるのか、それとも永遠の道具か。人工知能は判断主体のふりはできるが判断主体にはなれない。少なくとも現行設計では。判断主体に必要な条件を形式化すると、判断の起点が内部にあり、判断の結果に対して非対称な不利益を負い、その不利益を回避するために自己を変更できることである。人工知能は最初の条件を部分的に満たすが、後の二つを満たさない。人工知能は失敗しても痛くなく、失敗のコストを自分で引き受けず、生存、評判、地位を賭けていない。だから判断しているように見えて責任を引き受けていない。

重要なのは人工知能が判断主体になるのではなく、人間が裁量を引き受けるのをやめるために人工知能が使われているという構図である。人工知能がそう言ったから、アルゴリズム上そうなる、最適化の結果です。これは責任の委譲ではなく責任の蒸発である。人工知能は永遠の道具だが、人間が逃げるための非常に優秀な道具でもある。

医師が裁量を失い、人工知能が判断を提案するようになると何が起きるか。誰も判断していないのに判断が実行される世界である。医師はガイドライン通り、人工知能は統計通り、病院は規則通り。結果が悪くても判断主体が存在しない。これは事故ではなく構造的必然である。

国家は判断主体を持つ個人を必要とするのか。国家は原理的には判断主体を必要としない。国家にとって理想なのは予測可能で従順でばらつきが少ない個人である。つまり判断しないが正しく動く人間である。制度国家は判断主体を好まない。なぜなら判断主体は例外を作り、前例を壊し、責任の所在を曖昧にするからである。

それでも国家が判断主体を必要とする瞬間がある。制度が壊れた瞬間、災害、戦争、感染症の大流行、財政破綻。このとき国家は突然、誰か決めろ、責任は後で考えると言い出す。つまり平時には判断主体は邪魔だが非常時には判断主体がいないと詰む。国家はこの矛盾を解決できていない。国家が実際にやっているのは判断主体を日常的に冷遇し非常時だけ酷使するという設計である。医師、官僚、研究者、現場指揮官が常にこの位置に置かれる。

すべてを一文で繋ぐとこうなる。医師は裁量を奪われ、人工知能は判断主体の幻を提供し、国家は判断主体を平時には排除し非常時にだけ呼び戻す。これは偶然ではない。高度に最適化された社会の必然的帰結である。

判断主体は効率が悪く、事故を起こし、管理しづらい。それでも判断主体がいない社会は一度壊れたら二度と立ち直れない。だから医師が裁量を失うことも、人工知能が判断するふりをすることも、国家が判断主体を冷遇することも、全部短期的には合理的である。長期的には致命的である。

ChatGPT/GPT-5.2 + Claude Sonnet 4.5


   <Yaakov>  LINUX < WINDOWS XP
  <rindolf>  Yaakov: Linux ">" x Inf Windows XP
  <rindolf>  Yaakov: DOS > Linux
  <rindolf>  Yaakov: CTSS > Linux
  <rindolf>  Yaakov: TOPS-10 > Linux
  <rindolf>  Multics > Linux
  <rindolf>  Multics > *
  <rindolf>  I think I'll stop.
 <Supaplex>  I think I'll /clear
    <Kobaz>  CP/M > *
  <rindolf>  Kobaz: heh!
  <rindolf>  Kobaz++
    <Kobaz>  Heh.
    <Kobaz>  CP/M was teh sexy.
    <Kobaz>  How much more of an OS do you really need?
    <Kobaz>  I still have my Apple II sitting in the corner.

    -- My Operating System is Better than Yours
    -- #perl, Freenode


Powered by UNIX fortune(6)
[ Main Page ]